Fakten zu KI-Fakes im Wahlkampf
Shownotes
Gast: Dr. Simon Kruschinski, Politikwissenschaftler an der Johannes Gutenberg-Universität Mainz. Er forscht zum Einsatz von KI in politischen Kampagnen und betreibt mit einem interdisziplinären Team das Projekt CampaignTracker.de. Host: Konrad Göke, Chefredakteur politik&kommunikation
Zentrale Themen und Thesen:
KI im Wahlkampf: Hype vs. Realität
- [00:02:10.669] Simon Kruschinski erklärt, dass die Befürchtung eines von KI überschwemmten Wahlkampfs ("AI Election Year") 2024 in Deutschland bisher nicht eingetreten ist. Die Nutzung sei eher experimentell als flächendeckend strategisch.
- [00:03:07.080] Simon Kruschinski beobachtet eher vereinzelte Experimente von Parteien mit KI-generierten Texten, Bildern oder Videos, aber keine umfassende Integration.
- [00:15:19.610] Simon Kruschinski stellt fest, dass von ca. 70.000 analysierten Social-Media-Beiträgen nur etwa 550 mittels KI erstellt wurden, was den experimentellen Charakter in Deutschland unterstreicht.
Erkennung von KI-Inhalten
- [00:05:03.889] Simon Kruschinski argumentiert, dass die Zugänglichkeit und einfache Bedienbarkeit von KI-Tools (z.B. über ChatGPT statt früher Mid-Journey auf Discord) die Verbreitung von KI-Inhalten (auch offline) erhöht.
- [00:06:24.040] Simon Kruschinski betont, dass selbst Experten oft Schwierigkeiten haben, KI-generierte Bilder von echten zu unterscheiden, da klassische Fehler (z.B. sechs Finger) immer seltener werden.
- [00:07:19.819] Simon Kruschinski weist auf ein Dilemma bei der Kennzeichnung hin: Sie hilft zwar bei der Erkennung, kann aber auch dazu führen, dass Menschen gekennzeichneten echten Bildern misstrauen oder negative Bilder eher für KI halten.
- [00:08:18.000] Simon Kruschinski merkt an, dass zwar noch Artefakte wie "glatte Haut" oder Hintergrundfehler existieren, diese aber durch den technischen Fortschritt bald verschwinden dürften.
Das Projekt "Campaign Tracker"
- [00:09:17.629] Konrad Göke fragt nach dem Projekt Campaign Tracker.
- [00:09:41.940] Simon Kruschinski erläutert, dass sich das Projekt auf Bilder und Videos konzentriert, da die zuverlässige Identifikation von KI-Texten extrem schwierig ist. Ziel sei Transparenz über den KI-Einsatz (Parteien, Themen, Tonalität).
- [00:11:18.940] Simon Kruschinski beschreibt die Methode: Analyse von ca. 3000 Social-Media-Accounts (Facebook, Instagram) von Parteien und Kandidierenden (Bund bis Lokal). Zweistufige Identifikation: KI-Detektionsmodell plus menschliche Expertenprüfung bei Verdachtsfällen anhand eines Kriterienkatalogs.
Wer nutzt KI und wie?
- [00:16:12.340] Simon Kruschinski stellt fest, dass insbesondere kleinere Parteien (genannt von Konrad Göke [00:18:24.470]: PDF, Bergpartei, NPD/Die Heimat) verstärkt KI nutzen, vermutlich aus Ressourcengründen (Effizienz).
- [00:16:54.929] Simon Kruschinski hebt hervor, dass die AfD KI am häufigsten und am strategischsten einsetzt.
- [00:17:43.210] Simon Kruschinski berichtet, dass 85% der identifizierten KI-Inhalte ohne Kennzeichnung (Disclaimer) veröffentlicht wurden.
- [00:19:13.220] Simon Kruschinski beschreibt die AfD-Strategie: Einsatz auf allen Ebenen, einheitliche Bildsprache, Emotionalisierung von Themen wie Migration, Innere Sicherheit, Kritik an Umweltpolitik, sowie die negative Darstellung gegnerischer Politiker (z.B. Friedrich Merz (CDU), Nancy Faeser (SPD), Olaf Scholz (SPD), Robert Habeck (Grüne)) mittels KI.
Wirkung von KI-Inhalten
- [00:21:42.039] Simon Kruschinski präsentiert Ergebnisse eines Wirkungsexperiments: KI-Bilder wirken oft ebenso überzeugend wie echte Fotos. Entscheidend für die emotionale Reaktion (Angst, Wut, Hoffnung) sei der Inhalt, nicht die Quelle (KI oder echt). Die Kennzeichnung spiele für die Wirkung kaum eine Rolle.
- [00:22:53.690] Simon Kruschinski ergänzt, dass ausgelöste Emotionen politische Urteile beeinflussen (z.B. negative Emotionen -> Skepsis gegenüber KI-nutzenden Parteien) und die eigene politische Haltung die Bewertung von Inhalten (egal ob KI oder echt) stark prägt (Confirmation Bias).
Darstellung echter Personen und Deepfakes
- [00:24:29.319] Simon Kruschinski bestätigt, dass die AfD KI zur Darstellung echter Politiker nutzt und die technische Hürde dafür sinkt (z.B. durch ChatGPT, GROC). Dies werfe rechtliche (Persönlichkeitsrechte, Fall Eckart von Hirschhausen vs. Facebook) und ethische Fragen auf.
- [00:28:48.240] Simon Kruschinski erwähnt, dass die AfD und das BSW den Ethikkodex zum KI-Einsatz nicht unterzeichnet haben und die AfD ihren Akteuren freie Hand lässt.
Engagement und Video-KI
- [00:29:35.420] Simon Kruschinski erklärt die höheren Likezahlen für KI-Posts damit, dass KI oft für Inhalte genutzt wird, die ohnehin stark emotionalisieren, personalisiert sind und kontroverse Themen (Innenpolitik, Migration) behandeln – was generell auf Social Media gut funktioniert.
- [00:31:37.539] Simon Kruschinski sieht Video-KI als nächstes großes Feld. Die AfD habe bereits damit experimentiert (als einzige Partei im Sample), sowohl mit reinen KI-Videos als auch mit KI-Schnipseln in realen Videos zur emotionalen Untermauerung (z.B. bei Themen wie Migration). Tools wie Sora würden realistische KI-Videos bald einfacher zugänglich machen.
Was ist zu tun? Handlungsempfehlungen
- [00:35:31.780] Simon Kruschinski betont, dass die Herausforderung nicht die Technologie selbst, sondern ihre Nutzung ist. Ziel sei ein verantwortungsvoller Rahmen.
- [00:36:03.650] Simon Kruschinski fordert eine klare und verständliche Kennzeichnungspflicht für KI-Inhalte. Die Verantwortung müsse geklärt werden (Tool-Anbieter vs. Plattformen). Eine Lösung erfordere die Zusammenarbeit von Wissenschaft, Plattformen und Entwicklern.
- [00:38:11.380] Simon Kruschinski plädiert für verbindliche ethische Standards für politische Akteure. Freiwillige Ethikkodizes reichen nicht aus, wenn sie nicht von allen unterzeichnet oder eingehalten werden, was den Ruf nach Regulierung verstärke.
- [00:39:08.190] Simon Kruschinski unterstreicht die dringende Notwendigkeit einer massiven Stärkung der Medienkompetenz für alle Altersgruppen. Diese müsse über Basiswissen hinausgehen und das Verständnis von Plattformlogiken, Algorithmen, Targeting und KI-Missbrauchspotenzialen umfassen. Hier sei die Politik gefordert, für flächendeckende und nachhaltige Bildungsangebote zu sorgen.
Neuer Kommentar