Deepfakes, Täuschung und die Flut synthetischer Inhalte. Mit Dr. Christopher Nehring
Shownotes
Gast: Dr. Christopher Nehring, Wissenschaftler, Buchautor, Desinformations- und Geheimdienstexperte Host: Marten Neelsen, Kommunikationsberater und Kolumnist
Deepfakes verstehen und einordnen
- [ca. 00:03:00] Dr. Christopher Nehring erläutert, dass Deepfakes technisch identisch sind – ob gutartig oder bösartig –, und warum der Begriff derzeit negativ konnotiert ist.
- [ca. 00:04:30] Unterschied zwischen rein KI-erstellten Podcasts und klassischen Produktionen: Technik entscheidet nicht über Ethik, sondern Nutzungskontext.
Bedrohungslage und Angriffslogiken
- [ca. 00:07:30] Deepfakes wirken über Masse: „Flooding the Zone“ erstickt Kommunikationsräume mit scheinbaren Beweisen.
- [ca. 00:08:40] KI-Agenten skalieren Betrug, Social Engineering und politische Einflussnahme – Quantität sät Zweifel, nicht einzelne perfekte Fälschungen.
- [ca. 00:13:10] Social Media „ersäuft“ laut Nehring in KI-Clips; ganze Kanäle bestehen aus synthetischen Nachrichten.
- [ca. 00:14:58] Russische Operation Overload bombardiert Fact-Checker mit hunderten KI-E-Mails pro Tag, um Ressourcen zu binden.
Schutzmaßnahmen für Organisationen und Individuen
- [ca. 00:22:30] Kombination aus Erkennungstools, Cybersecurity und geschulten Mitarbeitenden ist nötig, um Live-Deepfakes in Calls zu stoppen.
- [ca. 00:24:00] Strategische Kommunikation und aktive Cyberabwehr fehlen vielerorts; bloßes Debunking erreicht nicht dieselben Zielgruppen.
- [ca. 00:26:30] KI sollte auch für legitime Gegenkommunikation genutzt werden – Zurückhaltung schwächt demokratische Akteure.
Regulierung, Recht und Bildung
- [ca. 00:18:10] Kritik am EU AI Act: Label-Pflichten sagen nichts über Intention oder Wahrheitsgehalt, sobald fast alle Inhalte KI-berührt sind.
- [ca. 00:27:30] Nationale Strafrechtspläne gegen Deep Nudes und CEO-Fraud bringen nur Wirkung, wenn Plattformen kooperieren und Zuständigkeiten geklärt sind.
- [ca. 00:31:00] Ohne flächendeckende digitale Bildung für Jugendliche und Berufsgruppen bleibt Medienkompetenz Stückwerk.
Blick auf das Wahljahr
- [ca. 00:35:00] Parteien sollen KI transparent für eigene Kampagnen einsetzen, statt auf die „eine große Deepfake-Bombe“ zu warten.
- [ca. 00:36:30] Bürger*innen sollten Programme und Fakten außerhalb automatisierter Social-Media-Feeds prüfen und sich nicht darauf verlassen, dass andere Inhalte labeln.
- [ca. 00:37:30] Schlussappell: Verantwortung nicht auslagern – aktive Informationshygiene ist der beste Schutz gegen synthetische Manipulation.
Quelle Intro: Zentrum für politische Schönheit, https://www.youtube.com/watch?v=GChN6HDvKSw&t=319s
Neuer Kommentar