Hass, Hetze und digitale Schutzräume. Mit Sara Egetemeyr

Shownotes

Gast: Sarah Egetemeyr, Gründerin & CEO Penemue Host: Marten Neelsen, Kommunikationsberater und Kolumnist

Penemue und digitale Schutzsysteme

  • Egetemeyr beschreibt Penemue als KI-basiertes Schutzunternehmen, das Hassnachrichten filtert, Betroffene priorisiert und strafbare Inhalte automatisiert an Staatsanwaltschaften meldet [ca. 00:01:21].
  • Die Plattform soll öffentlichen Personen ermöglichen, schwere Delikte selektiv zu verfolgen und niedrigschwellige Anzeigewege zu nutzen [ca. 00:02:00].

Desinformation als Brandbeschleuniger

  • Am Beispiel der Diffamierungskampagne gegen Brosius-Gersdorf zeigt sie, wie Falschmeldungen Hasswellen auslösen und Kandidaturen beenden können [ca. 00:02:50].
  • Fälle wie die Plagiatsvorwürfe gegen Frau Förder-Schmidt, manipulierte Zitate bei Renate Künast und die Waffenlobby-Erzählung rund um Agnes Strack-Zimmermann dokumentieren die Dynamik „Desinformation zuerst, Hass danach“ [ca. 00:03:10–00:04:48].
  • Studien des MIT belegen, dass Desinformation sich sechs- bis zehnmal schneller verbreitet als Korrekturen – ein Trend, der seit ChatGPT und TikTok noch kaum erforscht ist [ca. 00:05:22].

Meinung, Algorithmus, Echokammer

  • Egetemeyr trennt legitime Streitkultur von Manipulation: Geht es um Argumente oder darum, Personen zu diskreditieren und mundtot zu machen? [ca. 00:06:39]
  • Plattformen wie X und Meta deregulieren ihren Fact-Checking-Apparat; emotionalisierte Inhalte erzeugen mehr Interaktion und begünstigen Hass-Kaskaden [ca. 00:06:05–00:06:19].
  • Algorithmische Echokammern verstärken Extrempositionen; stilles „Lurking“ lässt laute Minderheiten wie Mehrheiten wirken [ca. 00:07:04 & 00:19:04].

Digitale Zivilcourage und Moderation

  • Counterspeech im Kommentarbereich hilft Betroffenen messbar, solange problematische Posts nicht durch Shares weiterverbreitet werden [ca. 00:17:24].
  • Polisphere-Analysen zeigen, dass Unterstützungsbotschaften für Journalistinnen wie Dunja Hayali selten sind; positive Communitys können Hasskommentare teilweise selbst regulieren [ca. 00:17:00–00:21:50].
  • Creator*innen sollten Moderation ernst nehmen: Ragebait und bewusst zugelassener Hass vertreiben Zielgruppen und Markenpartner [ca. 00:21:00–00:22:30].

Digitale Gewalt definieren

  • Hate Speech umfasst gruppenbezogene Menschenfeindlichkeit, doch digitale Gewalt reicht weiter: Doxing, intime Bildfälschungen und KI-basierte Fake-Pornos zerstören Existenzen [ca. 00:25:08–00:27:04].
  • Besonders betroffen sind Frauen, queere Menschen, Personen mit sichtbarem Migrationshintergrund sowie Profi-Sportler, die nach Fehlern Morddrohungen erhalten [ca. 00:27:04–00:28:00].
  • Hass schreckt potenzielle Nachwuchskräfte – etwa junge Kommunalpolitikerinnen – ab und reduziert Vielfalt im öffentlichen Raum [ca. 00:26:20–00:27:40].

Verantwortung von Institutionen & Rechtsstaat

  • Arbeitgeber, Parteien, Redaktionen und Vereine sollen digitale Schutzmaßnahmen finanzieren, statt Betroffene allein zu lassen [ca. 00:30:00–00:30:40].
  • Der Digital Services Act verpflichtet Plattformen zwar zu Meldewegen, wird aber bislang nur zögerlich umgesetzt; deshalb setzt PandemU auf direkte Kooperation mit Justizbehörden [ca. 00:28:54–00:30:50].
  • Mehr Anzeigen würden Abschreckung schaffen: Aktuell wird nur etwa ein Prozent der strafbaren Hassdelikte gemeldet [ca. 00:31:40].

Meinungsfreiheit vs. Hass-Narrative

  • Die Behauptung „man darf nichts mehr sagen“ dient laut Egetemeyr häufig dazu, Schutzinstitutionen zu diskreditieren, obwohl selbst radikale Akteure regelmäßig Beleidigungen anzeigen lassen [ca. 00:32:27–00:34:32].
  • Hate Speech zerstört letztlich die freie Meinungsäußerung, weil bedrohte Stimmen sich zurückziehen („lauter Hass, leiser Rückzug“) [ca. 00:36:40].
  • Regelwerke fördern respektvolle Debatten: Wer wiederholt unter der Gürtellinie kommentiert, verliert den Zugang; Anpassungsbereitschaft zeigt, dass konstruktive Kritik weiterhin möglich ist [ca. 00:35:00–00:36:00].

Ausblick & Hilfe für Betroffene

  • KI-gestützte Bild- und Videomanipulationen, insbesondere sexualisierte Deepfakes, gelten als größtes zukünftiges Gefahrenfeld [ca. 00:37:20–00:38:04].
  • Betroffene sollen frühzeitig Präventionssoftware nutzen, Beratungsstellen kontaktieren und konsequent Anzeigen erstatten, statt Angriffe allein auszuhalten [ca. 00:38:24].
  • Egetemeyr ruft zu Solidarität auf: Digitale Schutzräume sichern demokratische Teilhabe, bevor Hass aus dem Netz auf die Straße schwappt [ca. 00:39:00].

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.