In einer Zeit, in der künstliche Intelligenz neu definiert, wie wir Informationen konsumieren, stellen Deepfakes – KI-generierte Videos, Audios oder Bilder, die echte Menschen mit unheimlicher Genauigkeit nachahmen – eines der heimtückischsten Risiken für den Journalismus dar. Diese synthetischen Medien können Aussagen, Handlungen oder Ereignisse erfinden, die nie stattgefunden haben, untergraben die Glaubwürdigkeit von Reporter:innen und verzerren den öffentlichen Diskurs.

Auf Basis einer umfassenden Analyse von Reporter ohne Grenzen (RSF) sowie Erkenntnissen aus ähnlichen Studien beleuchtet dieser Beitrag die wachsenden Herausforderungen und Schäden, die Deepfakes dem Bereich zufügen – insbesondere Journalist:innen – und zeigt Beispiele aus der Praxis, die die Dringlichkeit des Themas verdeutlichen.

Das Ausmaß der Bedrohung: Erkenntnisse von RSF und darüber hinaus

Laut RSF, das 100 Deepfake-Vorfälle untersuchte, die zwischen Dezember 2023 und Dezember 2025 Journalist:innen in 27 Ländern ins Visier nahmen, eskaliert das Problem rasant. Erschreckende 74 % der Betroffenen waren Frauen; in 13 % dieser Fälle ging es um pornografische Deepfakes – eine Form geschlechtsspezifischer digitaler Gewalt, die Belästigung und Cybermobbing verstärkt. Diese Manipulationen verleumden nicht nur Einzelpersonen, sondern beeinflussen auch die öffentliche Meinung, verbreiten Desinformation und gefährden die körperliche Sicherheit. So wurden Deepfakes etwa genutzt, um Anti-Impf-Behauptungen oder politische Verschwörungen zu fabrizieren – mit realen Folgen wie Betrugsmaschen und Manipulation des Publikums.

Das deckt sich mit Erkenntnissen aus anderen Quellen. Eine Pindrop-Analyse betont, wie Deepfakes die Glaubwürdigkeit der Medien untergraben, die Verbreitung von Falschinformationen beschleunigen und das öffentliche Vertrauen in den Journalismus schwächen. Ebenso warnt ein Beitrag der Brookings Institution vor einer „ungewissen Zukunft der Wahrheit“, in der Deepfakes Fiktion wie Tatsache erscheinen lassen und so potenziell Wahlen und die nationale Sicherheit beeinflussen. Das Nieman Lab hat Redaktionen dazu aufgerufen, sich vorzubereiten, indem sie den Fokus auf Erkennungs- und Eindämmungsstrategien legen – und weist darauf hin, dass die Bedrohung zwar real ist, aber oft überzeichnet wird und sich durch gezielte Maßnahmen abwehren lässt. Ein UNESCO-Bericht ordnet Deepfakes als „Krise des Wissens“ ein und prognostiziert ein massives Wachstum KI-getriebener Betrugsfälle und gesellschaftlicher Störungen; die Betrugsverluste könnten bis 2027 auf 40 Milliarden US-Dollar steigen. Zusammen zeigen diese Berichte: Deepfakes sind nicht nur eine technologische Spielerei, sondern ein Werkzeug für Betrug, Verleumdung und breiteren gesellschaftlichen Schaden.

Die Schäden: Von persönlichem Leid bis zur Erosion der Gesellschaft

Deepfakes verursachen vielschichtige Schäden bei Journalist:innen und in der Öffentlichkeit. Auf persönlicher Ebene setzen sie Reporter:innen Belästigung aus – besonders Frauen, die überproportional häufig durch sexualisierte Inhalte ins Visier geraten. Das kann zu Rufmordkampagnen, Doxxing und sogar körperlichen Drohungen führen, sodass manche Journalist:innen ihre Arbeitsweise ändern oder sich aus öffentlich sichtbaren Rollen zurückziehen. Betroffene berichten zum Beispiel von Fluten scambezogener Beschwerden oder davon, dass Ermittlungen gegen die Täter:innen ins Stocken geraten.

Zu den größeren Schäden gehört die Erosion des Vertrauens in die Medien. Wenn das Publikum echte Berichterstattung nicht mehr von Fälschungen unterscheiden kann, fördert das Skepsis gegenüber legitimem Journalismus und verstärkt Desinformation bei kritischen Ereignissen wie Wahlen oder Konflikten. Im politischen Kontext wurden Deepfakes mit Wahlbeeinflussung in Verbindung gebracht – etwa in der Slowakei und in Nigeria, wo KI-Audio manipulierte Narrative verbreitete oder fälschlich Alkoholpreise erhöhte. Wirtschaftlich ermöglichen sie Betrugsmaschen, darunter ein Betrugsfall über 25,6 Millionen US-Dollar mit einem KI-generierten Videoanruf. Die „Lügner-Dividende“ – wenn echte Inhalte als fake abgetan werden – erschwert zusätzlich die Rechenschaftspflicht, wie in der Türkei zu sehen war, wo ein echtes kompromittierendes Video als Deepfake bezeichnet wurde.

Gerade im Journalismus verwischen Deepfakes die Grenze zwischen Fakt und Fiktion, machen Faktenchecks schwieriger und können zu Börsenrückgängen oder öffentlicher Panik führen – wie bei einem gefälschten Bild einer Pentagon-Explosion. Da KI-Tools immer leichter zugänglich werden, steigt die Menge solcher Inhalte stark an: Allein 2023 wurden online über 500.000 Video- und Voice-Deepfakes geteilt.

Beispiele aus der Praxis: Deepfakes von Journalist:innen

Der RSF-Bericht liefert eindrückliche Beispiele, doch zusätzliche Fälle aus globalen Medien zeigen, wie allgegenwärtig das Problem ist. Hier einige bemerkenswerte Fälle, in denen bekannte Journalist:innen per Deepfake missbraucht wurden:

Cristina Caicedo Smit (Voice of America): Im Februar 2025 wurden ihr Bild und ihre Stimme in Videos nachgebildet, die Donald Trump und Elon Musk angriffen und gleichzeitig USAID verteidigten – und VOA als politisch voreingenommen darstellten.

Pedro Benevides (TV1, Portugal): Ein Facebook-Deepfake nutzte sein Gesicht und seine Stimme, um Anti-Impf-Verschwörungsbehauptungen über eine Zusammenarbeit von Regierung und Pharmaindustrie zu verbreiten und Zuschauer:innen zu täuschen – trotz späterer Widerlegung.

Leanne Manas (südafrikanische Moderatorin): Ziel mehrerer Scam-Anzeigen für Pharmazeutika und Kryptowährungen, was zu bis zu 50 Beschwerden pro Tag und Polizeibesuchen an ihrem Arbeitsplatz führte.

Rana Ayyub (indische Journalistin): Wurde nach ihrem Einsatz für Gerechtigkeit in einem Fall von Kindesvergewaltigung Ziel einer pornografischen Deepfake-Rufmordkampagne, kombiniert mit Doxxing, das zu Belästigung führte.

Julia Mengolini (Futurock, Argentinien): Wurde Opfer eines gewalttätigen pornografischen Deepfakes mit einem inzestuösen Szenario, das von politischen Akteuren wie Präsident Javier Milei verstärkt wurde.

Anderson Cooper (CNN): In einem Deepfake-Video beschimpfte er Donald Trump in vulgären Worten; Trump selbst teilte es in sozialen Medien.

Gayle King (CBS Mornings): Tauchte in einem KI-generierten Clip auf, der ein Produkt bewarb, das sie nie unterstützt hatte, und der sich online weit verbreitete.

Clarissa Ward (CNN): Gefälschtes Audio wurde über echtes Filmmaterial gelegt, das sie bei der Berichterstattung von der Israel-Gaza-Grenze zeigte, und untergrub so ihre Berichterstattung.

Richard Engel (NBC) und Yalda Hakim: Beide wurden in Inhalten deepgefaked, die geopolitische Konflikte suggerierten – etwa einen erfundenen Pakistan-Indien-Krieg – mit dem Ziel, Zweifel oder Verwirrung zu säen.

FRANCE 24 Journalist: Wurde in einem Deepfake imitiert, der behauptete, Emmanuel Macron habe Truppen in die Ukraine geschickt; verbreitet von pro-russischen Medien.

Diese Beispiele zeigen ein Muster: Deepfakes nehmen häufig prominente Personen ins Visier, um Reichweite und Wirkung zu maximieren, und missbrauchen ihre Glaubwürdigkeit für böswillige Zwecke.

Deepfakes bekämpfen: Tools und Strategien

Um dieser Bedrohung zu begegnen, ist ein mehrgleisiger Ansatz erforderlich. RSF empfiehlt die Einführung von Rückverfolgbarkeitsstandards in Nachrichtenredaktionen, die Zertifizierung von Inhalten auf Plattformen und die Schaffung spezifischer Gesetze gegen bösartige Deepfakes. Nachrichtenorganisationen wie The Wall Street Journal und Reuters schulen ihre Mitarbeiter in der Erkennung und nutzen Algorithmen, um Inkonsistenzen in Audio, Video oder Bildern zu erkennen. Und es gibt nützliche, frei verfügbare Ressourcen, die Journalisten helfen, gefälschte Bilder zu erkennen, wie zum Beispiel Henk van Ess’s Tool Image Whisperer.

Bei vali.now stehen wir mit unseren Produkten zur Bildintegrität an vorderster Front dieses Kampfes. Unser Tool Live Video Deepfake Detection hilft, Manipulationen in Echtzeit zu erkennen, während Ariane forensische Analysen für Strafverfolgungsbehörden bietet und Veritas Integrität in wissenschaftlichen und journalistischen Kontexten sicherstellt. Wenn du auf verdächtige Medien gestoßen bist, leite sie an uns weiter, damit wir schnell ein Urteil liefern: Sicher, Verdächtig oder Bestätigter Scam.

Fazit

Deepfakes sind eine tiefgreifende Herausforderung für den Journalismus und verstärken Schäden von persönlichem Trauma bis hin zur Erosion der Demokratie. Wie die Analyse von RSF und parallele Berichte zeigen, wächst die Bedrohung – aber auch die Lösungen. Wenn wir wachsam bleiben, fortschrittliche Erkennungstools einsetzen und Initiativen wie die von vali.now unterstützen, können wir die Wahrheit schützen. Abonniere unseren Newsletter für weitere Einblicke in die Bekämpfung digitaler Täuschung – und denk daran: Im Zeitalter der KI ist Verifizierung entscheidend.

Hinterlasse einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert