Deepfakes sind dieser Tage überall in den news. Diese KI-generierten Videos und Bilder können jeden so aussehen lassen, als würde er Dinge sagen oder tun, die er nie gesagt oder getan hat. Während viele sich Sorgen machen, dass Deepfakes für gefälschte politische Reden oder zum Verbreiten von Lügen genutzt werden, scheint das größte Problem etwas ganz anderes zu sein.
Das explosive Wachstum von Deepfakes
Aktuelle Berichte zeigen einen massiven Anstieg von Deepfakes. Die Zahl der online geteilten Deepfake-Dateien sprang von rund 500.000 im Jahr 2023 auf voraussichtlich 8 Millionen bis Ende 2025. Und der überwiegende Teil, 96–98 %, dieses Inhalts ist nicht einvernehmliches intimes oder pornografisches Material, wobei 99–100 % der Betroffenen Frauen sind.
Die meisten Betroffenen sind Frauen
Ein neues wissenschaftliches Paper der Forscherin Dana Mahr vom Karlsruher Institut für Technologie nimmt diesen Trend genau unter die Lupe. Veröffentlicht in der Zeitschrift AI & Society erklärt die Studie, dass sexualisierte Deepfakes nicht nur mit Desinformation zu tun haben. Sie sind eine moderne Form bildbasierter sexualisierter Gewalt, die an lang bestehende Muster geschlechtsbezogener Kontrolle und Schädigung anknüpft.
Der eigentliche Schaden: Visueller Zwang
Der eigentliche Schaden entsteht durch das, was die Forscherin „visuellen Zwang“ nennt. Täter nutzen KI, um das Gesicht und den Körper einer Frau ohne ihre Zustimmung in explizite sexuelle Situationen zu setzen. Selbst wenn allen klar ist, dass der Inhalt gefälscht ist, bleibt der Schaden real – er führt zu Demütigung, nimmt die Kontrolle über das eigene Bild und kann Ruf, Karriere und Zukunftschancen beschädigen.
Das ist besonders gefährlich, weil es so leicht ist. Früher brauchte man für Revenge Porn meist private Fotos aus einer persönlichen Beziehung. Heute kann praktisch jeder überzeugende, gefälschte explizite Inhalte erzeugen – mit nichts weiter als öffentlichen Fotos aus sozialen Medien. Personen des öffentlichen Lebens wie Journalistinnen, Politikerinnen und Aktivistinnen sind häufige Ziele, aber auch ganz normale Menschen sind gefährdet.
Warum Plattformen es schlimmer machen
Social-Media-Plattformen verschärfen die Situation. Ihre Systeme sind darauf ausgelegt, Inhalte an möglichst viele Menschen auszuspielen – dadurch verbreiten sich schädliche Deepfakes schnell und weit. Anonymität auf diesen Plattformen schützt die Personen, die die Inhalte erstellen, und macht es schwer, sie zur Verantwortung zu ziehen. Wenn Plattformen dieses Material sperren, wandert es oft einfach auf andere Seiten ab.
Die Lücken in Gesetzen und Technologie
In einigen Ländern holen die aktuellen Gesetze langsam auf, indem sie nicht einvernehmliche Deepfake-Pornografie adressieren. Aber es gibt große Lücken. Betroffene haben oft Schwierigkeiten, den Urheber zu identifizieren – besonders wenn er anonym ist oder in einem anderen Land sitzt. Rechtliche Verfahren können langsam und teuer sein und legen den Großteil der Last auf die Person, die geschädigt wurde.
Technische Tools zur Deepfake-Erkennung werden besser, haben aber Grenzen. Zu erkennen, dass etwas KI-generiert ist, macht den emotionalen oder reputationsbezogenen Schaden nicht ungeschehen. Außerdem kann der Inhalt immer wieder online auftauchen und so wiederholte Traumatisierung auslösen.
Was sich ändern muss
Die Studie fordert eine klügere, umfassendere Antwort, die Zustimmung ins Zentrum stellt. Das bedeutet:
- Plattformen stärker in die Verantwortung nehmen, schädliche Inhalte zu verhindern und schnell zu entfernen
- Gesetze aktualisieren, um Identität und Selbstbestimmung besser zu schützen – auch wenn die Bilder KI-generiert sind
- Bessere technische Schutzmaßnahmen schaffen, z. B. Tools, die den Ursprung von Bildern nachverfolgen – wie unser Veritas und Deepface – und Zustimmung verifizieren
- Breitere kulturelle Veränderungen fördern – hin zu mehr Respekt für Zustimmung und persönliche Bilder
Einfach nur Einzelpersonen zu sagen, sie sollten online vorsichtiger sein oder ihren digitalen Fußabdruck reduzieren, reicht nicht. Das verlagert die Verantwortung auf potenzielle Betroffene, statt die Systeme zu reparieren, die den Missbrauch ermöglichen.
Bei vali.now konzentriert sich unsere Arbeit in der Cybersicherheit darauf, Menschen und Organisationen zu helfen, sicher zu bleiben, während sich KI weiterentwickelt. Der Deepfake-Boom zeigt, dass wir eine stärkere Zusammenarbeit zwischen Gesetzgebern, Tech-Unternehmen, Forschenden und Nutzern brauchen. Da diese Tools immer leistungsfähiger und leichter zugänglich werden, ist es dringend, die Lücken in Gesetzen, Plattformen und KI-Governance zu schließen.
Wir müssen sexualisierte Deepfakes als das behandeln, was sie sind: eine schwere Form geschlechtsbezogener Gewalt – nicht nur als technische Kuriosität oder als kleinen Nebeneffekt des KI-Fortschritts.
Was denkst du? Haben Deepfakes dich oder jemanden, den du kennst, betroffen? Teile deine Erfahrungen unten in den Kommentaren – und melde dich gern bei unserem Team unter vali.now, wenn du praktische Tipps zum Schutz deiner digitalen Identität möchtest.
