„Verletzend und entmenschlichend“: Wie KI-Deepfakes gezielt gegen Frauen eingesetzt werden

Experten bezeichnen die Verwendung der Bilder einer Person zur Erstellung von Deepfakes mithilfe künstlicher Intelligenz (KI) ohne deren Zustimmung als „entmenschlichend“.

Deepfake-Technologie erfreut sich in den letzten Jahren immer größerer Beliebtheit, und es war nie einfacher, sie zu erstellen, da Menschen in der Lage sind, Video- oder Audioinhalte auf hyperrealistische Weise zu manipulieren.

Um einen Deepfake zu erstellen, genügen nur ein paar Bilder vom Gesicht einer Person.

Manche verwenden es aus Spaß, da es die Grundlage für Face-Swap-Apps und mehrere Filter in sozialen Medien ist, aber es gibt auch mehrere böswillige Verwendungszwecke, von gefälschten Videos von Politikern bis hin zu Betrügereien.

Besonders Frauen sind Opfer von Deepfake-Pornografie, die oft ohne Zustimmung verbreitet wird.

Im Jahr 2019 schätzte Deeptrace, ein auf künstliche Intelligenz (KI) spezialisiertes Unternehmen, dass 96 Prozent der Deepfake-Videos Pornos ausmachten, wobei die überwiegende Mehrheit ohne die Zustimmung der abgebildeten Person erstellt wurde.

„Das ist ein Verstoß. Das ist entmenschlichend. Und die Realität ist, dass wir wissen, dass dies die Beschäftigungsfähigkeit einer Person beeinträchtigen könnte. Dies könnte Auswirkungen auf die zwischenmenschlichen Beziehungen und die psychische Gesundheit einer Person haben“, sagte Noelle Martin, Aktivistin und Forscherin an der University of Western Australien, der sich seit zehn Jahren mit bildbasierten Missbräuchen befasst.

In einem der jüngsten Fälle wurden Teenager-Mädchen im Alter von 11 Jahren gezielt angegriffen und die Bilder wurden über soziale Medien mit ihren Klassenkameraden an der Highschool geteilt.

Ein Phänomen, das sich an Frauen richtet

Das Phänomen der Deepfakes wurde erstmals 2017 in Fachforen wie Reddit beobachtet, wobei weibliche Prominente aufgrund der großen Menge an im Internet verfügbaren Bildern ins Visier genommen wurden.

„Einer der beunruhigendsten Trends, die ich in Foren von Leuten sehe, die diesen Inhalt erstellen, ist, dass sie denken, es sei ein Witz oder sie denken, dass es nicht ernst ist, weil die Ergebnisse nicht hyperrealistisch sind, ohne zu verstehen, dass dies für die Opfer immer noch wirklich ist. wirklich schmerzhaft und traumatisch“, sagte Henry Ajder, ein Experte für generative KI.

Aber jetzt, da die Technologie immer weiter verbreitet wird, sind alle Frauen mit ernsthaften Risiken sozialer und psychologischer Auswirkungen konfrontiert.

„Es ist erschreckend und schockierend, sich selbst auf eine Weise dargestellt zu sehen, der man nicht zugestimmt hat“, sagte Martin.

„Die Realität sieht so aus. Wir wissen, dass dies Auswirkungen auf die Beschäftigungsfähigkeit einer Person haben könnte. Dies könnte Auswirkungen auf die zwischenmenschlichen Beziehungen und die psychische Gesundheit einer Person haben“, fügte sie hinzu.

Manchmal werden Deepfakes gemacht, um die Arbeit von Frauen zu diskreditieren.

Die Aktivistin Kate Isaacs und die Journalistin Rana Ayyub wurden aufgrund ihrer beruflichen Tätigkeit beide Opfer von Hetzkampagnen mit Deepfakes.

Darüber hinaus ist es nicht einfach, einen Deepfake zu erkennen, insbesondere da sich die Technologie verbessert.

„Realistisch gesehen wird das Individuum und das bloße Auge des Individuums einfach kein verlässlicher Indikator für die Erkennung von Fälschungen sein. Sie wissen schon, schon jetzt, aber vor allem in der Zukunft, wenn die Ergebnisse qualitativ besser werden“, sagte Ajder.

In einer kürzlich veröffentlichten öffentlichen Bekanntmachung des US Federal Bureau of Investigation (FBI) heißt es, dass sie weiterhin „Berichte von Opfern erhalten, darunter minderjährige Kinder und nicht einwilligende Erwachsene, deren Fotos oder Videos in explizite Inhalte umgewandelt wurden“.

Es gab sogar Fälle, in denen Deepfake-Pornos zur Erpressung von Menschen eingesetzt wurden.

„Seit April 2023 hat das FBI einen Anstieg von Sextortion-Opfern beobachtet, die die Verwendung gefälschter Bilder oder Videos melden, die aus Inhalten erstellt wurden, die auf ihren Social-Media-Seiten oder Webbeiträgen gepostet, dem böswilligen Akteur auf Anfrage zur Verfügung gestellt oder in Video-Chats erfasst wurden. „, heißt es in der Ankündigung.

Verbrechen bleiben ungestraft

Deepfakes sind schwer zu erkennen und auch schwer strafrechtlich zu verfolgen, da der Gesetzgeber versucht, mit der Technologie Schritt zu halten.

Ende 2022 erklärte das britische Justizministerium, dass das Teilen von Deepfakes ohne die Zustimmung einer Person zu einer Gefängnisstrafe führen könne. Auch Taiwan hat einen ähnlichen Gesetzentwurf umgesetzt.

In Europa befasst sich der Digital Services Act (DSA) nicht mit dem Problem nicht einvernehmlicher Deepfakes. Allerdings soll das EU-KI-Gesetz, dessen Entwurf gerade erst verhandelt wurde, einen robusteren Rechtsrahmen bieten.

In den Vereinigten Staaten haben mehrere Bundesstaaten, darunter Kalifornien, Texas und Virginia, nicht einvernehmliche Deepfakes zu einer Straftat erklärt.

„Es muss eine Art globale Reaktion seitens der Regierung, der Strafverfolgungsbehörden, der Menschen vor Ort und der Opfergemeinschaften geben. Es gibt also eine Verantwortung für die Menschen, bei denen sie nicht einfach jemandes Leben ruinieren und damit davonkommen können, ohne dass es Konsequenzen für sie hat.“ „sagte Martin.

Weitere Informationen zu dieser Geschichte finden Sie im Video im Mediaplayer oben.