Taylor Swift deepfake-Pornografie führt zu erneuten Forderungen nach US-Gesetzgebung

Die schnelle Verbreitung von Deepfake-Pornografiebildern von Taylor Swift im Internet hat zu erneuten Forderungen, auch von US-Politikern, geführt, diese Praxis zu kriminalisieren, bei der Künstliche Intelligenz verwendet wird, um überzeugende, aber gefälschte explizite Bilder zu synthetisieren.

ADVERTISEMENT

Verbreitung von Deepfake-Bildern im Internet

Kürzlich sind explizite Deepfake-Bilder von Taylor Swift in den sozialen Medien viral gegangen und haben Bedenken hervorgerufen, die Notwendigkeit einer Gesetzgebung zur Lösung dieses Problems anzusprechen. Diese gefälschten Bilder, die mit Hilfe von Künstlicher Intelligenz erstellt wurden, wurden von Millionen von Menschen angesehen. Ein Bild, das in der App Telegram gehostet wurde, erhielt 47 Millionen Aufrufe, bevor es entfernt wurde.

Als Reaktion auf die Verbreitung dieser Bilder hat das Unternehmen X, das in der Verbreitung von Deepfake-Inhalten involviert ist, erklärt, dass sie identifizierte Bilder aktiv entfernen und Maßnahmen gegen die verantwortlichen Accounts ergreifen. Die Vorfälle haben jedoch eine größere Diskussion über die Notwendigkeit rechtlicher Maßnahmen zur Bekämpfung von Deepfake-Pornografie ausgelöst.

Forderungen nach Gesetzgebung

US-Politiker, darunter die demokratische Kongressabgeordnete Yvette D. Clarke und der republikanische Kongressabgeordnete Tom Kean Jr., haben ihre Bedenken über Deepfake-Pornografie geäußert und legislative Maßnahmen gefordert. Clarke betonte, dass Deepfakes schon lange dazu genutzt werden, Frauen ohne ihre Zustimmung anzugreifen, und mit Fortschritten in der KI sei es einfacher und billiger geworden, solchen Inhalt zu erstellen. Sie betonte die Bedeutung der parteiübergreifenden Zusammenarbeit, um dieses Problem anzugehen.

Während einige US-Bundesstaaten Gesetze gegen Deepfakes haben, gibt es eine wachsende Forderung nach bundesstaatlicher Gesetzgebung. Im Mai 2023 schlug der demokratische Kongressabgeordnete Joseph Morelle das Gesetz zur Verhinderung von Deepfakes mit intimen Bildern vor, das das Teilen von Deepfake-Pornografie ohne Zustimmung illegal machen soll. Morelle und Kean haben beide die Notwendigkeit von Schutzmaßnahmen betont, um diesem alarmierenden Trend entgegenzuwirken und potenzielle Opfer zu schützen.

Zielrichtung Frauen und die Notwendigkeit von Schutzvorkehrungen

Deepfake-Technologie wird hauptsächlich verwendet, um Frauen auf sexuell ausbeuterische Weise anzugreifen. Eine Studie von DeepTrace Labs im Jahr 2019 ergab, dass 96 % der Deepfake-Videomaterialien nicht einvernehmliches pornografisches Material waren. Das Problem hat sich mit dem Fortschritt der KI verschlimmert, was die Erstellung überzeugender Bilder mit einfachen Textbefehlen ermöglicht.

Bekannte Frauen, darunter Prominente wie Scarlett Johansson, haben sich über die Verbreitung gefälschter Pornografie mit ihrem Abbild geäußert. Die britische Regierung hat im Dezember 2022 Maßnahmen ergriffen, um nicht einvernehmliche Deepfake-Pornografie illegal zu machen. Diese Schritte sollen Frauen und Mädchen vor Missbrauch und Erniedrigung durch manipulierte intime Fotos schützen.