Explizite Deepfake-Bilder von Taylor Swift umgehen Sicherheitsvorkehrungen und überfluten Social Media

Falsche, sexuell explizite Bilder von Taylor Swift, die wahrscheinlich von künstlicher Intelligenz erzeugt wurden, verbreiten sich in dieser Woche rasant auf Social-Media-Plattformen. Fans wurden dadurch verstört und Gesetzgeber rufen erneut dazu auf, Frauen zu schützen und gegen Plattformen und Technologien vorzugehen, die solche Bilder verbreiten.

ADVERTISEMENT

Künstliche Intelligenz erzeugt und verbreitet Deepfake-Bilder von Taylor Swift

Falsche, sexuell explizite Bilder von Taylor Swift, die wahrscheinlich von künstlicher Intelligenz erzeugt wurden, verbreiten sich in dieser Woche rasant auf Social-Media-Plattformen. Fans wurden dadurch verstört und Gesetzgeber rufen erneut dazu auf, Frauen zu schützen und gegen Plattformen und Technologien vorzugehen, die solche Bilder verbreiten.

Ein Bild, das von einem Benutzer auf X, ehemals Twitter, geteilt wurde, wurde vor der Sperrung des Kontos am Donnerstag 47 Millionen Mal angesehen. X sperrte mehrere Konten, die die gefälschten Bilder von Frau Swift veröffentlichten, aber die Bilder wurden auf anderen Social-Media-Plattformen geteilt und verbreiteten sich trotz der Bemühungen dieser Unternehmen, sie zu entfernen.

Während X angab, daran zu arbeiten, die Bilder zu entfernen, überfluteten Fans des Pop-Superstars die Plattform aus Protest. Sie teilten verwandte Schlüsselwörter zusammen mit dem Satz "Protect Taylor Swift", um die expliziten Bilder zu übertönen und sie schwerer auffindbar zu machen.

Reality Defender, ein auf die Erkennung von K.I. spezialisiertes Cybersicherheitsunternehmen, stellte mit 90-prozentiger Sicherheit fest, dass die Bilder mit einem Diffusionsmodell erstellt wurden, einer K.I.-gesteuerten Technologie, die über mehr als 100.000 Apps und öffentlich zugängliche Modelle verfügbar ist, sagte Ben Colman, Mitbegründer und CEO des Unternehmens.

Die Zunahme von Deepfakes und die Verbreitung von Fehlinformationen

Mit dem Boom der K.I.-Industrie haben Unternehmen darum gewetteifert, Tools auf den Markt zu bringen, mit denen Benutzer Bilder, Videos, Texte und Audioclips mit einfachen Anweisungen erstellen können. Die K.I.-Tools sind äußerst beliebt, haben es aber einfacher und günstiger denn je gemacht, sogenannte Deepfakes zu erstellen, in denen Personen Dinge tun oder sagen, die sie nie getan haben.

Forscher befürchten nun, dass Deepfakes eine mächtige Desinformationskraft darstellen, die es normalen Internetnutzern ermöglicht, nicht einvernehmliche Nacktbilder oder peinliche Darstellungen von politischen Kandidaten zu erstellen. Künstliche Intelligenz wurde genutzt, um gefälschte Robocalls von Präsident Biden während der Vorwahlen in New Hampshire zu erstellen, und Frau Swift wurde in Deepfake-Werbungen für Kochgeschirr präsentiert.

„Wir werden eine Tsunamiwelle dieser K.I.-generierten expliziten Bilder sehen. Die Menschen, die dies generiert haben, betrachten das als Erfolg“, sagte Herr Etzioni.

X gab an, eine Null-Toleranz-Politik für solchen Inhalt zu haben. „Unsere Teams entfernen aktiv alle identifizierten Bilder und ergreifen geeignete Maßnahmen gegen die Accounts, die sie veröffentlicht haben“, sagte ein Vertreter in einer Erklärung.

Herausforderungen im Kampf gegen Deepfakes und Rufe nach Regulierung

Obwohl viele Unternehmen, die generative K.I.-Tools herstellen, ihren Benutzern das Erstellen expliziter Bildinhalte verbieten, finden Menschen trotzdem Wege, diese Regeln zu umgehen. „Es ist ein Wettrüsten, und es scheint, dass immer dann, wenn jemand eine Abgrenzung schafft, jemand anderes einen Weg findet, auszubrechen“, sagte Herr Etzioni.

Die Bilder stammten aus einem Kanal in der Messaging-App Telegram, der sich auf die Erzeugung solcher Bilder spezialisiert hat, so das Technologie-Nachrichtenportal 404 Media. Aber die Deepfakes erregten breite Aufmerksamkeit, nachdem sie auf X und anderen Social-Media-Diensten veröffentlicht wurden, wo sie sich rasant verbreiteten.

Einige Bundesstaaten haben bereits Pornographie und politische Deepfakes eingeschränkt. Doch die Beschränkungen haben wenig Einfluss gehabt und es gibt keine bundesweiten Vorschriften für solche Deepfakes, sagte Herr Colman. Plattformen haben versucht, Deepfakes anzugehen, indem sie Benutzer zur Meldung auffordern, aber diese Methode habe nicht funktioniert, fügte er hinzu. Bis sie gemeldet werden, haben bereits Millionen von Nutzern sie gesehen.