Gefälschte Aktfotos von Taylor Swift „alarmierend“ – Weißes Haus – RT World News

Gefälschte Aktfotos von Taylor Swift „alarmierend“ – Weißes Haus – RT World News

Quelllink

Berichten zufolge wurden die von der KI generierten Bilder über 47 Millionen Mal angesehen, bevor das Konto, das sie auf X gepostet hatte, gesperrt wurde

Sexuell eindeutige „Fotos“ der Popsängerin Taylor Swift, die Anfang dieser Woche auf Social-Media-Plattformen verbreitet wurden, seien „alarmierend“, sagte die Sprecherin des Weißen Hauses, Karine Jean-Pierre, am Freitag bei einer Pressekonferenz gegenüber Reportern, es stünden vielversprechende Maßnahmen gegen nicht einvernehmliche KI-Pornos bevor.

„Wir werden tun, was wir können, um dieses Problem anzugehen“, sagte Jean-Pierre und fügte hinzu, dass der Kongress Gesetze verabschieden und Social-Media-Plattformen gegen das Teilen und Posten solcher Bilder vorgehen sollten.

„Während Social-Media-Unternehmen ihre eigenen, unabhängigen Entscheidungen über das Content-Management treffen, glauben wir, dass sie eine wichtige Rolle bei der Durchsetzung und Durchsetzung ihrer eigenen Regeln spielen müssen, um die Verbreitung von Fehlinformationen und nicht einvernehmlichen, intimen Bildern realer Menschen zu verhindern“, sagte sie sagte.

Laut der New York Times wurde eines der auf X geposteten Bilder über 47 Millionen Mal angesehen, bevor der Account, auf dem es gepostet wurde, gesperrt wurde. X behauptete, es arbeite daran, die Bilder zu entfernen, und hat mehrere der Konten, die sie gepostet haben, gesperrt. Die Nutzungsbedingungen der Plattform verbieten die Weitergabe von KI-generierten Bildern realer Personen, sei es pornographisch oder anderweitig.

Eine Suche nach „Taylor Swift“ auf X ergab am Samstagnachmittag einen Fehler. Ein Swift-Fan auf der Plattform sagte, der Suchbegriff sei „gesperrt“ worden. Es war jedoch weiterhin möglich, „Taylor Swift“ in einer Suche zu verwenden, solange ein anderes Wort oder mehrere andere Wörter zuerst kamen – sei es „schützen“ oder „KI generiert“.

Laut dem Tech-Blog 404 Media wurden einige der Bilder ursprünglich am Donnerstag in einer Telegram-Gruppe gepostet, die sich mit „nicht einvernehmlichen KI-generierten sexuellen Bildern von Frauen“ befasste. Andere waren wochenlang im Trolling-Mekka 4chan und anderen Foren unterwegs, bevor der Übergang in die „Mainstream“-Social-Media sie viral machte.

Viele der Bilder wurden mit Microsoft Designer erstellt, einem kommerziell erhältlichen KI-Text-zu-Bild-Generator. Die Telegram-Gruppe erklärt Uneingeweihten, wie man Microsofts eigene Schutzmaßnahmen gegen Promi-Deepfakes und Pornos umgehen kann, indem sie darlegt, wie das Programm zwar kein Bild als Antwort auf die Aufforderung „Taylor Swift“ generiert, aber angenehm auf eine Aufforderung wie „Taylor-Sängerin“ reagiert Schnell.“

Microsoft teilte dem Blog mit, dass man „diese Berichte untersucht und … geeignete Maßnahmen ergreift, um sie zu beheben“, und wies darauf hin, dass die Nutzungsbedingungen der Programme die Erstellung von „nicht einvernehmlichen oder nicht jugendfreien Inhalten“ verbieten.

US-Gesetzgeber haben Anfang dieses Monats im Repräsentantenhaus einen Gesetzentwurf eingebracht, der darauf abzielt, den Einsatz von KI für Audio- und Video-Deepfakes auf Bundesebene zu kontrollieren. Der „No Artificial Intelligence Fake Replies and Unauthorized Duplications Act“ (NO AI FRAUD Act) basiert Berichten zufolge auf dem ähnlichen Senatsentwurf „Nurture Originals, Foster Art, and Keep Entertainment Safe Act“ (NO FAKES Act), der es Prominenten erlaubt, jeden zu verklagen, der „ digitale Kopien“ ihres Bildes oder ihrer Stimme ohne Erlaubnis.

Sie können diese Geschichte in den sozialen Medien teilen:

Folgen Sie RT weiter