Auf Etsy kann man KI-generierte Pornobilder von Prominenten kaufen. Die Plattform tut nur wenig, um diese zu entfernen – obwohl sie verboten sind.
Auf dem Internet-Marktplatz Etsy können KI-generierte Bilder gekauft werden, die Prominente in pornografischer Art und Weise darstellen – sogenannte Deepfakes. Wie das US-Magazin „Forbes“ berichtet, liefern schon die einfachsten Suchanfragen tausende von Ergebnissen. Dabei sind pornografische Inhalte auf der Plattform verboten, ob KI-generiert oder nicht.
Eine der betroffenen Personen, die amerikanische Schauspielerin Olivia Munn, geht nun mit ihrem Anwalt gegen die Seite vor. Aber Etsy reagiert nach Angaben des Anwalts nur schleppend auf die Aufforderung, diese Art von Bildern zu löschen. So habe es sechs Tage gedauert, bis Etsy die Bilder seiner Klienten entfernt habe und auch erst, als „Forbes“ Etsy ebenfalls zu diesem Fall kontaktiert habe.
Deepfakes im Mainstream angekommen
Auf Nachfrage von „Forbes“ betonte das Unternehmen zwar, sich dem Problem bewusst zu sein und alles in ihrer Machtstehende zu tun, um diese Deepfakes von dem Marktplatz zu entfernen. Doch laut dem US-Magazin waren auch Tage nach der Ankündigung, die meisten der Angebote, die Deepfake-Pornos anboten, immer noch online. Die Preise dieser Angebote liegen dabei zwischen unter einem Dollar und etwas über fünf Dollar.
Das liegt laut einem der Händler, der solche Deepfakes auf der Plattform anbietet und bereit war, mit „Forbes“ zu sprechen, daran, dass die Programme einfach zu bedienen seien. Zudem seien sie so weit verbreitet, dass viele, wenn sie Interesse an solchen Bildern haben, sich diese einfach selbst generieren lassen können. Auch für Hany Farid, einen Professor für Computerwissenschaften an der University of California, ist die Tatsache, dass diese Bilder auf Etsy auftauchen, ein Beweis dafür, dass diese Technologie im Mainstream angekommen sei.