Meta geht bei Fehlinformationen immer härter vor, da dieses Jahr in Ländern auf der ganzen Welt Wahlen stattfinden.
Meta wird in den kommenden Monaten mit der Kennzeichnung von durch künstliche Intelligenz (KI) generierten Fotos beginnen, die auf seine Plattformen Instagram, Facebook und Threads hochgeladen werden, wenn die Wahlsaison auf der ganzen Welt beginnt, gab das Unternehmen am Dienstag bekannt.
Das Unternehmen von Mark Zuckerberg entwickelt Tools zur groß angelegten Identifizierung von KI-Inhalten, um Fehlinformationen und Deepfakes zu erkennen.
Meta sagt, dass es nun versuchen wird, KI-generierte Inhalte zu kennzeichnen, die von Google, OpenAI, Microsoft, Adobe, Midjourney und Shutterstock stammen. Außerdem werden Benutzer bestraft, die nicht offenlegen, ob ein realistisches Video- oder Audiostück mit KI erstellt wurde.
Bisher hat Meta nur KI-generierte Bilder gekennzeichnet, die eigene KI-Tools nutzten.
Nick Clegg, Präsident für globale Angelegenheiten bei Meta, schrieb am Dienstag in einem Blogbeitrag, dass das Unternehmen „in den kommenden Monaten“ mit der KI-generierten Kennzeichnung durch externe Unternehmen beginnen und „im nächsten Jahr“ weiter an dem Problem arbeiten werde.
Darüber hinaus sagte er, dass Meta „hart daran arbeitet, Klassifikatoren zu entwickeln, die uns dabei helfen können, KI-generierte Inhalte automatisch zu erkennen, selbst wenn die Inhalte keine unsichtbaren Markierungen enthalten“.
Warum jetzt?
Während der US-Präsidentschaftswahlen 2016 und 2020 wurde Meta, damals bekannt als Facebook, kritisiert, weil auf seiner Website wahlbezogene Fehlinformationen ausländischer Akteure, hauptsächlich Russland, verbreitet wurden. Das Unternehmen geriet auch während der COVID-19-Pandemie 2019 in die Kritik, als auch auf der Plattform gesundheitsbezogene Fehlinformationen grassierten.
Die neue KI-Richtlinie von Meta dürfte auch das unabhängige Aufsichtsgremium des Unternehmens verärgern, das am Montag seine Medienpolitik als „inkohärent“ und „mangelnd an überzeugender Begründung“ kritisierte.
Es folgt einem von Meta bestätigten Urteil, dass ein manipuliertes Video von Joe Biden, das ursprünglich zeigte, wie der US-Präsident im Jahr 2022 „Ich habe gewählt“-Aufkleber mit seiner erwachsenen Enkelin austauschte, später so manipuliert wurde, dass es so aussah, als hätte er ihre Brust unangemessen berührt.
Meta sagte, das Video verstoße nicht gegen die aktuellen Richtlinien, da das Video nicht mit KI manipuliert worden sei.
Clegg sagte, die Social-Media-Branche sei bei der Entwicklung von Standards zur Identifizierung von KI-generiertem Video und Audio im Rückstand, räumte jedoch ein, dass das Unternehmen nicht alle gefälschten Medien allein erkennen könne.
„Diese Arbeit ist besonders wichtig, da dies in den kommenden Jahren wahrscheinlich zu einem zunehmend kontroversen Raum werden wird“, sagte Clegg.
„Menschen und Organisationen, die Menschen aktiv mit KI-generierten Inhalten täuschen wollen, werden nach Möglichkeiten suchen, Sicherheitsmaßnahmen zu umgehen, um diese zu erkennen. In unserer gesamten Branche und Gesellschaft müssen wir weiterhin nach Möglichkeiten suchen, immer einen Schritt voraus zu sein.“