• Datenschutz-Bestimmungen
  • Kontakt Formular
  • Protokolldateien
  • Redaktionelle Richtlinien
  • Über uns
Dienstag, Juni 24, 2025
NEWSLETTER
Deutsch City
  • Deutschland
  • Politik
  • Welt
  • Digital
  • Finanzen
  • Leben
  • Panorama
  • Sport
  • Auto
  • Mehr
    • Gesundheit
    • Unterhaltung
    • Webgeschichten
    • Redakteurfavoriten
    • Pressemitteilung
No Result
View All Result
  • Deutschland
  • Politik
  • Welt
  • Digital
  • Finanzen
  • Leben
  • Panorama
  • Sport
  • Auto
  • Mehr
    • Gesundheit
    • Unterhaltung
    • Webgeschichten
    • Redakteurfavoriten
    • Pressemitteilung
No Result
View All Result
Deutsch City
Home Welt

Große Technologieunternehmen unterzeichnen Abkommen zur Bekämpfung KI-generierter Desinformation bei Wahlen

17. Februar 2024
in Welt

Meta, OpenAI, TikTok, Microsoft und Amazon gehörten zu den Unterzeichnern der Vereinbarung auf der Münchner Sicherheitskonferenz. Auch Elon Musks X hat sich angemeldet.

Große Technologieunternehmen haben am Freitag einen Pakt unterzeichnet, um freiwillig „angemessene Vorsichtsmaßnahmen“ zu ergreifen, um zu verhindern, dass Werkzeuge der künstlichen Intelligenz (KI) zur Störung demokratischer Wahlen auf der ganzen Welt eingesetzt werden.

Führungskräfte von Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI und TikTok trafen sich auf der Münchner Sicherheitskonferenz, um einen neuen Rahmen für ihre Reaktion bekannt zu geben KI-generierte Deepfakes das absichtlich Wähler täuscht.

Zwölf weitere Unternehmen – darunter Elon Musks X – unterzeichnen das Abkommen ebenfalls.

„Jeder erkennt, dass kein Technologieunternehmen, keine Regierung, keine zivilgesellschaftliche Organisation in der Lage ist, mit dem Aufkommen dieser Technologie und ihrer möglichen schändlichen Nutzung allein umzugehen“, sagte Nick Clegg, Präsident für globale Angelegenheiten bei Meta Muttergesellschaft von Facebook und Instagram, in einem Interview vor dem Gipfel.

Das Abkommen hat größtenteils symbolischen Charakter, zielt aber auf immer realistischere, von der KI generierte Bilder, Audio- und Videoinhalte ab, „die das Aussehen, die Stimme oder die Handlungen von politischen Kandidaten, Wahlbeamten und anderen wichtigen Interessenvertretern in einer demokratischen Wahl täuschen oder verändern.“ Den Wählern falsche Informationen darüber liefern, wann, wo und wie sie rechtmäßig wählen dürfen.“

Die Unternehmen verpflichten sich nicht, Deepfakes zu verbieten oder zu entfernen. Stattdessen beschreibt das Abkommen Methoden, mit denen sie versuchen werden, irreführende KI-Inhalte zu erkennen und zu kennzeichnen, wenn diese auf ihren Plattformen erstellt oder verbreitet werden.

Darin heißt es, dass die Unternehmen Best Practices austauschen und „schnelle und verhältnismäßige Antworten“ geben werden, wenn sich diese Inhalte zu verbreiten beginnen.

Es fehlen verbindliche Vorgaben

Die Unbestimmtheit der Zusagen und das Fehlen jeglicher verbindlicher Anforderungen trugen wahrscheinlich dazu bei, eine breite Palette von Unternehmen für sich zu gewinnen, doch enttäuschte Befürworter suchten nach stärkeren Zusicherungen.

„Die Sprache ist nicht ganz so stark, wie man hätte erwarten können“, sagte Rachel Orey, Senior Associate Director des Elections Project am Bipartisan Policy Center.

„Ich denke, wir sollten Kredit geben, wo Kredit gebührt, und anerkennen, dass die Unternehmen ein begründetes Interesse daran haben, dass ihre Instrumente nicht dazu verwendet werden, freie und faire Wahlen zu untergraben. Das heißt, es ist freiwillig und wir werden ein Auge darauf haben.“ davon, ob sie es durchziehen.

Clegg sagte, jedes Unternehmen habe „völlig zu Recht seine eigenen Inhaltsrichtlinien“.

„Das ist nicht der Versuch, jedem eine Zwangsjacke aufzuzwingen“, sagte er.

„Und auf jeden Fall glaubt niemand in der Branche, dass man mit einem völlig neuen technologischen Paradigma umgehen kann, indem man die Dinge unter den Teppich kehrt und versucht, alles auf die Reihe zu kriegen, von dem man glaubt, dass es jemanden in die Irre führen könnte.“

Auch mehrere politische Führer aus Europa und den USA schlossen sich der Ankündigung vom Freitag an. Vizepräsident der Europäischen Kommission Vera Jourova sagte, ein solches Abkommen könne zwar nicht umfassend sein, „enthält aber sehr wirkungsvolle und positive Elemente“.

Sie forderte ihre Politikerkollegen außerdem dazu auf, die Verantwortung dafür zu übernehmen, KI-Tools nicht betrügerisch einzusetzen, und warnte davor, dass KI-gestützte Desinformation „das Ende der Demokratie, nicht nur in den EU-Mitgliedstaaten“ herbeiführen könnte.

KI-Einmischung in die Wahlen ist bereits im Gange

Die Einigung auf dem jährlichen Sicherheitstreffen der deutschen Stadt kommt zu einem Zeitpunkt, an dem im Jahr 2024 in mehr als 50 Ländern nationale Wahlen abgehalten werden sollen. Bangladesch, Taiwan, Pakistan und zuletzt Indonesien haben dies bereits getan.

Versuche einer KI-generierten Wahlbeeinträchtigung haben bereits begonnen, beispielsweise als KI-Robocalls dies nachahmten US-Präsident Joe BidenMit seiner Stimme versuchte er, die Menschen letzten Monat davon abzuhalten, an den Vorwahlen in New Hampshire teilzunehmen.

Nur wenige Tage vor den slowakischen Wahlen im November gaben KI-generierte Audioaufnahmen einen Kandidaten aus, der über Pläne zur Erhöhung der Bierpreise und zur Manipulation der Wahl diskutierte. Faktenprüfer bemühten sich, sie als falsch zu identifizieren, als sie sich in den sozialen Medien verbreiteten.

Auch Politiker haben mit der Technologie experimentiert, von der Verwendung von KI-Chatbots zur Kommunikation mit Wählern bis hin zum Hinzufügen von KI-generierten Bildern zu Anzeigen.

Das Abkommen fordert die Plattformen auf, „auf den Kontext zu achten und insbesondere auf die Wahrung pädagogischer, dokumentarischer, künstlerischer, satirischer und politischer Ausdrucksmöglichkeiten“.

Die Unternehmen würden sich darauf konzentrieren, den Nutzern Transparenz über ihre Richtlinien zu bieten und die Öffentlichkeit darüber aufzuklären, wie sie vermeiden können, auf KI-Fälschungen hereinzufallen.

Die meisten Unternehmen haben zuvor erklärt, dass sie Schutzmaßnahmen für ihre eigenen generativen KI-Tools ergreifen, die Bilder und Ton manipulieren können, und gleichzeitig daran arbeiten, KI-generierte Inhalte zu identifizieren und zu kennzeichnen, damit Social-Media-Nutzer wissen, ob das, was sie sehen, echt ist. Die meisten dieser vorgeschlagenen Lösungen wurden jedoch noch nicht eingeführt, und die Unternehmen standen unter dem Druck, mehr zu tun.

Dieser Druck ist in den USA noch größer, wo der Kongress noch keine Gesetze zur Regulierung der KI in der Politik verabschiedet hat und die Unternehmen sich weitgehend selbst regieren müssen.

Die Federal Communications Commission hat kürzlich bestätigt, dass KI-generierte Audioclips in Robocalls gegen das Gesetz verstoßen. Dies gilt jedoch nicht für Audio-Deepfakes, wenn sie in sozialen Medien oder in Wahlkampfwerbung verbreitet werden.

Viele Social-Media-Unternehmen verfügen bereits über Richtlinien, um irreführende Beiträge über Wahlprozesse zu verhindern – ob KI-generiert oder nicht.

Laut Meta werden Fehlinformationen über „Daten, Orte, Zeiten und Methoden der Stimmabgabe, Wählerregistrierung oder Teilnahme an Volkszählungen“ sowie andere falsche Beiträge entfernt, die die Bürgerbeteiligung einer Person beeinträchtigen sollen.

Abwesende vom Abkommen

Jeff Allen, Mitbegründer des Integrity Institute und ehemaliger Facebook-Datenwissenschaftler, sagte, die Vereinbarung scheine ein „positiver Schritt“ zu sein, er würde sich jedoch dennoch wünschen, dass Social-Media-Unternehmen andere Maßnahmen ergreifen, um Fehlinformationen zu bekämpfen, beispielsweise die Erstellung von Inhaltsempfehlungen Systeme, bei denen das Engagement nicht an erster Stelle steht.

Lisa Gilbert, geschäftsführende Vizepräsidentin der Interessenvertretung Public Citizen, argumentierte am Freitag, dass das Abkommen „nicht genug“ sei und KI-Unternehmen „Technologie“ wie hyperrealistische Text-zu-Video-Generatoren „zurückhalten sollten, bis es substanzielle und …“ Wir haben angemessene Sicherheitsvorkehrungen getroffen, die uns dabei helfen, viele potenzielle Probleme abzuwenden.“

Zu den weiteren Unterzeichnern gehören neben den Unternehmen, die bei der Vermittlung der Vereinbarung vom Freitag mitgeholfen haben, auch die Chatbot-Entwickler Anthropic und Inflection AI; Voice-Clone-Startup ElevenLabs; Chipdesigner Arm Holdings; Sicherheitsunternehmen McAfee und TrendMicro; und Stability AI, bekannt dafür, dass der Bildgenerator eine stabile Diffusion erhält.

Bemerkenswerterweise fehlt ein weiterer beliebter KI-Bildgenerator, Midjourney. Das in San Francisco ansässige Startup reagierte am Freitag nicht sofort auf eine Bitte um Stellungnahme.

Die Einbeziehung von X – die in einer früheren Ankündigung zur bevorstehenden Einigung nicht erwähnt wurde – war eine der Überraschungen der Einigung vom Freitag.

Musk hat die Content-Moderationsteams nach der Übernahme des ehemaligen Twitter stark eingeschränkt und sich selbst als „Absolutist der freien Meinungsäußerung“ bezeichnet.

In einer Erklärung am Freitag sagte X-CEO Linda Yaccarino: „Jeder Bürger und jedes Unternehmen hat die Verantwortung, freie und faire Wahlen zu gewährleisten.“

„X ist bestrebt, seinen Teil dazu beizutragen und mit Kollegen zusammenzuarbeiten, um KI-Bedrohungen zu bekämpfen und gleichzeitig die freie Meinungsäußerung zu schützen und die Transparenz zu maximieren“, sagte sie.

Next Post

Neues Einsteiger-Motorrad aus China

Schreibe einen Kommentar Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Datenschutz-Bestimmungen
  • Kontakt Formular
  • Protokolldateien
  • Redaktionelle Richtlinien
  • Über uns

Urheberrecht ©️ Alle Rechte vorbehalten | Deutsch City.

No Result
View All Result
  • Deutschland
  • Politik
  • Welt
  • Digital
  • Finanzen
  • Leben
  • Panorama
  • Sport
  • Auto
  • Mehr
    • Gesundheit
    • Unterhaltung
    • Webgeschichten
    • Redakteurfavoriten
    • Pressemitteilung

Urheberrecht ©️ Alle Rechte vorbehalten | Deutsch City.