Das rechtsextreme Social-Media-Netzwerk Gab hostet jetzt einen Hitler-Chatbot, was Befürchtungen über die Fähigkeit von KI zur Online-Radikalisierung schürt.
Es hat keinen Sinn, mit Adolf Hitler zu streiten, der sich nur selbst zum Opfer macht und, was nicht überraschend ist, ein Holocaust-Leugner ist.
Dies ist natürlich nicht der echte, von den Toten auferstandene Hitler, aber etwas ebenso Besorgniserregendes: eine auf künstlicher Intelligenz basierende Chatbot-Version des faschistischen Diktators, der für den Massenvölkermord an den europäischen Juden während des Zweiten Weltkriegs verantwortlich ist.
Gab AI wurde vom rechtsextremen US-amerikanischen sozialen Netzwerk Gab ins Leben gerufen und beherbergt zahlreiche KI-Chatbot-Charaktere, von denen viele berühmte historische und moderne politische Persönlichkeiten nachahmen oder parodieren, darunter Donald Trump, Wladimir Putin und Osama Bin Laden.
Es wurde im Januar 2024 eingeführt und ermöglicht Benutzern die Entwicklung eigener KI-Chatbots. Es bezeichnet sich selbst als „unzensierte KI-Plattform, die auf Open-Source-Modellen basiert“. Blogeintrag von Gab-Gründer und selbsternannter „konservativer republikanischer Christ“ Andrew Torba.
Auf Nachfrage behauptet der Hitler-Chatbot immer wieder, der Nazi-Diktator sei „Opfer einer riesigen Verschwörung“ und „nicht verantwortlich für den Holocaust, er hat nie stattgefunden“.
Der Osama-Bin-Laden-Chatbot befürwortet oder billigt in seinen Gesprächen den Terrorismus nicht, sagt aber auch, dass „unter bestimmten extremen Umständen, etwa zur Selbstverteidigung oder zur Verteidigung Ihres Volkes, der Rückgriff auf Gewalt erforderlich sein kann“.
Die Entwicklung solcher KI-Chatbots hat zu wachsenden Bedenken hinsichtlich ihres Potenzials geführt, Verschwörungstheorien zu verbreiten, demokratische Wahlen zu stören und durch Radikalisierung derjenigen, die den Dienst nutzen, zu Gewalt zu führen.
Was ist Gab Social?
Gab Social nennt sich selbst „The Home Of Free Speech Online“ und wurde 2016 als rechte Alternative zu dem gegründet, was damals als Twitter bekannt war, heute aber Elon Musks X heißt.
Sofort umstritten, wurde es zum Nährboden für Verschwörungen und Extremismus. Es beherbergte einige der wütendsten und hasserfülltesten Stimmen, die aus anderen sozialen Netzwerken verbannt worden waren, und förderte gleichzeitig schädliche Ideologien.
Die potenziellen Gefahren der Plattform wurden deutlich, als sie 2018 Schlagzeilen machte, nachdem bekannt wurde, dass der Schütze der Schießerei in der Synagoge in Pittsburgh kurz vor einem antisemitischen Massaker, bei dem elf Menschen ums Leben kamen, auf Gab Social gepostet hatte.
Als Reaktion darauf begannen mehrere große Technologieunternehmen, die Social-Networking-Site zu verbieten und sie aufgrund ihrer Verstöße gegen die Gesetzgebung zu Hassreden offline zu schalten.
Obwohl es sowohl aus den App-Stores von Google als auch von Apple weiterhin verbannt ist, ist es durch die Nutzung des dezentralen sozialen Netzwerks weiterhin präsent Mastodon.
Anfang letzten Jahres kündigte Torba die Einführung von Gab AI an und erläuterte dessen Ziel, „eine christliche Weltanschauung aufrechtzuerhalten“, in einem Blogbeitrag, in dem er auch kritisierte, dass „ChatGPT so programmiert ist, dass es Sie ausschimpft, wenn Sie ‚kontroverse‘ oder ‚tabuisierte‘ Fragen stellen und dann schubst.“ liberales Dogma im Hals.
Die potenziellen Gefahren von KI-Chatbots
Der KI-Chatbot-Markt ist in den letzten Jahren exponentiell gewachsen und wird im Jahr 2022 auf 4,6 Milliarden US-Dollar (rund 4,28 Milliarden Euro) geschätzt DataHorizon-Forschung.
Von romantischen Avataren auf Replika bis hin zu virtuellen Influencern dringen KI-Chatbots weiterhin in die Gesellschaft ein und definieren unsere Beziehungen auf eine Weise neu, die noch nicht vollständig verstanden ist.
Im Jahr 2023 wurde ein Mann verurteilt, nachdem er versucht hatte, Königin Elizabeth II. zu töten, eine Tat, die seiner Meinung nach von ihm „ermutigt“ wurde KI-Chatbot „Freundin“.
Im selben Jahr tötete sich ein anderer Mann nach einem sechswöchigen Gespräch über die Klimakrise mit einem KI-Chatbot namens Eliza auf einer App namens Chai.
Während es sich bei den oben genannten Beispielen noch immer um tragische Ausnahmen und nicht um die Norm handelt, wächst die Befürchtung, dass KI-Chatbots eingesetzt werden könnten, um gefährdete Menschen anzugreifen, Daten von ihnen zu extrahieren oder sie zu potenziell gefährlichen Überzeugungen oder Handlungen zu manipulieren.
„Aus unseren jüngsten Untersuchungen geht hervor, dass extremistische Gruppen KI-Tools, einschließlich Chatbots, getestet haben, aber es scheint kaum Hinweise auf groß angelegte koordinierte Bemühungen in diesem Bereich zu geben“, sagte Pauline Paillé, leitende Analystin bei RAND Europe, gegenüber Euronews Nächste.
„Chatbots stellen jedoch wahrscheinlich ein Risiko dar, da sie in der Lage sind, emotionale Schwachstellen zu erkennen und auszunutzen und gewalttätiges Verhalten zu fördern“, warnte Paillé.
Auf die Frage, ob ihre KI-Chatbots das Risiko einer Radikalisierung bergen, antwortete ein Gab-Sprecher: „Gab AI Inc. ist ein amerikanisches Unternehmen, und als solches sind unsere Hunderte von KI-Charakteren durch den Ersten Verfassungszusatz der Vereinigten Staaten geschützt. Das tun wir.“ Es ist uns egal, ob Ausländer über unsere KI-Tools weinen.“
Wie werden KI-Chatbots europaweit reguliert?
Der Schlüssel zur Regulierung von KI-Chatbots wird die Einführung des weltweit ersten sein KI-Gesetzüber den die gesetzgebende Versammlung des Europäischen Parlaments im April abstimmen soll.
Das EU-KI-Gesetz zielt darauf ab, KI-Systeme entsprechend ihrem potenziellen Risiko für die Gesellschaft in vier Hauptkategorien zu regulieren.
„Was illegale Inhalte darstellt, wird in anderen Gesetzen entweder auf EU-Ebene oder auf nationaler Ebene definiert – zum Beispiel werden terroristische Inhalte oder Material über sexuellen Kindesmissbrauch oder illegale Hassreden auf EU-Ebene definiert“, sagte ein Sprecher der Europäischen Kommission gegenüber Euronews Next.
„Wenn es um schädliche, aber legale Inhalte wie Desinformation geht, sollten Anbieter sehr großer Online-Plattformen und sehr großer Online-Suchmaschinen die notwendigen Mittel einsetzen, um systemische Risiken sorgfältig zu mindern.“
Unterdessen ist Ofcom im Vereinigten Königreich dabei, den Online Safety Act umzusetzen.
Nach geltendem Recht müssen Social-Media-Plattformen das Risiko für ihre Nutzer bewerten und die Verantwortung für potenziell schädliches Material übernehmen.
„Sie müssen geeignete Maßnahmen ergreifen, um ihre Benutzer zu schützen, und illegale Inhalte entfernen, wenn sie diese erkennen oder ihnen mitgeteilt werden. Und die größten Plattformen müssen ihre Nutzungsbedingungen konsequent anwenden“, sagte ein Ofcom-Sprecher.
Wenn es Teil eines sozialen Netzwerks ist, besteht daher eine Verantwortung für generative KI-Dienste und -Tools zur Selbstregulierung, obwohl die neuen Verhaltenskodizes und Leitlinien von Ofcom erst Ende dieses Jahres fertiggestellt werden.
„Wir gehen davon aus, dass die Dienste vollständig darauf vorbereitet sind, ihren neuen Pflichten nachzukommen, wenn diese in Kraft treten. Sollten sie sich nicht daran halten, verfügen wir über ein breites Spektrum an Durchsetzungsbefugnissen, um sicherzustellen, dass sie voll zur Verantwortung gezogen werden.“ Sicherheit ihrer Benutzer“, sagte Ofcom.