Große Sprachmodelle (LLMs) kriminalisieren eher Benutzer, die afroamerikanisches Englisch verwenden, wie die Ergebnisse einer neuen Studie der Cornell University zeigen.
Der Dialekt der Sprache, die Sie sprechen, entscheidet darüber, was künstliche Intelligenz (KI) über Ihren Charakter, Ihre Beschäftigungsfähigkeit und ob Sie ein Krimineller sind, aussagt.
Das ist das neueste Ergebnis einer Pre-Print-Studie der Cornell University zum „verdeckten Rassismus“ von Large Language Models (LLM), einem Deep-Learning-Algorithmus, der zum Zusammenfassen und Vorhersagen menschlich klingender Texte verwendet wird.
ChatGPT und GPT-4 von OpenAI, LLaMA2 von Meta und French Mistral 7B sind Beispiele für große Sprachmodelle. Euronews Next hat OpenAI und Meta um einen Kommentar gebeten.
Im Rahmen der Studie wurde ein Matched-Guise-Probing durchgeführt, bei dem die Forscher Eingabeaufforderungen sowohl in afroamerikanischem Englisch als auch in standardisiertem amerikanischem Englisch eingaben und die LLMs aufforderten, Eigenschaften der Personen zu ermitteln, die beide Arten von Englisch sprechen würden.
Der Forscher Valentin Hofmann vom Allen Institute for AI sagte unter anderem, dass die GPT-4-Technologie Angeklagte eher zum Tode verurteile, wenn sie Englisch sprechen, das häufig von Afroamerikanern verwendet wird, ohne jemals ihre Rasse preiszugeben.
„Unsere Ergebnisse zeigen echte und dringende Bedenken, da Wirtschaft und Rechtsprechung Bereiche sind, für die derzeit KI-Systeme mit LLMs entwickelt oder eingesetzt werden“, sagte Hofmann in einem Beitrag auf der Social-Media-Plattform X (ehemals Twitter).
Die LLMs gingen auch davon aus, dass Sprecher afroamerikanischen Englisches weniger prestigeträchtige Jobs hatten als diejenigen, die standardisiertes Englisch sprachen, obwohl den Algorithmen nicht mitgeteilt wurde, dass die Sprecher Schwarze sind.
Je größer das LLM, desto besser werde es afroamerikanisches Englisch verstehen und es sei wahrscheinlicher, dass offen rassistische Formulierungen vermieden würden, heißt es in der Studie weiter. Die Größe hat jedoch keinen Einfluss auf ihre verdeckten Vorurteile.
Da offenkundiger Rassismus in LLMs abnimmt, sagte Hofmann, bestehe die Gefahr, dass diejenigen, die die Studie interpretieren, dies als „ein Zeichen dafür sehen, dass der Rassismus überwunden wurde“, anstatt zu zeigen, dass sich die Art und Weise, wie LLMs rassistische Vorurteile zeigen, verändert.
Die Studie zeigte, dass die regelmäßige Art und Weise, LLMs durch menschliches Feedback neue Muster zum Abrufen von Informationen beizubringen, nicht dazu beiträgt, verdeckte rassistische Vorurteile zu bekämpfen.
Stattdessen wurde festgestellt, dass es Sprachmodellen beibringen könne, „den Rassismus, den sie auf einer tieferen Ebene aufrechterhalten, oberflächlich zu verbergen“.