Die italienische Datenschutzbehörde stellte fest, dass OpenAI personenbezogene Daten zum Trainieren seiner KI verwendet hat, ohne „eine angemessene Rechtsgrundlage“ dafür zu haben.
Italiens Datenschutzbehörde hat gegen OpenAI eine Geldstrafe in Höhe von 15 Millionen Euro verhängt, nachdem das Unternehmen eine Untersuchung zur Erhebung personenbezogener Daten über den Chatbot für künstliche Intelligenz des Unternehmens, ChatGPT, abgeschlossen hatte.
Das teilte die italienische Datenschutzbehörde (Garante) mit OpenAI verwendete personenbezogene Daten ChatGPT auszubilden, „ohne eine ausreichende Rechtsgrundlage zu haben und gegen den Grundsatz der Transparenz und die damit verbundenen Informationspflichten gegenüber Nutzern zu verstoßen“.
OpenAI habe auch kein „angemessenes System zur Altersüberprüfung“ bereitgestellt, um zu verhindern, dass Benutzer unter 13 Jahren unangemessenen, von KI generierten Inhalten ausgesetzt würden, heißt es in der Untersuchung weiter.
Die italienische Behörde fordert OpenAI auf, eine sechsmonatige Kampagne in lokalen Medien zu starten, um das Bewusstsein dafür zu schärfen, wie das Unternehmen personenbezogene Daten sammelt.
„ChatGPT „Nutzer und Nichtnutzer sollten darüber aufgeklärt werden, wie sie der Ausbildung generativer künstlicher Intelligenz mit ihren personenbezogenen Daten widersprechen können, und so effektiv in die Lage versetzt werden, ihre Rechte gemäß der Datenschutz-Grundverordnung (DSGVO) wahrzunehmen“, heißt es in dem Bericht lesen.
Entscheidung zu OpenAI-Marken „unverhältnismäßig“
Garante hatte vorher Die Nutzung von ChatGPT wurde aus Datenschutzgründen vorübergehend gesperrt, während die Behörde im Jahr 2023 einen möglichen Datenverstoß untersuchte.
In einer per E-Mail verschickten Erklärung bezeichnete OpenAI die Entscheidung als „unverhältnismäßig“ und kündigte an, Berufung einzulegen.
Ein OpenAI-Sprecher sagte, die Strafe sei „fast das Zwanzigfache“ der im selben Jahr in Italien erzielten Einnahmen.
Das Unternehmen fügte hinzu, dass es weiterhin „sich weiterhin dafür einsetzt, mit Datenschutzbehörden weltweit zusammenzuarbeiten, um nützliche KI anzubieten, die die Datenschutzrechte respektiert“.
Regulierungsbehörden in den USA und Europa haben OpenAI und andere Unternehmen untersucht, die eine Schlüsselrolle beim KI-Boom gespielt haben, während Regierungen auf der ganzen Welt unter der Führung von OpenAI Regeln zum Schutz vor Risiken durch KI-Systeme erarbeitet haben Das KI-Gesetz der Europäischen Unionein umfassendes Regelwerk für künstliche Intelligenz.