Brüssel, Düsseldorf Es ist ein wohl beispielloser Appell: Mehr als Hundert führende Köpfe der europäischen Wirtschaft fordern Änderungen am geplanten AI Act der Europäischen Union (EU). „Als engagierte Akteure des europäischen Wirtschaftssektors möchten wir unsere ernsten Bedenken hinsichtlich des vorgeschlagenen EU-Gesetzes zur Künstlichen Intelligenz (KI) zum Ausdruck bringen“, schreiben sie in einem offenen Brief, der dem Handelsblatt exklusiv vorliegt.
Zu den weit über hundert Unterzeichnern zählen Chefs und Aufseher von Dax-Konzernen, Familienunternehmer und Gründer aus verschiedenen Branchen. Angeschlossen haben sich etwa Telekom-Chef Timotheus Höttges, Siemens-Energy-Chef Christian Bruch, Covestro-Lenker Markus Steilemann, Bertelsmann-Gesellschafterin Brigitte Mohn und Celonis-Chef Bastian Nominacher.
„Unserer Einschätzung nach würde der Gesetzesentwurf die Wettbewerbsfähigkeit und die technologische Souveränität Europas gefährden, ohne dass den Herausforderungen wirksam begegnet wird, die sich uns jetzt und in Zukunft stellen“, warnen sie.
Die Unterzeichner kritisieren den Brüsseler „AI ACT“ vor allem mit Blick auf Regeln für generative KI. Das sind Systeme, die beispielsweise Texte und Bilder automatisch produzieren können. Entwickler generativer KI wären „mit unverhältnismäßigen Compliance-Kosten und unverhältnismäßigen Haftungsrisiken konfrontiert“, schreiben sie.
Worum geht es? Regulierung von KI – das ist der AI Act
Die Europäische Union (EU) hat bereits 2019 eine Strategie für den Umgang mit Künstlicher Intelligenz veröffentlicht. Sie setzt Leitlinien, um Forschung und Wirtschaft in diesem Bereich zu stärken, aber Sicherheit zu gewährleisten und Grundrechte zu schützen.
Den rechtlichen Rahmen will die EU mit dem AI Act setzen. Der Prozess ist weit fortgeschritten, bis Herbst wollen sich Kommission, Parlament und Rat final einigen. Die Eckpunkte sind also längst klar. Das Gesetz soll KI-Anwendungen etwa in Risikoklassen einteilen: „minimal“, „begrenzt“, „hoch“ und „inakzeptabel“.
Je größer die potenziellen Folgen sind, desto mehr müssen die Anbieter tun. Einige Systeme sind gar von vornherein verboten – etwa die Überwachung durch biometrische Gesichtserkennung in Echtzeit.
Die bürokratischen Hürden steigen von Risikostufe zu Risikostufe. Der Fokus des AI Act liegt auf Hochrisikoanwendungen, zu denen die robotergestützte Chirurgie, Systeme für die Personalauswahl oder kritische Infrastrukturen zählen.
>> Lesen Sie auch: „Generative KI wird niemals in der Lage sein, SAP zu ersetzen“, sagt Dax-CEO Christian Klein
Wer sich hier engagieren will, muss unter anderem ein Risikomanagement einführen, Nutzer „klar und angemessen“ informieren und eine technische Dokumentation mit detaillierten Angaben zu den verwendeten Daten vorlegen.
Warum ist das wichtig?
Künstliche Intelligenz braucht Regeln, das ist unumstritten. Seit das KI-Chat-Programm im November 2022 auf den Markt kam, entwickeln sich rasant neue Anwendungen. Manche warnen gar vor endzeitlichen Szenarien, in denen sich die KI verselbstständigt und gegen den Menschen wendet.
In der KI-Branche selbst fordern einige Akteure einen Entwicklungsstopp. Auch die Absender des offenen Briefs sehen eine „unbestreitbare Notwendigkeit einer angemessenen Regulierung“.
Der Einsatz der Technologie bringt schon jetzt Risiken mit sich: Desinformationskampagnen, die künstlich erzeugte Fotos und Videos nutzen. Steuerungssysteme, die in kritischen Infrastrukturen wie dem Stromnetz zum Einsatz kommen. Oder Algorithmen, die Sozialbetrug erkennen sollen, dabei aber Minderheiten diskriminieren. In den Niederlanden ist das schon so geschehen.
Die Gefahren liegen in der Funktionsweise der Technologie selbst. Künstliche Intelligenz muss erst trainiert werden. Dazu braucht man viele Daten als Lernstoff. Und die können menschliche Vorurteile beinhalten. Manchmal ist das für den Menschen gar nicht ersichtlich. Und später ist es schwierig nachzuvollziehen, wie die KI zu ihrem Ergebnis kommt. Deren Algorithmus ist eine Blackbox. Generative Systeme, die Texte, Fotos oder Programmcode erzeugen können, ermöglichen außerdem täuschend echte Fälschungen.
Was sind Streitpunkte?
In der EU gibt es die Hoffnung auf den „Brüssel-Effekt“: Wie schon beim Datenschutz sollen andere Länder die Gesetzgebung zur Künstlichen Intelligenz aufgreifen. Wenn das so kommt, werden die europäischen Vorstellungen zu einem internationalen Standard.
Viele Wirtschaftsvertreter befürchten allerdings viel mehr, dass der AI Act zum Standortnachteil wird. Die Absender des Briefs schreiben: „Eine solche Regulierung wird mit großer Wahrscheinlichkeit dazu führen, dass hochinnovative Unternehmen ihre Aktivitäten ins nicht-europäische Ausland verlagern.“
Investoren könnten demnach davor zurückschrecken, in die Entwicklung europäischer KI-Modelle zu investieren. „Resultat wäre eine kritische Produktivitätslücke zwischen den beiden Seiten des Atlantiks.“ Bei zwei Punkten wünschen sich die Unterzeichner des Briefs demnach noch Änderungen:
-
Erstens fordern sie den „Aufbau eines transatlantischen Rahmens“: Viele wichtige US-Akteure hätten ähnliche Vorschläge unterbreitet wie die europäischen. Das solle die Europäische Kommission nutzen, um faire Wettbewerbsbedingungen auf beiden Seiten des Atlantiks zu schaffen.
-
Zweitens drängen sie auf flexiblere Regeln für generative KI. „Die Regulierung generativer KI in einem Gesetz verankern zu wollen und nach einer starren Compliance-Logik vorzugehen“, das sei „ein ebenso bürokratischer wie ineffizienter Ansatz“. Die EU solle stattdessen zunächst nur allgemeine Grundsätze festlegen. Die Umsetzung solle dann einem Expertengremium anvertraut werden, das in der Lage sei, diese Grundsätze „laufend an das rasante Tempo der Entwicklung dieser Technologie und die aufkommenden konkreten Risiken anzupassen“.
Verständnis für die Kritik hat Patrick Glauner, Professor für Künstliche Intelligenz an der Technischen Hochschule Deggendorf. „Die Auflagen für Hochrisikosysteme sind für viele Unternehmen schwer zu erfüllen“, sagt er.
Seiner Ansicht nach müsste jedes Start-up und jeder Mittelständler eine eigene KI-Compliance-Abteilung schaffen, wenn sie Künstliche Intelligenz nutzen. Er hält es für möglich, „dass bestimmte Innovationen in Europa nicht mehr stattfinden“ – aus Angst vor Bürokratie und Strafen.
>> Lesen Sie auch: Welche Ministerien KI bereits einsetzen – in erstaunlich konkreten Projekten
Und davon wären wohl sehr viele Unternehmen betroffen. Die Initiative Applied AI stufte in einer Untersuchung öffentlich verfügbarer KI-Systeme 18 Prozent als hohes und 42 Prozent als niedriges Risiko ein.
Bei 40 Prozent sei die Bewertung unklar – und auch das könnte problematisch werden. „Eine unklare Klassifizierung bremst Investitionen und Innovationen“, erklärte die Organisation, die zum Gründerzentrum der Technischen Universität München (TUM) gehört und die Anwendung der Technologie fördern will.
Wie groß ist die Chance, dass Brüssel noch etwas am AI Act ändert?
Der offene Brief der Gründer und Manager erscheint spät – bereits im April 2021 veröffentlichte die EU-Kommission einen ersten Entwurf des AI Act. „Ich habe den Eindruck, dass von den Unternehmen lange sehr wenig kam“, sagt Glauner, der im Bundestag bereits mehrmals als Sachverständiger auftrat. Er führt das einerseits auf Unwissen zurück, andererseits auf bewusste politische Zurückhaltung: „Hätte sich die Wirtschaft vor einigen Monaten so positioniert, wäre es deutlich einfacher gewesen, Einfluss zu nehmen.“
Dieser Text ist Teil des großen Handelsblatt-Spezials zur Künstlichen Intelligenz. Sie interessieren sich für dieses Thema? Alle Texte, die im Rahmen unserer Themenwoche schon erschienen sind,
finden Sie hier.
Die jetzige Initiative hat Investorin Jeannette zu Fürstenberg vom Wagniskapitalfonds La Famiglia zusammen mit dem früheren Telekom-Chef René Obermann und Cédric O, dem ehemaligen französischen Staatsminister für Digitalwirtschaft, angestoßen. Bis Donnerstagnachmittag hatten sie etwa 140 Unterschriften gesammelt.
„Wir sind zu dem Schluss gekommen, dass der AI Act in seiner jetzigen Form katastrophale Auswirkungen für die europäische Wettbewerbsfähigkeit hat“, sagt Jeannette zu Fürstenberg. „Wir sehen gerade viele Talente aus Europa, die führende Positionen bei US-Tech-Konzernen verlassen, um europäische Technologie zu entwickeln. Diese Aufbruchstimmung ist in Gefahr.“
Dass die Unternehmer noch Einfluss auf die EU-Regulierung nehmen, ist jedenfalls nicht ausgeschlossen. In der finalen Abstimmungsphase können sich die Gesetzgeber in Brüssel auch noch auf neue Ideen einigen.
Mehr: So hat mir ChatGPT ein Business aufgebaut