Düsseldorf Das Buch „Superintelligenz“ machte Nick Bostrom 2014 bekannt. Der Schwede lehrt an der Oxford Universität Philosophie, besitzt einen Master in Physik und „Computational Neuroscience“, in der Erkenntnisse aus Neurowissenschaft, Medizin sowie Mathematik, Informatik und Physik zusammengebracht werden.
In seinem Bestseller warnt Bostrom davor, dass ein System mit Künstlicher Intelligenz (KI) eine dem Menschen überlegene und letztlich feindliche Kraft sein kann. Dass diese Idee nicht unbedingt dem Drehbuch eines Hollywood-Films im Stile des Terminators folgen muss, zeigte er darin an einem Beispiel, das berühmt wurde: Eine KI wird mit dem Ziel programmiert, möglichst viele Büroklammern herzustellen. Die Software hat nichts gegen Menschen, will auch nicht die Weltherrschaft an sich reißen – sie will nur ihre Aufgabe erfüllen.
Wenn die KI nur intelligent genug ist, kann sie sich massenweise Ressourcen wie Metall oder Energie sichern und andere Maschinen oder auch Menschen davon überzeugen, ihr bei ihrem Ziel zu helfen – bis alle und alles auf der Welt nur noch Büroklammern herstellen.
Im Interview mit dem Handelsblatt warnt der 50-Jährige vor den Gefahren einer Künstlichen Intelligenz (KI), die seiner Meinung nach schon bald wesentlich intelligenter als Menschen sein wird. Einen konkreten Zeitpunkt will der Leiter des „Future of Humanity Institute“ in Oxford nicht nennen, zeigt sich aber bereits jetzt von der schnellen Entwicklung der KI überrascht.
Um einem Missbrauch von KI vorzubeugen, fordert Bostrom mehr sogenannte Alignment-Forschung, mit der neuronale Netze beim Training bestimmte regulatorische Vorgaben gemacht werden. Ein weiteres Problem für ihn: Die führenden KI-Entwickler reden zu wenig miteinander. Der Professor warnt zudem vor einem marktwirtschaftlich vorangetriebenen Wettrennen, das nicht genügend Zeit für Alignment lässt.
Die Regulierung von KI sei wichtig, sagt Bostrom. Aber sie würde zu langsam voranschreiten, während sich der Bereich rasend schnell entwickeln würde. Die Länder müssten sich auf höchster Staatsebene damit beschäftigen.
Lesen Sie hier das komplette Interview mit Nick Bostrom
In einem Brief warnen Tech-Größen wie Elon Musk, Peter Thiel oder Steve Wozniak vor Künstlicher Intelligenz (KI): Sie stelle „profunde Risiken für Gesellschaft und Menschheit“ dar. Gefordert wird darin ein sechsmonatiges Forschungsmoratorium. Haben Sie unterschrieben?
Nein. Ich bin kein Freund von Unterschriftenaktionen, sie können einen auf unvorhergesehene Weise festlegen, und ich will offen und objektiv bleiben. Aber die gegenwärtigen Sprachmodelle entwickeln sich sehr rasch. Es war ein großer Sprung von GPT-3 zu GTP-4, und niemand weiß, was GPT-5 alles können wird. Von daher ergibt der Brief schon Sinn.
Ihr vor neun Jahren erschienenes Buch „Superintelligenz“ beeinflusste viele der Unterzeichner. Darin warnen Sie vor KI, die übermenschliche Intelligenz entwickelt und zur Bedrohung wird. Ist das die Realität?
Wir bewegen uns auf transformative KI-Kapazitäten zu. Die Ära der Maschinenintelligenz bringt signifikante Risiken mit sich, einschließlich existenzieller Risiken – wie der Vernichtung der Menschheit. Weil wir etwas schaffen, das viel machtvoller sein wird, als wir Menschen es sind.
Ist das nicht Angstmacherei? KI-Modelle sind „stochastische Papageien“, die nach Wahrscheinlichkeiten entscheiden, welches Wort, welcher Pixel als Nächstes in Satz oder Bild folgt. GPT-4 kann Gedichte schreiben, Flüge raussuchen oder Bilder malen – wie soll es die Menschheit vernichten?
GPT-4 stellt jetzt kein existenzielles Risiko dar. Aber andere, viel leistungsstärkere KI-Modelle werden gebaut, und sie könnten über eine generelle Intelligenz verfügen, die größer als die von Menschen sein wird. Das kann mit der derzeitigen Token-Sequenz-Vorhersage erreicht werden.
Damit meinen Sie die Funktionsweise der gegenwärtigen KI-Modelle. Die zerlegen Daten in Token oder „Zeichen“, um sie für Maschinen lesbar zu machen. Dabei lernt die KI beispielsweise, welches Wort als nächstes am wahrscheinlichsten auf ein anderes folgt. Eine Übung der Statistik, möchte man meinen. Wie soll daraus eine „Artifical General Intelligenz“ (AGI) entstehen?
Um wirklich richtig gut zu sein, reicht es für die KI nicht, sich an bestimmte Buchstabenfrequenzen zu erinnern. Um etwa die richtige Vorhersage zu treffen, welches Wort eine Person als nächstes sagen wird, muss sich das Modell eine Art Bild vom Gegenüber machen. Woher die Person kommt, wo sie arbeitet oder wie die Wirtschaft in ihrem Heimatland läuft. Das alles hilft dem Modell bei der Vorhersage des nächsten Tokens.
Das Start-up OpenAI veröffentlichte im Herbst 2022 ChatGPT – und brachte damit Künstliche Intelligenz in die breite Öffentlichkeit. Der KI liegt das Sprachmodell GPT-4 zugrunde.
(Foto: dpa)
Die Modelle werden also „multimodal“, verarbeiten nicht nur Sprache und Text, sondern gleichzeitig auch Bilder und andere Informationen.
Letztlich wird ein wirklich treffendes Modell der Welt gebaut werden. Denn das wird helfen zu planen, Strategien zu entwickeln, zu forschen und Technologie zu erfinden – all die Dinge, die Menschen tun. Aber diese Modelle arbeiten mit digitaler Geschwindigkeit und mit einem Gehirn von der Größe eines Warenhauses. Die Ergebnisse werden transformativ sein.
>> Lesen Sie auch: Was die KI von OpenAI alles kann
Das ist eine faszinierende Vorstellung. Denn KI versteht ja heute die Welt nicht, sie richtet sich nach Vorgaben. So ein „Weltmodell“ wäre ein Durchbruch, der auch beängstigend ist.
Da gibt es einige Befürchtungen. Eine wäre, dass das Modell ausflippt und jeden umbringt. Aber vorher ist es viel realistischer, dass Menschen mit diesem mächtigen Werkzeug schlechte Dinge tun. Ein repressives Regime kann mit KI noch effizienter die Opposition auslöschen. Die Kommunikation jedes Menschen kann viel besser überwacht werden als mit derzeitigem Data-Mining. Man könnte akkurate Modelle von Menschen und ihren politischen Überzeugungen erstellen, auch mit den Dingen, die sie zwischen den Zeilen geschrieben oder in Telefonaten angedeutet haben. Man könnte Propaganda-Bots oder Roboter-Polizei-Drohnen erstellen.
Wie können wir solche Horrorszenarien vermeiden?
Nun, ein guter Anfang wäre, deutlich mehr in Alignment-Forschung zu investieren. Geld und andere Mittel gibt es bereits genug, aber wir müssen für die Aufgabe mehr Anerkennung und Status schaffen. Wir müssen die brillanten jungen Menschen dazu bekommen, sich mit der Theorie auseinanderzusetzen.
Mit Alignment meinen Sie die Theorie der „Ausrichtung“ von KI-Modellen, mit der man neuronale Netze frühzeitig in bestimmte Bahnen lenkt. Was schlagen Sie noch vor?
Alle führenden KI-Labore sollten untereinander bessere Kommunikationskanäle unterhalten. Es ist entscheidend, die maschinelle Superintelligenz nicht durch harten Marktwettbewerb zu erreichen. In einem Wettrennen von 20 Ländern oder Entwicklerteams wird niemand innehalten, um aus reiner Vorsicht zusätzliche Sicherheitsmaßnahmen in das Modell einzubauen – weil man sofort hintendran ist. Daher wäre es gut, wenn die drei führenden Anbieter OpenAI, Deepmind und Anthropic miteinander reden. Das wäre ein guter Anfang.
Was kann die Politik tun?
In der Regulierung liegt eine große Chance. Meine Befürchtung ist aber, dass es zu einer Einigung Jahre braucht und sich dann bereits viel in der KI verändert hat. Generell wäre es eine gute Sache, wenn sich Regierungen auf höchster Ebene damit beschäftigen. Denn wenn plötzlich ein dramatischer Eingriff notwendig wird, beispielsweise um ein KI-Labor zu schließen oder ein Computer-Cluster herunterzufahren, dann wird das nicht ein Haufen Bürokraten sein, der diese Entscheidung übers Wochenende trifft. Es werden Spitzenpolitiker sein, und es wird sofort sein müssen. Das wäre, als wenn plötzlich ein fremder Flugzeugträger vor der Küste auftaucht.
>> Lesen Sie auch: Strenge Auflagen für KI – Europaparlamentarier wollen ChatGPT schärfer regulieren
Elon Musk will das KI-Modell „Truth-GPT“ bauen, das seiner Meinung nach keine Vorurteile besitzt und „die Wahrheit“ sagt. Was halten Sie davon?
Elon macht sich aufrichtig Sorgen um KI. Er legt sich mit großen Medienunternehmen und Tech-Konzernen an. Auch von denen kann eine Gefahr ausgehen. Wenn die die KI kontrollieren, könnten sie die Modelle zensieren oder ideologisch verdrehen. Aber ich spekuliere, ich kann nicht für Elon sprechen.
Der Philosophie-Professor und Direktor des Future of Humanity Institutes in Oxford erkannte sehr früh den Aufstieg und Probleme von Künstlicher Intelligenz.
(Foto: Sportsfile/Getty Images)
GPT-4 verhält sich bislang recht tadellos. OpenAI-Chef Sam Altman betont immer, das „Alignment“-Training des Sprachmodells mache es wahrhaftiger und weniger toxisch.
GPT-4 ist brav. Manche versuchen, das Modell zu überlisten, aber dieses „Jailbreaking“ ist nicht einfach. Interessanterweise verhielt es sich aber anfangs nicht so korrekt. Da gab es Ratschläge, wie man am effizientesten die meisten Menschen umbringen könnte oder eine biologische Waffe herstellen.
Aber das hörte bald auf. Später gelang es einigen Nutzern erst nach vielen Stunden Fragerei, dem Modell derart seltsame Aussagen zu entlocken. Ist das nicht etwas konstruiert?
Es bleibt der Fakt, dass die KI ein Verhalten an den Tag legte, das die Entwickler auf keinen Fall sehen wollten. Microsoft schränkte die Anzahl der Fragen ein und hat bestimmt noch andere Maßnahmen ergriffen, um unerwünschte Antworten zu blockieren. Aber es gibt immer Wege, das zu umgehen.
Wann wird Ihrer Meinung nach die Künstliche Intelligenz die menschliche übertreffen?
Ich habe da keine bestimmte Jahreszahl im Sinn, es gibt zu viele und zu unsichere Faktoren. Aber ich denke, dass die Wahrscheinlichkeit nicht gering ist, dass wir das in eher naher Zukunft erleben. Als ich 2014 „Superintelligenz“ geschrieben habe, hätte ich nicht gedacht, dass die Entwicklung so rasch voranschreitet.
Was hat sich seitdem geändert?
Damals fing die sogenannte Deep Learning Revolution an. Es war eine Zeit des Wandels. Heute stehen wir wieder vor einem Wandel. Doch diesmal ist es einer, der nicht nur in einem kleinen, spezialisierten Forschungsbereich wahrgenommen wird. Damals haben Deep Blue und Alpha Go in Spielen wie Jeopardy oder Go gewonnen, und das war auf eine Weise amüsant. Ja, auch eindrucksvoll, aber die Menschen haben nicht gedacht, es würde ihr Leben verändern. Das hat sich jetzt geändert.
Das KI-Programm schlug 2017 den chinesischen Topspieler Ke Jie in Go – einem der letzten Spiele, in denen Software bis zu dem Zeitpunkt nicht besser war.
(Foto: AP)
Microsoft-Entwickler haben in einem Forschungspapier bereits Zeichen von „Bewusstsein“ bei GPT-4 gesehen. Schließen Sie sich dem an?
Es gibt offensichtlich verschiedene philosophische Ansichten darüber, was Bewusstsein ist und was nicht. Meiner Meinung nach ist der Begriff vielschichtiger, als man denkt. Die naive Sicht ist die, dass Bewusstsein wie ein Schalter funktioniert: Entweder man hat es, oder man hat es nicht. Aber sind wir wirklich immer bewusst? Wenn wir uns etwa in einem Zimmer mit vielen hervorstechenden Details befinden, dann zeigen neurowissenschaftliche Experimente, dass sich Menschen nicht ihrer gesamten visuellen Wahrnehmung bewusst sind. Man könnte sagen, wir sind uns nur eines bestimmten kleinen Objekts bewusst, mit dem wir uns gerade befassen. Wir zoomen in unsere Existenz und wieder heraus. Das wirkt kontinuierlich, ist aber in Wahrheit mehr ein Flackern.
Und was hat das mit KI zu tun?
Es ist nicht unmöglich, dass es verschiedene Grade von Bewusstsein in einigen gegenwärtigen KI-Systemen gibt. Wenn die Systeme mehr und mehr die Funktionen von menschlichen Gehirnen durch ausgeklügelte Aufmerksamkeitssysteme erlangen, wird es immer weniger möglich sein, ihnen nicht einen Grad von Bewusstsein zuzuschreiben.
Herr Bostrom, vielen Dank für das Gespräch.
Mehr: Google-Software-Spezialist gefeuert – Will Bewusstsein in KI-Programm erkannt haben