Kritiker der öffentlichen Veröffentlichung von ChatGPT im November 2022 und späterer Veröffentlichungen durch Konkurrenten behaupten, es sei unverantwortlich übereilt gewesen, da Sicherheit bei ihrer Entwicklung größtenteils ein nachträglicher Gedanke gewesen sei.
Microsoft sagte am Mittwoch, dass US-Gegner, vor allem der Iran und Nordkorea und in geringerem Maße Russland und China, damit beginnen, generative künstliche Intelligenz (KI) zu nutzen, um offensive Cyberoperationen durchzuführen oder zu organisieren.
Der Technologieriese sagte, er habe in Zusammenarbeit mit seinem Geschäftspartner OpenAI Bedrohungen erkannt und unterbunden, die von ihm entwickelte KI-Technologie nutzten oder auszunutzen versuchten.
In einem BlogeintragDas Unternehmen aus Redmond im US-Bundesstaat Washington sagte, die Techniken seien „in einem frühen Stadium“ und weder „besonders neu noch einzigartig“, es sei jedoch wichtig, sie öffentlich zu entlarven, da US-Konkurrenten großsprachige Modelle nutzen, um ihre Fähigkeit zum Durchbrechen von Netzwerken und Verhaltensweisen zu erweitern den Betrieb beeinflussen.
Cybersicherheitsfirmen nutzen maschinelles Lernen schon lange zur Verteidigung, hauptsächlich um anomales Verhalten in Netzwerken zu erkennen. Aber auch Kriminelle und anstößige Hacker nutzen es, und die Einführung großsprachiger Modelle unter der Leitung von OpenAIs ChatGPT hat das Katz-und-Maus-Spiel noch verstärkt.
Microsoft hat Milliarden von Dollar in OpenAI investiert, und die Ankündigung vom Mittwoch fiel mit der Veröffentlichung eines Berichts zusammen, in dem festgestellt wurde, dass generative KI voraussichtlich bösartiges Social Engineering verstärken wird, was zu ausgefeilteren Deepfakes und Stimmklonungen führen wird, eine Bedrohung für die Demokratie in einem Jahr mit über 50-Jährigen Länder werden Wahlen durchführen, die Desinformation verstärken und bereits geschehen,
Hier sind einige Beispiele, die Microsoft bereitgestellt hat. In jedem Fall hieß es, alle generativen KI-Konten und Vermögenswerte der genannten Gruppen seien deaktiviert:
- Die nordkoreanische Cyberspionagegruppe Kimsuky hat die Modelle genutzt, um ausländische Denkfabriken zu recherchieren, die das Land untersuchen, und um Inhalte zu generieren, die wahrscheinlich in Spear-Phishing-Hacking-Kampagnen verwendet werden.
- Die iranischen Revolutionsgarden haben großsprachige Modelle eingesetzt, um beim Social Engineering, bei der Behebung von Softwarefehlern und sogar bei der Untersuchung, wie Eindringlinge der Entdeckung in einem kompromittierten Netzwerk entgehen könnten, zu helfen. Dazu gehört die Generierung von Phishing-E-Mails, „darunter eine, die vorgibt, von einer internationalen Entwicklungsagentur zu stammen, und eine andere, die versucht, prominente Feministinnen auf eine von Angreifern erstellte Website zum Thema Feminismus zu locken.“ Die KI trägt dazu bei, die E-Mail-Produktion zu beschleunigen und zu steigern.
- Der russische Militärgeheimdienst GRU, bekannt als Fancy Bear, hat die Modelle verwendet, um Satelliten- und Radartechnologien zu erforschen, die möglicherweise mit dem Krieg in der Ukraine in Zusammenhang stehen.
- Die als Aquatic Panda bekannte chinesische Cyberspionagegruppe, die ein breites Spektrum an Branchen, Hochschulen und Regierungen von Frankreich bis Malaysia ins Visier nimmt, hat mit den Modellen „auf eine Art und Weise interagiert, die auf eine begrenzte Untersuchung der Frage hindeutet, wie LLMs ihre technischen Abläufe erweitern können“.
- Die chinesische Gruppe Maverick Panda, die seit mehr als einem Jahrzehnt unter anderem US-Verteidigungsunternehmen ins Visier nimmt, hatte Interaktionen mit großsprachigen Modellen, die darauf hindeuteten, dass sie deren Wirksamkeit als Informationsquelle „zu potenziell sensiblen Themen, hochkarätigen Personen und regionalen Personen“ bewerteten Geopolitik, US-Einfluss und innere Angelegenheiten.“
„Die Büchse der Pandora wurde geöffnet“
In einem separaten Blog, der am Mittwoch veröffentlicht wurde, sagte OpenAI, dass sein aktueller GPT-4-Modell-Chatbot „nur begrenzte, inkrementelle Fähigkeiten für böswillige Cybersicherheitsaufgaben bietet, die über das hinausgehen, was bereits mit öffentlich verfügbaren, nicht KI-gestützten Tools erreichbar ist.“
Cybersicherheitsforscher gehen davon aus, dass sich das ändern wird.
Im vergangenen April sagte die Direktorin der US-amerikanischen Cybersecurity and Infrastructure Security Agency, Jen Easterly, dem Kongress, dass „es zwei epochale Bedrohungen und Herausforderungen gibt.“ Das eine ist China und das andere ist künstliche Intelligenz.“
Easterly sagte damals, dass die USA sicherstellen müssen, dass KI unter Berücksichtigung der Sicherheit entwickelt wird.
Kritiker der öffentlichen Veröffentlichung von ChatGPT im November 2022 – und späterer Veröffentlichungen von Konkurrenten wie Google und Meta – behaupten, es sei unverantwortlich voreilig gewesen, da Sicherheit bei ihrer Entwicklung größtenteils ein nachträglicher Gedanke gewesen sei.
„Natürlich verwenden böswillige Akteure großsprachige Modelle – diese Entscheidung wurde getroffen, als die Büchse der Pandora geöffnet wurde“, sagte Amit Yoran, CEO des Cybersicherheitsunternehmens Tenable.
Einige Cybersicherheitsexperten beschweren sich darüber, dass Microsoft Tools zur Behebung von Schwachstellen in großen Sprachmodellen entwickelt und vermarktet, obwohl das Unternehmen sich verantwortungsvoller darauf konzentrieren könnte, diese sicherer zu machen.
„Warum nicht sicherere Black-Box-LLM-Grundlagenmodelle entwickeln, anstatt defensive Tools für ein Problem zu verkaufen, das sie mit schaffen?“, fragte Gary McGraw, ein Computersicherheitsveteran und Mitbegründer des Berryville Institute of Machine Learning.
Der NYU-Professor und ehemalige Chief Security Officer von AT&T, Edward Amoroso, sagte, dass der Einsatz von KI und großsprachigen Modellen zwar keine unmittelbar offensichtliche Bedrohung darstelle, sie aber „irgendwann zu einer der mächtigsten Waffen im Angriff jedes nationalstaatlichen Militärs werden werden“.