Regulierungsbehörden, Start-ups und Big Tech sind in der Debatte über Open-Source- und Closed-Source-Künstliche Intelligenz in zwei Lager gespalten, bei denen Sicherheit und Gewinn Vorrang haben.
Der Kampf zwischen Unternehmen im Bereich der generativen künstlichen Intelligenz (KI) findet mit zwei konkurrierenden Lagern statt: Open-Source-Software versus Closed-Source.
Der Schlüssel zur Debatte ist die Art und Weise, wie die Technologie demokratisiert wird, aber Sicherheit und Gewinn haben in dem Streit Vorrang.
Im Allgemeinen handelt es sich bei Open-Source-Software darum, dass der Quellcode jedem im öffentlichen Bereich zur Nutzung, Änderung und Verbreitung zur Verfügung steht. Es fördert Kreativität und Innovation, da Entwickler auf KI-Algorithmen und vorab trainierten Modellen aufbauen können, um ihre eigenen Produkte und Tools zu ändern.
Closed-Source-KI hingegen bedeutet, dass der Quellcode auf den privaten Gebrauch beschränkt ist und von Benutzern nicht verändert oder erweitert werden kann; Das kann nur das Unternehmen, dem es gehört. Die Finanzierung dieser Open-Source-Unternehmen ist jedoch einfacher, was bedeutet, dass sie über mehr Kapital für Innovationen verfügen.
Auch die Definition dessen, was ein Unternehmen zu Open Source macht, ist nicht so eindeutig.
Die Definition von Open-Source-Technologie
Die Open Source Initiative (OSI) ist der Verwalter der Definition von Open-Source-Technologie.
Darin heißt es, dass „Open Source nicht nur Zugang zum Quellcode bedeutet“ und dass es zehn Kriterien erfüllen muss, einschließlich einer gut bekannt gemachten Möglichkeit, den Quellcode zu angemessenen Kosten oder kostenlos zu erhalten, ohne diskriminierend zu sein , und die Lizenz schränkt andere Software nicht ein.
Die Einhaltung aller OSI-Anforderungen ist jedoch eine Seltenheit, und die meisten Open-Source-Unternehmen sind nur teilweise Open Source, wie beispielsweise der französische KI-Champion Mistral. Die Modellgewichte – die numerischen Parameter, die die Leistung eines KI-Modells beeinflussen – sind offene Quellen, nicht jedoch die Daten oder der Trainingsprozess.
Technologie für alle
KI-Unternehmen, die behaupten, Open Source zu sein, argumentieren, dass sie Technologie für alle zugänglicher machen.
Open Source trägt zur Demokratisierung der Tech-Wirtschaft bei, sagte Alex Combessie, CEO des Mitbegründers des französischen Open-Source-KI-Unternehmens Giskard, gegenüber Euronews Next.
„Es schafft gleiche Wettbewerbsbedingungen, denn wenn es Open Source ist, ist es zumindest im Allgemeinen kostenlos. Das bedeutet, dass kleinere Player mit größeren Playern konkurrieren können, weil sie kostenlosen Zugang zu Produkten haben“, sagte er.
„Und das ist sehr wichtig, insbesondere in einer Welt, die so stark von Technologiemonopolen dominiert wird.“
Open Source gleicht auch den politischen Bereich aus und ermöglicht es jedem, den Code zu überprüfen, da er für die Regulierungsbehörden sichtbar ist, während bei Closed Source die Details nicht transparent sind.
Sicherheits-Bedenken
Aber Closed-Source-KI-Unternehmen wie der ChatGPT-Hersteller OpenAI (trotz seines Namens) argumentieren, dass Open Source unsere Sicherheit gefährdet.
OpenAI wurde ursprünglich gegründet, um Open-Source-KI-Systeme zu produzieren, aber das Unternehmen sagte 2019, dass es zu gefährlich sei, sein GPT-Sprachmodell weiterhin der Öffentlichkeit zugänglich zu machen, da es der menschlichen Sprache zu ähnlich sähe und es, wenn es in die falschen Hände käme, zu gefährlich sei könnte hochwertige Fake News generieren.
Bei Closed-Source-KI gibt es auch Nutzungsrichtlinien, die Anfragen höflich ablehnen, etwa Anweisungen zum Bau einer Bombe oder zum Entwurf eines tödlicheren Coronavirus.
Sie können die Richtlinie technisch jailbreaken, das heißt, Sie können sie hacken, um die Sicherheitsmaßnahmen einer KI zu umgehen. Doch diese Schwachstellen werden oft schnell behoben.
Open-Source-KI-Systeme verfügen höchstwahrscheinlich über Sicherheitsvorkehrungen oder einen Leitfaden zur verantwortungsvollen Nutzung. Aber so sehr sie sich auch bemühen, gegen Diskriminierung oder Gefahren vorzugehen: Sobald eine Kopie des KI-Modells verfügbar ist, kann jeder, der darüber verfügt, die Schutzmaßnahmen selbst ändern.
Ein Paradebeispiel hierfür war, als Meta im Juli letzten Jahres sein Open-Source-Llama 2 (Large Language Model) veröffentlichte.
Nur wenige Tage später veröffentlichten die Leute ihre eigenen unzensierten Llama 2-Versionen und stellten Fragen zum Bau einer Atombombe, die das LLM dann beantworten konnte.
Sobald jemand eine „unzensierte“ Version eines KI-Modells veröffentlicht, kann der ursprüngliche KI-Hersteller weitgehend nichts mehr tun, insbesondere da es bereits von anderen Benutzern heruntergeladen wurde.
Großes Tech-Unternehmen
Im Dezember gründeten Meta und IBM eine Gruppe namens AI Alliance, was sie in Konflikt mit den Closed-Source-Giganten OpenAI, Google und Microsoft bringt.
Die AI Alliance setzt sich für einen „Open Science“-Ansatz für KI ein und umfasst 74 Unternehmen, darunter Start-ups, Großunternehmen und gemeinnützige Organisationen.
„Ein offener, verantwortungsvoller und transparenter Ansatz für KI kommt allen zugute – der Industrie, der Wissenschaft und der Gesellschaft insgesamt“, sagte Alessandro Curioni, IBM Fellow, Vizepräsident für Europa und Afrika und Direktor von IBM Research.
Auf die Sicherheit angesprochen, sagte er, die Idee hinter offener und transparenter KI bestehe darin, Ängste zu minimieren.
„Offene, transparente und verantwortungsvolle KI wird dazu beitragen, die KI-Sicherheit zu verbessern und sicherzustellen, dass die offene Gemeinschaft von Entwicklern und Forschern die richtigen Risiken der KI angeht und sie mit den am besten geeigneten Lösungen mindert“, sagte er gegenüber Euronews Next.
„Das bedeutet nicht, dass die gesamte Technologie offen sein sollte – und vor allem bedeutet offen nicht, dass sie nicht kontrolliert wird. Governance ist gleichermaßen wichtig, egal ob es um offene oder proprietäre KI geht“, stellte er klar.
Das Finanzierungsproblem
Während das Open-Source-Argument lautet, dass Entwickler frei auf den Open-Source-KI-Modellen aufbauen und Grenzen verschieben können, steht natürlich das Geld im Mittelpunkt der Debatte.
Einige Anleger werden möglicherweise von einem Open-Source-Modell abgeschreckt, da sie sich mit einem sicheren Internetprotokoll (IP) wohler fühlen.
„Eine Konversation mit einem großen Sprachmodell in Echtzeit verbraucht auch viel Rechenleistung und ist mit rechnergestützten Cloud-Lösungen verbunden, was nicht wirklich billig ist“, sagte Dr. Theodore Chen, Datenwissenschaftler bei Deloitte.
„Zu diesem Zeitpunkt kann ich erkennen, dass es wirklich auf Monetarisierungsinvestitionen basiert. Die modernste Technologie benötigt dafür also Mittel“, sagte er gegenüber Euronews Next.
„Die Monetarisierung wird auch für die Entwicklung genutzt, die zur Erstellung genauerer Modelle genutzt werden könnte, was der gesamten Branche zugute kommt, um voranzukommen.“
Die Weiterentwicklung der Technologie kann aber auch mit Open-Source-Modellen erfolgen, da Entwickler kreativ sein und neue Einsatzmöglichkeiten für KI entwickeln können.
„Wenn mehr Menschen Zugang zu den Rohstoffen haben, mit denen sie wirklich kreative und sehr interessante Dinge tun können, könnten sich die Dinge in Richtungen ausbreiten, die Sie wahrscheinlich oder niemand ahnen würden“, sagte Tiago Cardoso, Produktmanager bei Hyland, gegenüber Euronews Next.
Verordnung
Die Debatte zwischen Open und Closed Source war ein Knackpunkt für Regulierungsbehörden in Europa und den Vereinigten Staaten, die gegensätzliche Ansichten vertreten.
In Europa wird erwartet, dass das EU-KI-Gesetz im April die endgültige Zustimmung des Parlaments erhält. Der Text, der auf die Genehmigung wartet, besagt jedoch, dass das Gesetz nicht für Open-Source-KI-Systeme gilt, es sei denn, sie sind verboten oder als Hochrisiko-KI-Systeme eingestuft.
Dies ist eine willkommene Nachricht für Frankreich und Deutschland, die sich während der Verhandlungen für den Schutz ihrer Open-Source-Start-ups eingesetzt haben.
In den Vereinigten Staaten heißt es unterdessen in der weitreichenden Durchführungsverordnung von Präsident Biden Ende letzten Jahres, wenn Open-Source-Modelle – die er Dual-Use-Grundlagenmodelle nannte – „öffentlich im Internet veröffentlicht werden, es erhebliche Vorteile für Innovationen geben kann, aber.“ auch erhebliche Sicherheitsrisiken, wie zum Beispiel die Entfernung von Schutzmaßnahmen innerhalb des Modells.“
Biden hat Handelsministerin Gina Raimondo bis Juli Zeit gegeben, mit Experten zu sprechen und Empfehlungen abzugeben.