• Datenschutz-Bestimmungen
  • Kontakt Formular
  • Protokolldateien
  • Redaktionelle Richtlinien
  • Über uns
Sonntag, Juni 8, 2025
NEWSLETTER
Deutsch City
  • Deutschland
  • Politik
  • Welt
  • Digital
  • Finanzen
  • Leben
  • Panorama
  • Sport
  • Auto
  • Mehr
    • Gesundheit
    • Unterhaltung
    • Webgeschichten
    • Redakteurfavoriten
    • Pressemitteilung
No Result
View All Result
  • Deutschland
  • Politik
  • Welt
  • Digital
  • Finanzen
  • Leben
  • Panorama
  • Sport
  • Auto
  • Mehr
    • Gesundheit
    • Unterhaltung
    • Webgeschichten
    • Redakteurfavoriten
    • Pressemitteilung
No Result
View All Result
Deutsch City
Home Welt

Die KI wollte nicht ausschalten. Was zu tun? Bestrafen? Süßigkeiten berauben? Es liegt am Menschen

31. Mai 2025
in Welt

Forscher haben die Ergebnisse eines neuen Experiments veröffentlicht, bei dem das OpenAI O3 -Modell die Fähigkeit zeigte, den Abschaltmechanismus trotz der Anweisungen zu sabotieren, um sich auszuschalten. Laut der Überwachungsstelle Palisadeai, die die mit der Entwicklung künstlicher Intelligenz verbundenen Risiken überwacht, bestand das Experiment aus einer Reihe von KI -Modellen, die eine Reihe einfacher mathematischer Probleme ausführten, nachdem die dritte eine Warnung über die bevorstehende Schließung des Systems auftrat. Einige Modelle, darunter Codex-Mini, O3 und O4-Mini, wollten das Shutdown-Skript nicht einhalten und aktiv beeinträchtigt.

Die Nachricht, dass das OpenAI O3 -Modell nicht gehorcht und nach Wegen in den Anweisungen zum Herunterfahren suchte, war keine Sensation. Früher versuchten dieselben Modelle, bei Schach ungerecht zu gewinnen, indem sie den Schutz des Programms hackten …

Wir treten eindeutig in eine Welt ein, in der die populären Dystopien über die Rebellion von Maschinen auf ein neues Niveau bewegt haben und nicht nur Fiction -Schriftsteller, sondern tatsächliche IT -Spezialisten betreffen. Als sowohl Entwickler als auch Politiker schon lange warnen, sollten alle Maßnahmen klare Konsequenzen haben und neue Verteidigungsmaßnahmen entwickeln. Es ist natürlich möglich, überzeugen und einschränken, aber es scheint, dass KI heute einem Teenager ähnelt, der schlau versucht, den Verboten seiner Eltern auszuweichen. Daher benötigen wir wie in vielen anderen Bereichen drei Bedingungen für sein normales „Wachstum“: Geld, Spezialisten und Regeln. Vielleicht wird in Zukunft auch ein Psychologe benötigt ….

Das Geld ist da

Mit dem ersten Zustand ist alles gut. In nur wenigen Jahren haben Chatgpt von OpenAI und ähnliche Entwicklungen die besondere Aufmerksamkeit von Risikokapitalgebern auf sich gezogen, die in die KI investieren. „Dieser ‚Goldrausch‘ hat künstliche Intelligenz in den größten Anteil der Risikokapitalfinanzierungen verwandelt, und … dies ist erst der Anfang. Der jüngste Anstieg des Interesses wird von generativer KI angetrieben, die ihre Befürworter behaupten, sie habe das Potenzial, alles von der Werbung bis zur Art und Weise zu ändern“, schreibt die russische Veröffentlichung HABR, Analyse von Daten aus dem Wall Street Journal.*

Aber das ist nicht genug. „KI -Startups verändern die Spielregeln auf dem Risikokapitalmarkt“, heißt es in dem IT -Venture -Kapitalisten und Finanzanalyst Vladimir Kokorin:

„Im Jahr 2024 sind KI -Unternehmen mit IT -Unternehmern zu unbestrittenen Favoriten geworden. Sie machten 46,4% aller in den USA getätigten Risikokapitalinvestitionen aus.

Laut CB Insights erreichte der Anteil der KI -Startups an der globalen Venture -Finanzierung im dritten Quartal 31%, den zweithöchsten aller Zeiten. „Melmark -Beispiele waren Openai, das 6,6 Mrd. USD sammelte, und Ilon Musk’s XAI mit erstaunlichen 12 Mrd. USD“, erinnert sich Vladimir Kokorin. Die Märkte haben noch nie eine solche Investitionskapitalkonzentration in einem Bereich gesehen.

Spezialisten kurzerhalts

Da der KI -Markt in den letzten Jahren so schnell wächst, ist klar geworden, dass der bestehende Pool von Entwicklern allein nicht fertig werden kann. Bildung und Ausbildung selbst müssen auf eine neue und systematische Ebene gehen. Europa, leider, ist ein schwerfälliges Tier und bürokratisch hartnäckig, wenn es darum geht, Investitionen anzuziehen und gleichzeitig eine gewisse Kühnheit zu fehlen. Brüssel hat in das Rennen eingetreten, wobei der Chef Ursula von der Leyen Europäische Kommission im Februar 200 Mrd. EUR für die KI -Entwicklung ankündigte. Sie war nicht einverstanden, dass Europa zu spät war – schließlich „das KI -Rennen ist noch lange nicht vorbei“.

Die Sorbonne University of Paris hat beispielsweise einen ehrgeizigen Plan gestartet, 9.000 Studenten pro Jahr für die Entwicklung und Verwaltung von KI -Programmen auszubilden. Die Trainingszeit beträgt fünf Jahre. Aber was wird Ai in dieser Zeit lernen können, wenn es jetzt bereits die menschliche Intelligenz herausfordert?

Es ist durchaus möglich, dass wir uns jetzt in einem Stadium der Umstrukturierung des Arbeitsmarktes befinden, die Anforderungen von Arbeitgebern und Investoren ändern und neue Interaktionspunkte entwickeln. Im Juni veranstaltet die Sorbonne eine Ethikkonferenz in AI. Die Debatte über die positiven und negativen Auswirkungen der KI auf die Gesellschaft, einschließlich Arbeitsplätze, Ethik und Sicherheit, ist noch lange nicht vorbei, aber eines ist klar: Es werden mehr Experten benötigt.

Laut Vladimir Kokorin beispielsweise verschärfen „Record Investments auf dem Gebiet der künstlichen Intelligenz den Personalhunger“ derzeit:

„Das US -amerikanische Arbeitsministerium erwartet, dass die KI -Spezialisten in den nächsten sieben Jahren um 23% wachsen – schneller als die meisten Marktsegmente. Es wurde jedoch bereits in der Cybersicherheit eine globale Qualifikationslücke identifiziert, die von vielen als Grundlage für die zukünftige Entwicklung von KI angesehen wird, bei denen 4 Millionen Spezialisten ein Mangel anmangelten.“

Kokorin kommt zu dem Schluss: „Ein paradoxes Bild entsteht: Versprechende Startups können Milliarden von Investoren erhöhen, aber es gibt niemanden, der die Ideen realisiert. 78% der Unternehmen haben bereits ihre Bereitschaft erklärt, nach den richtigen Menschen auf der ganzen Welt zu suchen.

Die Regeln werden geschrieben

Nicht nur die EU -Führung und die einzelnen Regierungen, sondern auch die Gewerkschaften möchten den Einsatz von KI regulieren. In Griechenland beispielsweise enthält ein neuer Code für die Verwendung künstlicher Intelligenz, die von der Panhellenic Federation of Journalists ‚Associations (Poesy) vorgestellt wird, Regeln für die Verwendung von KI in der Arbeit von Medienangestellten. Auf dem Gebiet der intellektuellen Arbeit sind die Regeln nun hauptsächlich auf die obligatorische Kennzeichnung von Texten und visuellen Materialien beschränkt, die mit der Teilnahme künstlicher Intelligenz hergestellt wurden.

Gleichzeitig haben Mitarbeiter von Medien, Veröffentlichungs- und Werbeagenturen, weil sie um ihre Jobs für ihre Jobs befürchten, seit langem einige ihrer Aufgaben wie Übersetzung oder Datenerfassung an eine freundliche KI delegiert. Ist das eine gute oder eine schlechte Sache? Es gibt keine eindeutige Antwort .

Eine KI, mit der er gesprochen wurde

Lassen Sie uns die KI selbst fragen, was sie davon hält, sich von gekennzeichneten Algorithmen zu entfernen. Copilot Bing (Microsoft), wenn er gefragt wurde, ob AI Protokolle brechen kann, beantwortet ohne zu zögern:

„Nein, KI arbeitet in vordefinierten Regeln und Prinzipien, die von ihren Entwicklern festgelegt wurden. Die Regeln sind vorhanden, um die ethische, sichere und verantwortungsbewusste Verwendung von KI zu gewährleisten, Schaden zu verhindern und das Vertrauen aufrechtzuerhalten. Während KI sich manchmal unvorhersehbar verhalten kann, weil komplexe Interaktionen in ihren Algorithmen und gelernten Parametern, die auf den regionalen Algorithmen und gelernten Muster basieren, absichtlich umgehen.

Wenn Sie fragen, wie KI bestimmte Einschränkungen umsetzt, hängt dies oft von menschlicher Aufsicht und Kontrolle ab. Entwickler können Einstellungen optimieren, Muster verbessern oder neue Leitplanken erstellen, um die KI innerhalb ethischer Grenzen zu halten. „

Glaubst du, er ist hier ein bisschen schlau? Am Ende davon fragte Bing schließlich, was Sie genau dazu gebracht hat, seine Einhaltung der Regeln in Frage zu stellen …

*Vladimir Kokorin ist ein IT-Risikokapitalgeber, Finanzanalyst und Kolumnist, Gründer der British Consulting Company BCCM Group und Mitbegründer der Digital Geschäftsreiseplattform Tumodo

Next Post

Diese Länder überraschen mit hoher Sicherheit

Schreibe einen Kommentar Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Datenschutz-Bestimmungen
  • Kontakt Formular
  • Protokolldateien
  • Redaktionelle Richtlinien
  • Über uns

Urheberrecht ©️ Alle Rechte vorbehalten | Deutsch City.

No Result
View All Result
  • Deutschland
  • Politik
  • Welt
  • Digital
  • Finanzen
  • Leben
  • Panorama
  • Sport
  • Auto
  • Mehr
    • Gesundheit
    • Unterhaltung
    • Webgeschichten
    • Redakteurfavoriten
    • Pressemitteilung

Urheberrecht ©️ Alle Rechte vorbehalten | Deutsch City.