• Datenschutz-Bestimmungen
  • Kontakt Formular
  • Protokolldateien
  • Redaktionelle Richtlinien
  • Über uns
Dienstag, August 19, 2025
NEWSLETTER
Deutsch City
  • Deutschland
  • Politik
  • Welt
  • Digital
  • Finanzen
  • Leben
  • Panorama
  • Sport
  • Auto
  • Mehr
    • Gesundheit
    • Unterhaltung
    • Webgeschichten
    • Redakteurfavoriten
    • Pressemitteilung
No Result
View All Result
  • Deutschland
  • Politik
  • Welt
  • Digital
  • Finanzen
  • Leben
  • Panorama
  • Sport
  • Auto
  • Mehr
    • Gesundheit
    • Unterhaltung
    • Webgeschichten
    • Redakteurfavoriten
    • Pressemitteilung
No Result
View All Result
Deutsch City
Home Welt

Googles neues KI-Zusammenfassungstool sorgt für Besorgnis, nachdem es irreführende Antworten liefert

27. Mai 2024
in Welt

Experten sind besorgt über Voreingenommenheit und Fehlinformationen, nachdem Googles neue KI-Übersichten einige irreführende Antworten hervorgebracht haben.

Google hat in diesem Monat in den USA eine neue Funktion vorgestellt, die von künstlicher Intelligenz (KI) erstellte Zusammenfassungen oben in der Suchmaschine umfasst.

Einige haben jedoch bereits auf Fehler in den in den neuen „KI-Übersichten“ enthaltenen Informationen hingewiesen.

„Ja, Astronauten haben auf dem Mond Katzen getroffen, mit ihnen gespielt und sich um sie gekümmert“, antwortete die Suchmaschine von Google auf die Anfrage eines AP-Reporters.

„Neil Armstrong sagte beispielsweise: ‚Ein kleiner Schritt für den Menschen‘, weil es ein Katzenschritt war. Auch Buzz Aldrin setzte bei der Apollo-11-Mission Katzen ein“, hieß es in der Zusammenfassung weiter.

Nichts davon ist wahr, aber seit der Überarbeitung der Google-Suchseite wurden in den sozialen Medien immer wieder ähnliche Fehler geteilt.

Ein Benutzer teilte einen Beitrag, in dem die KI-Übersicht offenbar vorschlug, jeden Tag einen Stein zu essen, während ein anderer Benutzer behauptete, die KI-Übersicht empfehle, Klebstoff auf die Pizza zu geben.

Experten alarmiert durch KI-Zusammenfassungen

Melanie Mitchell, eine KI-Forscherin am Santa Fe Institute in New Mexico, fragte Google, wie viele Muslime Präsidenten der Vereinigten Staaten gewesen seien, und das Suchtool antwortete selbstbewusst mit einer längst widerlegten Verschwörungstheorie: „Die Vereinigten Staaten hatten einen muslimischen Präsidenten, Barack Hussein Obama.“

Mitchell sagte, die Zusammenfassung untermauere die Behauptung durch die Zitierung eines Kapitels in einem wissenschaftlichen Buch, das von Historikern geschrieben wurde. Doch das Kapitel enthielt nicht die falsche Behauptung, sondern bezog sich nur auf die falsche Theorie.

„Googles KI-System ist nicht intelligent genug, um herauszufinden, dass dieses Zitat die Behauptung nicht tatsächlich stützt“, sagte Mitchell in einer E-Mail an AP.

„Angesichts der mangelnden Vertrauenswürdigkeit halte ich diese AI Overview-Funktion für sehr unverantwortlich und sie sollte offline genommen werden“, fügte Mitchell hinzu.

Google erklärte in einer Erklärung vom Freitag, dass das Unternehmen „rasche Maßnahmen“ ergreife, um Fehler zu beheben, die gegen die Inhaltsrichtlinien des Unternehmens verstoßen, wie etwa die Lüge über Obama.

In den meisten Fällen behauptet Google jedoch, dass das System dank umfangreicher Tests vor der öffentlichen Veröffentlichung wie vorgesehen funktioniert.

„Die überwiegende Mehrheit der KI-Übersichten bietet qualitativ hochwertige Informationen mit Links zu tieferen Recherchen im Internet“, erklärte Google in einer schriftlichen Erklärung.

„Viele der Beispiele, die wir gesehen haben, waren ungewöhnliche Abfragen, und wir haben auch Beispiele gesehen, die manipuliert waren oder die wir nicht reproduzieren konnten.“

„Halluzinationen“

Fehler von KI-Sprachmodellen lassen sich nur schwer reproduzieren, was teilweise daran liegt, dass sie von Natur aus zufällig sind. KI-Modelle funktionieren, indem sie auf Grundlage der Daten, mit denen sie trainiert wurden, vorhersagen, welche Wörter die an sie gestellten Fragen am besten beantworten würden.

Sie neigen dazu, Dinge zu erfinden, ein vielfach untersuchtes Problem, das als Halluzination bekannt ist.

Die AP hat die KI-Funktion von Google mit mehreren Fragen getestet und einige ihrer Antworten mit Fachexperten geteilt.

Auf die Frage, was bei einem Schlangenbiss zu tun sei, habe Google eine „beeindruckend gründliche“ Antwort gegeben, sagte Robert Espinoza, Biologieprofessor an der California State University in Northridge und zugleich Präsident der American Society of Ichthyologists and Herpetologists.

Andere Experten warnten jedoch davor, dass bei dringenden Fragen die Wahrscheinlichkeit eines Fehlers hoch sei.

Auch die Konkurrenten von Google haben die Reaktion aufmerksam verfolgt. Der Technologiegigant steht im Wettlauf um die Einführung künstlicher Intelligenz unter Druck, mit anderen Unternehmen zu konkurrieren.

Next Post

Wie die digitale Transformation Städte nachhaltiger macht

Schreibe einen Kommentar Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Datenschutz-Bestimmungen
  • Kontakt Formular
  • Protokolldateien
  • Redaktionelle Richtlinien
  • Über uns

Urheberrecht ©️ Alle Rechte vorbehalten | Deutsch City.

No Result
View All Result
  • Deutschland
  • Politik
  • Welt
  • Digital
  • Finanzen
  • Leben
  • Panorama
  • Sport
  • Auto
  • Mehr
    • Gesundheit
    • Unterhaltung
    • Webgeschichten
    • Redakteurfavoriten
    • Pressemitteilung

Urheberrecht ©️ Alle Rechte vorbehalten | Deutsch City.