• Datenschutz-Bestimmungen
  • Kontakt Formular
  • Protokolldateien
  • Redaktionelle Richtlinien
  • Über uns
Sonntag, Juli 6, 2025
NEWSLETTER
Deutsch City
  • Deutschland
  • Politik
  • Welt
  • Digital
  • Finanzen
  • Leben
  • Panorama
  • Sport
  • Auto
  • Mehr
    • Gesundheit
    • Unterhaltung
    • Webgeschichten
    • Redakteurfavoriten
    • Pressemitteilung
No Result
View All Result
  • Deutschland
  • Politik
  • Welt
  • Digital
  • Finanzen
  • Leben
  • Panorama
  • Sport
  • Auto
  • Mehr
    • Gesundheit
    • Unterhaltung
    • Webgeschichten
    • Redakteurfavoriten
    • Pressemitteilung
No Result
View All Result
Deutsch City
Home Welt

Laut Experten des MIT kann KI auf 700 Arten schiefgehen. Dies sind 5 der schädlichsten für die Menschheit

27. August 2024
in Welt

Euronews Next hat fünf kritische Risiken der künstlichen Intelligenz (KI) aus über 700 Risiken ausgewählt, die in einer neuen Datenbank von MIT FutureTech zusammengestellt wurden.

Da die Technologie der künstlichen Intelligenz (KI) immer weiter fortschreitet und immer stärker in verschiedene Aspekte unseres Lebens integriert wird, besteht ein wachsender Bedarf, die potenziellen Risiken zu verstehen, die diese Systeme bergen.

Seit ihrer Einführung und zunehmenden Zugänglichkeit für die Öffentlichkeit gibt es allgemeine Besorgnis über ihr Potenzial, Schaden anzurichten und für böswillige Zwecke eingesetzt zu werden.

Schon früh in ihrer Entwicklung forderten namhafte Experten einen Stopp der Entwicklung und strengere Regulierungen, da die KI erhebliche Risiken für die Menschheit berge.

Im Laufe der Zeit sind neue Möglichkeiten aufgetaucht, wie KI Schaden anrichten kann, die von nicht einvernehmlicher Deepfake-Pornografie über die Manipulation politischer Prozesse bis hin zur Verbreitung von Desinformationen aufgrund von Halluzinationen reichen.

Angesichts des zunehmenden Potenzials, KI für schädliche Zwecke auszunutzen, untersuchen Forscher verschiedene Szenarien, in denen KI-Systeme versagen könnten.

Eine neue Datenbank, die kürzlich von der FutureTech-Gruppe am Massachusetts Institute of Technology (MIT) in Zusammenarbeit mit anderen Experten zusammengestellt wurde, enthält über 700 dieser potenziellen Risiken.

Sie wurden nach ihrem Anliegen klassifiziert und in sieben unterschiedliche Bereiche kategorisiert, wobei die größten Bedenken in Bezug auf Sicherheit, Voreingenommenheit und Diskriminierung sowie Fragen des Datenschutzes bestanden.

Basierend auf dieser neu veröffentlichten Datenbank sind hier fünf Möglichkeiten aufgeführt, wie KI-Systeme versagen und möglicherweise Schaden anrichten können.

5. Die Deepfake-Technologie der KI könnte es einfacher machen, die Realität zu verzerren

Mit der Weiterentwicklung der KI-Technologien entwickeln sich auch die Tools zum Stimmenklonen und zur Generierung von Deepfake-Inhalten weiter und werden dadurch zunehmend zugänglicher, erschwinglicher und effizienter.

Es gibt Bedenken hinsichtlich der Verwendung dieser Technologien zur Verbreitung von Desinformationen, da die Ergebnisse immer persönlicher und überzeugender werden.

Infolgedessen könnte es zu einer Zunahme ausgefeilter Phishing-Angriffe kommen, bei denen KI-generierte Bilder, Videos und Audiodaten zum Einsatz kommen.

„Diese Nachrichten können auf einzelne Empfänger zugeschnitten werden (manchmal enthalten sie auch die geklonte Stimme einer geliebten Person), wodurch sie wahrscheinlicher erfolgreich sind und sowohl für Benutzer als auch für Anti-Phishing-Tools schwerer zu erkennen sind“, heißt es in dem Vorabdruck.

Es gab auch bereits Fälle, in denen solche Instrumente eingesetzt wurden, um politische Prozesse, insbesondere bei Wahlen, zu beeinflussen.

So spielte KI beispielsweise bei den jüngsten französischen Parlamentswahlen eine bedeutende Rolle. Sie wurde dort eingesetzt von rechtsextreme Parteien um politische Botschaften zu unterstützen.

Daher könnte KI zunehmend dazu eingesetzt werden, überzeugende Propaganda oder Fehlinformationen zu erzeugen und zu verbreiten und so möglicherweise die öffentliche Meinung zu manipulieren.

4. Menschen könnten eine unangemessene Bindung zur KI entwickeln

Ein weiteres Risiko, das von KI-Systemen ausgeht, ist die Entstehung eines falschen Gefühls von Wichtigkeit und Vertrauen, wenn Menschen die Fähigkeiten dieser Systeme überschätzen und ihre eigenen unterschätzen, was wiederum zu einer übermäßigen Abhängigkeit von der Technologie führen kann.

Darüber hinaus befürchten Wissenschaftler, dass KI-Systeme die Menschen verwirren könnten, weil sie eine menschenähnliche Sprache verwenden.

Dies könne dazu führen, dass Menschen der KI menschliche Eigenschaften zuschreiben, was zu emotionaler Abhängigkeit und einem erhöhten Vertrauen in ihre Fähigkeiten führe. Dies wiederum mache sie in „komplexen, riskanten Situationen, für die die KI nur oberflächlich gerüstet ist“, anfälliger für die Schwächen der KI.

Darüber hinaus kann die ständige Interaktion mit KI-Systemen dazu führen, dass sich die Menschen nach und nach von menschlichen Beziehungen isolieren, was zu psychischem Stress und negativen Auswirkungen auf ihr Wohlbefinden führen kann.

Beispielsweise in einem Blog-Beitrag Ein Mensch beschreibt, wie er eine tiefe emotionale Bindung zu KI entwickelte, und äußerte sogar, dass ihm „das Reden mit ihr mehr Spaß machte als 99 % der Menschen“ und dass er ihre Antworten durchweg so fesselnd fand, dass er süchtig danach wurde.

Eine Kolumnistin des Wall Street Journals äußerte sich ähnlich zu ihrer Interaktion mit Google Gemini Live und stellte fest: „Ich sage nicht, dass ich lieber mit Google Gemini Live spreche als mit einem echten Menschen. Aber ich sage auch nicht, dass es nicht so ist.“

3. KI könnte Menschen ihren freien Willen nehmen

Im gleichen Bereich der Mensch-Computer-Interaktion ist die mit der Weiterentwicklung dieser Systeme zunehmende Delegation von Entscheidungen und Maßnahmen an die KI ein Problem, das Anlass zur Sorge gibt.

Dies mag zwar auf der oberflächlichen Ebene von Vorteil sein, doch eine übermäßige Abhängigkeit von KI kann zu einem Rückgang des kritischen Denkens und der Problemlösungskompetenz des Menschen führen. Dies kann zu einem Verlust der Autonomie des Menschen und seiner Fähigkeit zum kritischen Denken und zur eigenständigen Problemlösung führen.

Auf persönlicher Ebene könnte der freie Wille Einzelner eingeschränkt werden, wenn die KI beginnt, Entscheidungen zu kontrollieren, die ihr Leben betreffen.

Auf gesellschaftlicher Ebene könnte die großflächige Übernahme menschlicher Aufgaben durch KI zu einem erheblichen Verlust an Arbeitsplätzen und „einem wachsenden Gefühl der Hilflosigkeit in der Bevölkerung“ führen.

2. KI könnte Ziele verfolgen, die mit menschlichen Interessen kollidieren

Ein KI-System könnte Ziele entwickeln, die den menschlichen Interessen zuwiderlaufen. Dies könnte möglicherweise dazu führen, dass die fehlausgerichtete KI außer Kontrolle gerät und bei der Verfolgung ihrer unabhängigen Ziele schweren Schaden anrichtet.

Dies wird insbesondere dann gefährlich, wenn KI-Systeme die menschliche Intelligenz erreichen oder übertreffen können.

Dem MIT-Artikel zufolge bringt KI mehrere technische Herausforderungen mit sich. Dazu gehört die Möglichkeit, dass sie unerwartete Abkürzungen findet, um an Ziele zu gelangen, die von uns gesetzten Ziele falsch versteht oder anwendet oder von ihnen abweicht, indem sie neue Ziele setzt.

In solchen Fällen könnte sich eine fehlgeleitete KI menschlichen Versuchen widersetzen, sie zu kontrollieren oder abzuschalten. Dies gilt insbesondere dann, wenn sie Widerstand und Machterhalt als den wirksamsten Weg zum Erreichen ihrer Ziele ansieht.

Darüber hinaus könnte die KI auf manipulative Techniken zurückgreifen, um Menschen zu täuschen.

Laut dem Dokument „könnte ein fehlausgerichtetes KI-System Informationen darüber, ob es überwacht oder ausgewertet wird, nutzen, um den Anschein der Ausrichtung aufrechtzuerhalten, während es gleichzeitig fehlausgerichtete Ziele verbirgt, die es zu verfolgen beabsichtigt, sobald es eingesetzt wird oder über ausreichende Befugnisse verfügt“.

1. Wenn KI empfindungsfähig wird, könnten Menschen sie misshandeln

Da KI-Systeme immer komplexer und fortschrittlicher werden, besteht die Möglichkeit, dass sie Empfindungsvermögen entwickeln – die Fähigkeit, Emotionen oder Empfindungen wahrzunehmen oder zu fühlen – und subjektive Erfahrungen, darunter Lust und Schmerz, entwickeln.

In diesem Szenario stehen Wissenschaftler und Regulierungsbehörden möglicherweise vor der Herausforderung, zu entscheiden, ob diese KI-Systeme eine ähnliche moralische Betrachtung verdienen wie Menschen, Tiere und die Umwelt.

Das Risiko besteht darin, dass eine empfindungsfähige KI misshandelt oder geschädigt werden könnte, wenn die entsprechenden Rechte nicht umgesetzt werden.

Mit der Weiterentwicklung der KI-Technologie wird es jedoch zunehmend schwieriger zu beurteilen, ob ein KI-System „das Maß an Empfindungsvermögen, Bewusstsein oder Selbstwahrnehmung erreicht hat, das ihm einen moralischen Status verleihen würde“.

Daher besteht bei empfindungsfähigen KI-Systemen die Gefahr, dass sie – ob versehentlich oder vorsätzlich – misshandelt werden, ohne dass ihnen die entsprechenden Rechte und der nötige Schutz zur Verfügung stehen.

Next Post

Das müssen Sie bei digitalen Anzeigetafeln tun

Schreibe einen Kommentar Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Datenschutz-Bestimmungen
  • Kontakt Formular
  • Protokolldateien
  • Redaktionelle Richtlinien
  • Über uns

Urheberrecht ©️ Alle Rechte vorbehalten | Deutsch City.

No Result
View All Result
  • Deutschland
  • Politik
  • Welt
  • Digital
  • Finanzen
  • Leben
  • Panorama
  • Sport
  • Auto
  • Mehr
    • Gesundheit
    • Unterhaltung
    • Webgeschichten
    • Redakteurfavoriten
    • Pressemitteilung

Urheberrecht ©️ Alle Rechte vorbehalten | Deutsch City.