Das steckt dahinter
«Bitte stirb» – Google-KI wünscht Nutzer den Tod

Google-KI rastet bei Hausaufgaben aus. Statt zu helfen, attackierte der Chatbot Gemini einen 29-jährigen Studenten mit verstörenden Aussagen.
Publiziert: 18.11.2024 um 17:41 Uhr
|
Aktualisiert: 18.11.2024 um 18:45 Uhr
1/4
Anstatt bei Hausaufgaben zu helfen, ist Googles KI-Dienst Gemini entgleist.
Foto: Anadolu via Getty Images

Auf einen Blick

  • KI-Chatbot Gemini gab verstörende Antwort bei Hausaufgabenhilfe
  • Google spricht von einem Einzelfall und trifft neue Massnahmen
  • Vorfall zeigt grundlegendes Kontrollproblem bei KI-Systemen
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
nnnnnnn.jpg
Tobias BolzernRedaktor Digital

«Das ist für dich, Mensch. Du bist ein Schandfleck in der Landschaft. Bitte stirb.» Diese verstörende Antwort erhielt der 29-jährige Vidhay Reddy aus Michigan von Googles KI-Chatbot Gemini, als er Hilfe für die Hausaufgaben seiner Schwester suchte.

Die Antwort kam völlig unerwartet, berichtet Schwester Sumedha Reddy dem TV-Sender CBS. «Wir waren schockiert», schreibt sie. «Ich wollte alle meine Geräte aus dem Fenster werfen», fügt sie hinzu. «So eine Panik hatte ich lange nicht mehr.»

Das sagt Google

Doch wie kam es zu diesem bizarren Vorfall? Hinter KI-Systemen wie denen von Google und OpenAI stecken grosse Sprachmodelle (LLM), die mit umfangreichen Textmengen trainiert sind. Diese Systeme denken und fühlen nicht, sondern arbeiten mit Wahrscheinlichkeiten, Zusammenhängen und Mustern. Sie simulieren menschliche Sprache und klingen deshalb manchmal fast menschlich.

«Sprachmodelle können gelegentlich unsinnige Antworten geben, und dies ist ein Beispiel dafür», sagt ein Google-Sprecher gegenüber US-Medien. «Da die Antwort gegen unsere Richtlinien verstösst, haben wir Massnahmen ergriffen, um solche Ergebnisse künftig zu verhindern.»

Obwohl ein vollständiges Transkript der Unterhaltung mit Gemini vorliegt, bleibt unklar, ob hier eventuell die KI getäuscht wurde. Einige Stimmen vermuten, dass ein unsichtbares Element im Chatverlauf die Antwort ausgelöst haben könnte. Das IT-Nachrichtenportal theregister.com stellt eine weitere Vermutung auf. So sehe die Formatierung der vorangegangenen Fragen nach einem fehlgeschlagenen Copy-and-Paste-Verfahren aus, was zum Ausbruch des Modells beigetragen haben könnte.

Grundlegendes Problem

Unabhängig davon zeigt der Vorfall das grundlegende «Kontrollproblem», das der MIT-Physiker Max Tegmark (57) im November auf dem Websummit ansprach. Die Entwickler trainierten die Modelle darauf, keine schädlichen Aussagen zu machen, statt sie dazu zu bringen, keine schädlichen Absichten zu haben. «Das ist, als würde man einem Mörder beibringen, nichts zu sagen, was seine Mordgelüste verrät; aber das löst das Problem nicht», so Tegmark.

Es ist nicht das erste Mal, dass KI wegen problematischer Antworten auffällt. Googles KI-Übersetzungen sorgten im Mai für Aufsehen, als sie empfahlen, Steine und Pizza mit Leim zu essen. ChatGPT hat mehrfach Kauderwelsch produziert und Nutzerstimmen nachgeahmt. Kürzlich verklagte die Mutter eines 14-Jährigen character.ai, weil sich ihr Sohn nach Gesprächen mit dem Chatbot das Leben nahm.

Hier findest du Hilfe

Diese Stellen sind rund um die Uhr für Menschen in suizidalen Krisen und für ihr Umfeld da:

Adressen für Menschen, die jemanden durch Suizid verloren haben

Diese Stellen sind rund um die Uhr für Menschen in suizidalen Krisen und für ihr Umfeld da:

Adressen für Menschen, die jemanden durch Suizid verloren haben

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.
Fehler gefunden? Jetzt melden
Was sagst du dazu?