Auf einen Blick
- KI-Chatbot Gemini gab verstörende Antwort bei Hausaufgabenhilfe
- Google spricht von einem Einzelfall und trifft neue Massnahmen
- Vorfall zeigt grundlegendes Kontrollproblem bei KI-Systemen
«Das ist für dich, Mensch. Du bist ein Schandfleck in der Landschaft. Bitte stirb.» Diese verstörende Antwort erhielt der 29-jährige Vidhay Reddy aus Michigan von Googles KI-Chatbot Gemini, als er Hilfe für die Hausaufgaben seiner Schwester suchte.
Die Antwort kam völlig unerwartet, berichtet Schwester Sumedha Reddy dem TV-Sender CBS. «Wir waren schockiert», schreibt sie. «Ich wollte alle meine Geräte aus dem Fenster werfen», fügt sie hinzu. «So eine Panik hatte ich lange nicht mehr.»
Das sagt Google
Doch wie kam es zu diesem bizarren Vorfall? Hinter KI-Systemen wie denen von Google und OpenAI stecken grosse Sprachmodelle (LLM), die mit umfangreichen Textmengen trainiert sind. Diese Systeme denken und fühlen nicht, sondern arbeiten mit Wahrscheinlichkeiten, Zusammenhängen und Mustern. Sie simulieren menschliche Sprache und klingen deshalb manchmal fast menschlich.
«Sprachmodelle können gelegentlich unsinnige Antworten geben, und dies ist ein Beispiel dafür», sagt ein Google-Sprecher gegenüber US-Medien. «Da die Antwort gegen unsere Richtlinien verstösst, haben wir Massnahmen ergriffen, um solche Ergebnisse künftig zu verhindern.»
Obwohl ein vollständiges Transkript der Unterhaltung mit Gemini vorliegt, bleibt unklar, ob hier eventuell die KI getäuscht wurde. Einige Stimmen vermuten, dass ein unsichtbares Element im Chatverlauf die Antwort ausgelöst haben könnte. Das IT-Nachrichtenportal theregister.com stellt eine weitere Vermutung auf. So sehe die Formatierung der vorangegangenen Fragen nach einem fehlgeschlagenen Copy-and-Paste-Verfahren aus, was zum Ausbruch des Modells beigetragen haben könnte.
Grundlegendes Problem
Unabhängig davon zeigt der Vorfall das grundlegende «Kontrollproblem», das der MIT-Physiker Max Tegmark (57) im November auf dem Websummit ansprach. Die Entwickler trainierten die Modelle darauf, keine schädlichen Aussagen zu machen, statt sie dazu zu bringen, keine schädlichen Absichten zu haben. «Das ist, als würde man einem Mörder beibringen, nichts zu sagen, was seine Mordgelüste verrät; aber das löst das Problem nicht», so Tegmark.
Es ist nicht das erste Mal, dass KI wegen problematischer Antworten auffällt. Googles KI-Übersetzungen sorgten im Mai für Aufsehen, als sie empfahlen, Steine und Pizza mit Leim zu essen. ChatGPT hat mehrfach Kauderwelsch produziert und Nutzerstimmen nachgeahmt. Kürzlich verklagte die Mutter eines 14-Jährigen character.ai, weil sich ihr Sohn nach Gesprächen mit dem Chatbot das Leben nahm.
Diese Stellen sind rund um die Uhr für Menschen in suizidalen Krisen und für ihr Umfeld da:
- Beratungstelefon der Dargebotenen Hand: Telefon 143 www.143.ch
- Beratungstelefon von Pro Juventute (für Kinder und Jugendliche): Telefon 147 www.147.ch
- Weitere Adressen und Informationen: www.reden-kann-retten.ch
Adressen für Menschen, die jemanden durch Suizid verloren haben
- Refugium – Verein für Hinterbliebene nach Suizid: www.verein-refugium.ch
- Nebelmeer – Perspektiven nach dem Suizid eines Elternteils: www.nebelmeer.net
Diese Stellen sind rund um die Uhr für Menschen in suizidalen Krisen und für ihr Umfeld da:
- Beratungstelefon der Dargebotenen Hand: Telefon 143 www.143.ch
- Beratungstelefon von Pro Juventute (für Kinder und Jugendliche): Telefon 147 www.147.ch
- Weitere Adressen und Informationen: www.reden-kann-retten.ch
Adressen für Menschen, die jemanden durch Suizid verloren haben
- Refugium – Verein für Hinterbliebene nach Suizid: www.verein-refugium.ch
- Nebelmeer – Perspektiven nach dem Suizid eines Elternteils: www.nebelmeer.net