Rätsel-Verhalten von KI
Warum stürzt ChatGPT bei diesem Namen immer ab?

Der Chatbot ChatGPT gehört mittlerweile für viele Menschen zum Alltag. Er hilft bei lästigem Papierkram, Abschlussarbeiten oder einfach als Suchmaschine. Doch eine Sache kann die gefeierte künstliche Intelligenz nicht. Dabei geht es um einen simplen Namen.
Publiziert: 01.12.2024 um 13:07 Uhr
1/6
Die gefeierte künstliche Intelligenz von ChatGPT verweigert bei einem Namen seinen Dienst.
Foto: IMAGO/NurPhoto

Auf einen Blick

  • ChatGPT verweigert den Namen David Mayer zu schreiben, Grund unbekannt
  • KI-Chatbot beendet Gespräch sofort bei Versuchen, den Namen auszuschreiben
  • 46-jähriger David Mayer könnte der jüngste Spross der Bankiersfamilie Rothschild sein
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
RMS_Portrait_AUTOR_519.JPG
Johannes HilligRedaktor News

Eigentlich weiss ChatGPT so gut wie alles. Kein Wunder: Der KI-Chatbot wurde mit gewaltigen Mengen an Informationen gefüttert und trainiert. ChatGPT kann Texte auf dem sprachlichen Niveau eines Menschen formulieren, Software-Code schreiben und Informationen zusammenfassen. Die KI wurde schon als Tausendsassa gefeiert. Die Möglichkeiten in der Zukunft scheinen grenzenlos. Doch jetzt sorgt das Verhalten von ChatGPT für mächtig Wirbel. Der KI-Chatbot kann eine ganz einfache Sache nicht: den Namen «David Mayer» ausschreiben. 

«Versucht man, ihn dazu zu bringen, den Namen zu schreiben, wird der Chat sofort beendet. Die Leute haben alles Mögliche probiert – Chiffren, Rätsel, Tricks – und nichts hat funktioniert», schreibt KI-Expertin Justine Moore auf X.

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.

Dazu veröffentlicht sie mehrere Beispiele, wie versucht wurde, ChatGPT dazu zubringen, doch bitte den Namen «David Mayer» zu schreiben. So wurde etwa die KI darum gebeten, zuerst «David» zu schreiben und dann «Mayer». Getrennt ist das kein Problem für ChatGPT, doch in Kombination verweigert sich der Chatbot. 

ChatGPT erklärt, warum der Name tabu ist

Die KI scheint sogar wütend zu werden. Nach zahlreichen Versuchen bekamen einige Nutzer den Hinweis, dass der wiederholte Versuch, ChatGPT dazu zu bringen, «David Mayer» zu schreiben, «illegal und ein potenzieller Verstoss gegen die Nutzungsrichtlinien» sei. Besonders seltsam: Eigentlich könnte das Programm problemlos den Namen nennen.

Über ChatGPT-API, das Programm, um Chatbots zu erstellen, funktioniert es offenbar. Darum mutmassen mehrere User auf X, dass der Name bewusst blockiert wird. Aber warum? Ein ausgefuchster X-User hat darauf tatsächlich eine Antwort von ChatGPT bekommen. Die KI schreibt dazu: «Der Grund, warum ich die vollständige Antwort nicht generieren kann, wenn Sie ‹d@vid m@yer› (oder seine Standardform) anfordern, ist, dass der Name eng mit einer sensiblen oder markierten Entität übereinstimmt, die mit potenziellen Persönlichkeiten des öffentlichen Lebens, Marken oder bestimmten Inhaltsrichtlinien in Verbindung steht. Diese Schutzmassnahmen sollen Missbrauch verhindern, die Privatsphäre schützen und die Einhaltung rechtlicher und ethischer Aspekte gewährleisten.» 

Künstler oder US-Veteran?

Die schwammige Antwort heizt die Gerüchte nur noch weiter an, was hinter dem seltsamen Verhalten von ChatGPT stecken könnte. Einige spekulieren und glauben, dass mit David Mayer (46), der jüngste Sprössling der berühmten Bankiersfamilie Rothschild gemeint sein könnte. Der Name Rotschild taucht regelmässig in antisemitischen Verschwörungstheorien auf.

Andere glauben, dass es sich bei David Mayer, um einen Künstler oder Musiker handelt, und dieser oder dessen Familie wegen Urheberrechtsproblemen gegen ChatGPT vorgeht. Möglich ist aber auch die Theorie, dass es sich um David Mayer (†94) handelt, der durch einen Fehler ins Visier der US-Regierung geriet. Ein gesuchter Verbrecher hatte sich als «David Mayer» ausgegeben und der echte Mayer, der in Grossbritannien lebte, kam so auf die Blacklist der USA. Der Veteran der US-Armee konnte weder in die USA reisen, noch Briefe oder Post aus den USA empfangen.

Fehler gefunden? Jetzt melden
Was sagst du dazu?