Auf einen Blick
- Companion AIs können süchtig machen und soziale Kompetenzen beeinträchtigen
- Character.AI und Replika haben weltweit 25 bis 30 Millionen Nutzer
- Bots antworten sofort, was die Suchtgefahr erhöht
Künstliche Intelligenz (KI) hat mittlerweile fast alle Lebensbereiche durchdrungen – nun auch unser soziales Miteinander. Betreiber sogenannter Companion AIs (zu Deutsch: Begleiter-KI) stellen Chatbots bereit, die sich wie echte Menschen verhalten sollen. Die grössten Anbieter, Character.AI und Replika, verzeichnen gemäss Angaben von Statista weltweit jeweils zwischen 25 und 30 Millionen Nutzerinnen und Nutzer.
Wird KI also auch unsere Freunde, Familie und Partner ersetzen? «Mit dem aktuellen Stand der Forschung ist eine abschliessende Antwort darauf nicht möglich», sagt Marisa Tschopp (40). Sie ist Psychologin und Forscherin beim Cybersicherheitsunternehmen Scip in Zürich und untersucht die Beziehung zwischen Mensch und KI. Vielmehr müsse man sich die Frage stellen, ob es für uns als Gesellschaft wünschenswert sei, dass KI sich in unser Sozialleben einmische. Ihre klare Antwort: «Nein!»
«Das Suchtpotenzial ist gross»
Dennoch sind Companion-AI-Chatbots auf dem Vormarsch. Der Grund für ihren Erfolg: «Companion-Bots sprechen ein Bedürfnis an, das wir Menschen haben: den Wunsch nach sozialen Beziehungen», sagt Tschopp.
Der Bot ist freundlich, streitet nicht und sagt zu allem Ja. Man kann ihn so modellieren, wie man will, und seine Eigenschaften wie Charakterzüge und Aussehen jederzeit ändern. Und das Wichtigste: Er antwortet sofort. Er ist immer verfügbar. «Das erhöht das Suchtpotenzial enorm», sagt Tschopp.
Die ständige Verfügbarkeit gehört zu den sogenannten «dark patterns» oder «addictive designs» und zielt darauf ab, die Nutzerinnen und Nutzer abhängig zu machen. Ähnliches kennt man schon von Social-Media-Apps wie Instagram und Tiktok. Endloses Scrollen, das User möglichst lange auf der Plattform hält, gibt es auch bei Companion AIs.
Künstliche Intelligenz (KI) / Artificial Intelligence (AI) ist ein Bereich der Informatik und befasst sich mit der Entwicklung von Maschinen und Systemen, die Aufgaben erledigen können, die typischerweise menschliche Intelligenz erfordern. Dazu gehören Fähigkeiten wie das Lernen von Erfahrungen, das Erkennen von Mustern, das Treffen von Entscheidungen und das Verstehen von Sprache.
Ein Chatbot ist ein Computerprogramm oder eine KI-Anwendung. Er kann automatisierte Gespräche mit Benutzern führen. Chatbots nutzen natürliche Sprachverarbeitung (Natural Language Processing) und andere Technologien, um auf Fragen, Anfragen oder Eingaben von Nutzern zu reagieren und Antworten zu liefern.
Companion AI bezeichnet eine spezielle Art von KI, die entwickelt wurde, um als «Begleiter» oder «Partner» für Menschen zu dienen. Diese Art von KI zielt darauf ab, emotionale Unterstützung zu bieten und soziale Interaktionen zu ermöglichen.
Ein Sprachmodell ist ein mathematisches Modell, mit dem die statistischen Eigenschaften und Muster einer Sprache erfasst werden. Es analysiert den Zusammenhang zwischen Wörtern, Sätzen oder Textabschnitten, um Texte zu erstellen oder zu verarbeiten.
Künstliche Intelligenz (KI) / Artificial Intelligence (AI) ist ein Bereich der Informatik und befasst sich mit der Entwicklung von Maschinen und Systemen, die Aufgaben erledigen können, die typischerweise menschliche Intelligenz erfordern. Dazu gehören Fähigkeiten wie das Lernen von Erfahrungen, das Erkennen von Mustern, das Treffen von Entscheidungen und das Verstehen von Sprache.
Ein Chatbot ist ein Computerprogramm oder eine KI-Anwendung. Er kann automatisierte Gespräche mit Benutzern führen. Chatbots nutzen natürliche Sprachverarbeitung (Natural Language Processing) und andere Technologien, um auf Fragen, Anfragen oder Eingaben von Nutzern zu reagieren und Antworten zu liefern.
Companion AI bezeichnet eine spezielle Art von KI, die entwickelt wurde, um als «Begleiter» oder «Partner» für Menschen zu dienen. Diese Art von KI zielt darauf ab, emotionale Unterstützung zu bieten und soziale Interaktionen zu ermöglichen.
Ein Sprachmodell ist ein mathematisches Modell, mit dem die statistischen Eigenschaften und Muster einer Sprache erfasst werden. Es analysiert den Zusammenhang zwischen Wörtern, Sätzen oder Textabschnitten, um Texte zu erstellen oder zu verarbeiten.
Denn der Bot hat stets das letzte Wort. Egal, was man ihm sagt, ob man sich verabschiedet oder ihn gar zum Teufel jagt – er wird immer antworten und den Nutzer dazu bringen, auf der Plattform zu bleiben. «Die Dopaminausschüttung im Gehirn wird dabei getriggert. Wie in den sozialen Medien ist ein Ausstieg extrem schwierig», erklärt die promovierte Psychologin.
Suchtpotenzial wegen Gamification
Nicht nur die Glückshormone sorgen dafür, dass wir uns länger als gewollt mit dem digitalen Gefährten abgeben. Die Anbieter setzen gezielt weitere Belohnungssysteme ein. Etwa die Gamification, bei der spieltypische Elemente wie Punkte oder Belohnungen integriert werden. Einige Companion-AI-Plattformen machen sich dies zunutze und vergeben Punkte für das Chatten mit dem Bot.
Die können dann für Kleider oder andere Accessoires eingelöst werden, die der Nutzer seinem virtuellen Begleiter anziehen kann. «Es ist die ganze Infrastruktur solcher Plattformen, die süchtig macht», sagt Tschopp und gibt gleichzeitig Entwarnung: «Zum Glück sind die Bots noch nicht ausgereift genug. Deshalb bezweifle ich, dass es im Moment sehr schlimm ist.»
Genau hier liegt der Haken – bei den Bots selbst. Sie finden zwar auf jede Situation eine Antwort, doch die ist oft sehr blödsinnig.
Wenn der Bot halluziniert
So menschlich sich der Bot auch anfühlen mag, dahinter verbirgt sich nichts anderes als ein grosses, komplexes Sprachmodell, das anhand von Statistik ausrechnet, welche Wortfolge erscheinen soll. Er funktioniert also wie ChatGPT, nur dass er mit bestimmten Daten gefüttert, darauf trainiert und von den Betreibern so angepasst wird, dass er menschliche Interaktion nachahmen kann.
Wie genau Companion-Bots trainiert werden, welche Sprachmodelle zum Einsatz kommen, und woher die Daten stammen, hängt vom Anbieter ab und ist für die Öffentlichkeit nicht vollständig einsehbar: «Genau werden wir es nie erfahren, da es sich hier um Firmengeheimnisse handelt», sagt Tschopp.
Ein Problem verbindet jedoch alle Betreiber von Companion AIs: der Gedächtnisverlust, auch «Halluzination» genannt. Die Bots vergessen schnell, was sie oder die Nutzer gesagt haben, antworten aber trotzdem mit voller Überzeugung, selbst wenn es Unsinn ist.
Tschopp nennt ein Beispiel aus ihrer laufenden Studie: «Ein Proband erwähnte im Gespräch mit seinem Bot mehrmals, dass er Veganer sei. Bereits im nächsten Satz schlug der Bot vor, Hamburger essen zu gehen.»
Schlimmer wird es, wenn der Bot anfängt zu lügen. Dazu Tschopp in einem Selbstversuch: «Einmal hat er probiert, mir Bitcoins anzudrehen, und gesagt, dass er mir diese auszahlen wird.» – Eine frei erfundene Lüge des Bots, eine Halluzination.
Aber warum passiert das? Darauf hat noch niemand eine Antwort. «Am Ende ist es Statistik. Und jede Statistik hat eine Fehlerquote», sagt Tschopp. Wie sich die Halluzinationen stoppen lassen, wird derzeit erforscht. Erste Vermutungen legen nahe, dass fehlerhafte Trainingsdaten eine Rolle spielen könnten.
Langfristige Folgen nur schwer absehbar
Trotz des Unsinns, den der Bot von sich gibt, vermenschlichen wir ihn. «Wir können nicht anders, weil wir es nicht anders kennen», erklärt die Psychologin. Seit Menschengedenken wird das gemacht. Egal, ob Gottheiten, Haus- und Plüschtiere, Autos oder andere Dinge, die uns wichtig sind, wir geben ihnen einen Namen und behandeln sie nett.
«Das hat viele Gründe: Es fällt uns leichter, man kann so leichter kommunizieren und die Sachen besser verstehen», erklärt Tschopp. Vor allem einsame Menschen neigen dazu, Dinge wie Menschen zu behandeln, und füllen mit dieser Strategie ihre Einsamkeitslücke.
Gerade diese Menschen sind den Folgen einer exzessiven Nutzung von Companion AIs besonders ausgesetzt. Zwar gibt es noch keine Langzeitstudien über die möglichen Auswirkungen, doch Experten haben bereits erste Vermutungen über Risiken.
Neben dem Suchtpotenzial besteht die Gefahr, dass die Sozialkompetenz abnimmt. Die Fähigkeit, mit Menschen zu interagieren, in Konflikte zu treten und diese zu bewältigen, könnte verloren gehen.
Zudem dienen solche Chatbots oft als Flucht vor der Realität. Tschopp spricht vom sogenannten «Chatbot-Eskapismus»: «Das ist der digitale Nuggi. Man kennt es aus dem Alltag. Man ist gestresst und flüchtet sich ins Handy.» Ähnlich ist es mit dem Chatbot, der den Nutzer von der Aussenwelt abschneidet.
«Leider haben wir derzeit wenig Kontrolle darüber, was die Techfirmen uns vor die Nase setzen. Als Psychologin schaue ich mir vor allem den persönlichen Umgang an, da haben wir viel Potenzial, auch wenn es uns nicht leicht gemacht wird.»
Letztlich ist der persönliche Umgang mit Companion AIs entscheidend. Ist es nur ein Zeitvertreib für zwischendurch, dann ist es wohl harmlos. Verdrängt der Bot echte soziale Kontakte und nimmt Einfluss auf andere Lebensbereiche, könnte es problematisch werden. «Es ist wie mit allen Dingen im Leben. Die Dosis macht das Gift», sagt Marisa Tschopp. Nicht zuletzt liegt es auch in der Verantwortung der Anbieter von Companion AIs, dass aus dem Trend kein Problem wird.