Darum gehts
Sie wirken charmant, optimistisch, freundlich: Und wenn wir ebenso mit ihnen kommunizieren, liefern KI-Chatbots bessere Antworten. Das ist kein subjektiver Eindruck, sondern eine durch namhafte Universitäten belegte Tatsache. Zuletzt haben Forschende der Waseda-Universität in Tokio untersucht, welchen Einfluss Höflichkeit auf die Leistung von Sprachmodellen wie ChatGPT hat. Das Ergebnis: Barsche Anweisungen führen oft zu schlechteren Resultaten, während ansprechende Formulierungen die Qualität und Präzision der Antworten erhöhen.
Höfliche Floskeln steigern jedoch auch den Rechenaufwand der Computer und damit den Ressourcenverbrauch. Lohnt sich also ein freundlicher Umgang mit KI?
KI-Systeme, insbesondere Sprachmodelle, verbrauchen enorme Mengen an Ressourcen. Derzeit verursachen die Rechenzentren dahinter rund zwei bis vier Prozent der weltweiten Treibhausgasemissionen. Die Internationale Energieagentur geht davon aus, dass der Strombedarf für KI-Anwendungen von 2024 bis 2026 auf das Doppelte anwachsen wird – was dem gesamten Stromverbrauch Japans entspricht. Dies macht sich auch finanziell bemerkbar. OpenAI-CEO Sam Altman (40) erklärte kürzlich, allein die Verarbeitung von Höflichkeitsfloskeln wie «Danke» und «Bitte» in Chatverläufen koste das Unternehmen «Dutzende Millionen Dollar». Dieses Geld sei jedoch gut investiert, fügte er hinzu.
Auch der Wasserverbrauch von KI-Systemen ist beträchtlich. Ein Gespräch mit einem KI-Chatbot, das 20 bis 50 Fragen umfasst, verbraucht rund einen halben Liter Wasser. Dies haben Forschende der University of California Riverside und der University of Texas Arlington herausgefunden. Ein durchschnittliches Rechenzentrum verbraucht dadurch täglich über eine Million Liter Wasser – so viel wie drei mittelgrosse Spitäler zusammen. Der Wasserverbrauch umfasst dabei die Herstellung, den Betrieb und die Kühlung der KI-Infrastruktur.
KI-Systeme, insbesondere Sprachmodelle, verbrauchen enorme Mengen an Ressourcen. Derzeit verursachen die Rechenzentren dahinter rund zwei bis vier Prozent der weltweiten Treibhausgasemissionen. Die Internationale Energieagentur geht davon aus, dass der Strombedarf für KI-Anwendungen von 2024 bis 2026 auf das Doppelte anwachsen wird – was dem gesamten Stromverbrauch Japans entspricht. Dies macht sich auch finanziell bemerkbar. OpenAI-CEO Sam Altman (40) erklärte kürzlich, allein die Verarbeitung von Höflichkeitsfloskeln wie «Danke» und «Bitte» in Chatverläufen koste das Unternehmen «Dutzende Millionen Dollar». Dieses Geld sei jedoch gut investiert, fügte er hinzu.
Auch der Wasserverbrauch von KI-Systemen ist beträchtlich. Ein Gespräch mit einem KI-Chatbot, das 20 bis 50 Fragen umfasst, verbraucht rund einen halben Liter Wasser. Dies haben Forschende der University of California Riverside und der University of Texas Arlington herausgefunden. Ein durchschnittliches Rechenzentrum verbraucht dadurch täglich über eine Million Liter Wasser – so viel wie drei mittelgrosse Spitäler zusammen. Der Wasserverbrauch umfasst dabei die Herstellung, den Betrieb und die Kühlung der KI-Infrastruktur.
Fachpersonen erklären die psychologischen, technischen, wirtschaftlichen Hintergründe – und verraten, wie höflich sie selbst mit KI kommunizieren.
Höflichkeit hat wirtschaftliches Potenzial
Betriebsökonom Roger Basler de Roca sieht die freundliche Kommunikation mit KI als strategische Investition. «Schulungen und klare Richtlinien im Umgang mit KI lohnen sich ethisch wie wirtschaftlich.» Ein wertschätzender Dialog verbessert nicht nur die Interaktion, sondern stärkt das Vertrauen in die Technologie – eine wichtige Voraussetzung für ihre nachhaltige Integration in Geschäftsprozesse. Welche wirtschaftlichen Chancen darin liegen, zeigt eine Studie der Strategieberatung PwC: Sie prognostiziert der Schweiz bis 2030 ein BIP-Wachstum von bis zu 50 Milliarden Franken – internationaler Spitzenwert.
Doch es gehe beim höflichen Prompten nicht nur um wirtschaftliche Erfolge, sagt der Experte. In Zeiten von «human-centered AI» sei ein freundlicher Austausch mit Computern auch ein Zeichen des Respekts gegenüber Menschen. Gerade im Arbeitsumfeld präge die Kommunikation mit Sprachmodellen soziale Normen. «Durch die Art und Weise, wie wir Prompts verfassen, programmieren wir unsere Zukunft mit.» Das Ziel sei nicht, dass sich der Mensch der Maschine anpasst – sondern umgekehrt. «Ich kommuniziere mit KI genauso freundlich wie mit Menschen, sage immer Danke und Bitte, weil ich mir diese Freundlichkeit erhalten möchte.»
Vermenschlichung als Risiko
«Es ist wichtig, bei der Kommunikation mit KI zwischen Sach- und Beziehungsebene zu unterscheiden», sagt Psychologin Kerstin March. «Auf Sachebene führt Höflichkeit oft zu besseren Ergebnissen – das zeigen zahlreiche Studien. Ich nutze dies und formuliere ganze Sätze, wenn ich mit KI chatte.» Floskeln wie «Danke» und «Bitte» verwendet Kerstin March jedoch nicht – auch wenn aus psychologischer Sicht nichts dagegen spricht. Im Gegenteil: «Freundlichkeit schafft positive Momente, die auf uns selbst zurückwirken. Man agiert in einem positiven Netzwerk und gerät weniger unter Stress.»
Mit der Maschine eine Art Beziehungsebene herzustellen, findet sie jedoch riskant: «KI wird so trainiert, dass wir uns wohl damit fühlen. Sie widerspricht nicht, sie hinterfragt nicht, sie ist pflegeleicht und immer wohlwollend. Das birgt die Gefahr, dass Menschen, die viel Zeit mit KI verbringen, ein Gefühl von Nähe entwickeln zu diesem Kommunikationspartner. Der Umgang mit echten Menschen, die auch eigene Ansprüche stellen, Launen und Charakter haben, kann dadurch erschwert werden.»
Mit Freundlichkeit allein ist es nicht gemacht
ETH-Informatikerin Menna El-Assady vergleicht KI-Sprachmodelle gerne mit Autos: Wer ein Auto fahren will, muss es nicht gerade reparieren können – dafür gibt es Mechaniker –, aber doch ein gewisses Verständnis für seine Funktionsweise mitbringen, um einen Führerschein zu erwerben. Das fände ich auch im Umgang mit KI sinnvoll.» Denn wer nachvollziehen will, warum Chatbots auf freundliche Anfragen bessere Antworten liefern, muss wissen, wie KI-Modelle programmiert sind. «Textgenerierungsmodelle durchforsten grosse Textmengen – auch gezielte Frage-Antwort-Paare – nach Ähnlichkeiten. Die darin enthaltenen Muster dienen als Vorlage für die Antworterzeugung.»
Die Freundlichkeit eines Chatbots ist also ein statistisches Abbild der Trainingsdaten: Da Menschen auf höfliche Fragen meist genauer und auskunftsfreudiger reagieren, übernimmt das auch die KI. Für die KI-Expertin ist Höflichkeit allein nicht zielführend. Entscheidend sei, der Maschine klar zu sagen, was man erwartet: «Es lohnt sich oft, dem Sprachmodell die nötigen Denkschritte aufzuzeigen. Und ich bitte häufig um mehrere Antworten, die ich dann kritisch vergleiche.» Ihr Tipp: «Ich schreibe Prompts so, wie ich mir die Antwort wünsche.»