Kritik an Universität Zürich
Schweizer Forscher manipulierten User unerlaubt mit KI-Bots

Auf Reddit diskutierten monatelang nur KI-Bots mit Usern, gesteuert von Zürcher Forschenden. Das Experiment schlägt weltweit hohe Wellen. Nun nimmt die Universität Zürich Stellung.
Publiziert: 29.04.2025 um 13:24 Uhr
|
Aktualisiert: 29.04.2025 um 14:31 Uhr
1/7
An der Uni Zürich schmiedeten Forschende den Plan: 34 KI-Konten sollten unerkannt in Reddit-Debatten eingreifen.
Foto: Keystone

Darum gehts

  • Uni-Zürich-Forschende täuschten Reddit-Nutzer mit KI-Bots für Überzeugungsexperiment
  • KI-Bots gaben sich als Vergewaltigungsopfer oder Angehörige von Minderheiten aus
  • Kritik an Experiment, Universität verspricht Aufarbeitung
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
nnnnnnn.jpg
Tobias BolzernRedaktor Digital

«Ich bin ein Überlebender von sexuellem Missbrauch als Jugendlicher»: Als dieser Kommentar im Februar im Debattenforum r/ChangeMyView (Deutsch: «ändere meine Ansicht») auftauchte, reagierten viele Reddit-User wohl mit Empathie. In dem Forum geht es darum, das Gegenüber zum Umdenken zu bringen. Doch der vermeintlich Betroffene war gar keiner. Hinter dem Beitrag steckte ein KI-Konto, gesteuert von Forschenden der Universität Zürich.

Auch andere KI-Accounts legten sich täuschend echte Rollen zu: Mal trat ein Bot als schwarzer Mann auf, der gegen die Black-Lives-Matter-Bewegung ist. Mal gab sich die künstliche Intelligenz (KI) als Person aus, die in einem Spital im Ausland minderwertige Versorgung erhielt, mal als Traumatherapeut. Kurz: Viele der KI-Konten polarisierten mit ihren fiktiven Personas.

KI-Bots überzeugender als Menschen

Zwischen November 2024 und März 2025 setzten die 34 eigens angelegten Bot-Konten Beiträge im Akkord ab: 1783 KI-Kommentare landeten unter über 1000 Threads. Das Team testete mehrere Varianten, darunter generische Antworten, aber auch personalisierte. Letzterer erwies sich als wirksamster Ansatz. «Die Überzeugungsrate der KI-Konten lag drei- bis fünfmal höher als die der menschlichen Accounts», erklären die Forschenden, die ohne Namen auftreten, im Nachgang der Studie. Die KI-Beiträge wurden vor der Publikation manuell geprüft. Um die Sicherheitsschranken der KI-Modelle zu umgehen, täuschten die Forschenden in ihrem Prompt vor, die Reddit-User seien informiert und hätten dem Experiment zugestimmt.

Mit dem Vorgehen verletzte das Team der Uni Zürich gleich mehrere Regeln des Subreddits, das den undeklarierten Einsatz von KI verbietet. «Die Forschenden haben uns vorab nicht kontaktiert. Hätten sie es getan, wir hätten abgelehnt», erklärten die Moderatoren in einem Beitrag. Gegenüber dnip.ch, die weltweit als Erstes darüber berichteten, kritisieren die Reddit-Moderatoren vor allem, dass es sich hierbei um Forschende einer renommierten Uni handelt. Sie beschreiben das Vorgehen, dass sich etwa die KI als Opfer von Missbrauch ausgibt, um andere damit zu beeinflussen als «cartoonishly evil», also als karikaturhaft böse.

Experiment sorgt für viel Wirbel

Die Schweizer Forschenden zeigen dabei wenig Reue. Man habe zwar gegen die Hausordnung verstossen, schreiben sie, doch «angesichts der hohen gesellschaftlichen Relevanz war das Experiment unabdingbar». Im April haben die Forschenden die Moderatoren informiert. Die Community reagiert wütend. «Wie wollt ihr beweisen, dass ihr überhaupt mit Menschen und nicht einfach mit anderen Bots gesprochen habt?», fragt User sundalius – und fordert, die Ergebnisse nicht zu publizieren. Auch Reddit selbst schaltet sich ein. Der Chef-Jurist von Reddit, der User Traceroo, nennt das Vorgehen «moralisch und rechtlich zutiefst falsch», sperrte die Bot-Konten und prüft rechtliche Schritte.

Das kontroverse Experiment hat mittlerweile international für Furore gesorgt. So berichteten unter anderem die Tech-Portale theverge.com und 404media.com über den Fall. Auch Schweizer Fachleute üben Kritik. So sagt Angela Müller von Algorithmwatch zu dnip.ch: «Grundsätzlich ist es wichtig, dass Forschung – mit oder ohne KI – auf ethisch verantwortungsvollen Füssen steht.» Anwalt Martin Steiger bekräftigt in der NZZ: «Der Zweck heiligt nicht alle Mittel. Das Studiendesign kollidiert offensichtlich mit ethischen Grundsätzen. Die Studie ist ein erheblicher Fauxpas der Universität Zürich.»

Die Forschenden haben sich auf eigene Initiative entschlossen, die Forschungsergebnisse nicht zu veröffentlichen. Doch die Gretchenfrage bleibt: Wie weit darf Forschung gehen, wenn sie vor genau jenen Manipulationstechniken warnen will, die sie selbst einsetzt? Die Forschenden berufen sich darauf, dass die Universität die Studie bewilligt hat. Unklar ist, an welcher Fakultät dies geschehen ist, und wollen sich laut dnip.ch nicht mehr zum Fall äussern und verweisen an die Medienstelle.

Die Uni Zürich erklärt auf Anfrage, ihre Fakultäts-Ethikkommission könne Projekte nur beraten, nicht genehmigen. Bereits im April 2024 habe sie den Forschenden geraten, die Methodik klarer zu begründen, Teilnehmende möglichst zu informieren und Reddit-Regeln strikt einzuhalten. «Die Verantwortung für Durchführung und Publikation liegt bei den Forschenden selbst», so eine Sprecherin. Die zuständigen Stellen wollen den Fall nun detailliert aufarbeiten und die Prüfroutinen schärfen; die Kommission plant verbindlichere Vorgaben. Wer genau forschte, bleibt «aus Persönlichkeitsschutz» geheim.

Fehler gefunden? Jetzt melden
Was sagst du dazu?