Dem Studienleiter Fabrizio Gilardi von der Universität Zürich (UZH) zufolge sollten solche Hinweise deshalb nur mit Vorsicht angewandt werden. «Es wäre sinnvoller, zwischen problematischen und unproblematischen Inhalten zu unterscheiden, als zwischen KI-generierten und nicht KI-generierten», sagte Gilardi am Freitag zur Nachrichtenagentur Keystone-SDA.
KI-Hinweise stossen laut Gilardi auf viel Zustimmung. Es wurde bisher aber kaum untersucht, welche Auswirkungen solche Labels auf die Wahrnehmung von Leserinnen und Lesern haben.
Leser trauen KI-Schlagzeilen nicht
Für die Studie, die in der Fachzeitschrift «Pnas Nexus» veröffentlicht wurde, haben Gilardi und sei UZH-Kollege Sacha Altay deshalb ein Experiment mit fast 5000 Menschen aus den USA und Grossbritannien durchgeführt.
Dabei zeigte sich, dass eine Kennzeichnung von Schlagzeilen als «KI-generiert» die wahrgenommene Genauigkeit der Schlagzeilen und die Absicht der Teilnehmerinnen und Teilnehmer, sie zu teilen, reduzierte. Dies unabhängig vom tatsächlichen Wahrheitsgehalt der Schlagzeile und auch unabhängig davon, ob sie wirklich von einer KI erstellt worden waren. Der Effekt war der Studie zufolge aber dreimal kleiner als bei Schlagzeilen mit dem Hinweis «Falsch».
Laut Gilardi ist dieser Skeptizismus wahrscheinlich darauf zurückzuführen, dass viele Leserinnen und Leser beim Hinweis auf KI davon ausgehen würden, dass so gekennzeichnete Schlagzeilen vollständig von KI geschrieben wurden, ohne menschliche Aufsicht.
Dies sei im Journalismus aber unüblich, sagte Gilardi. Solche Hinweise führten damit auch zu einer Verringerung des Glaubens an korrekte Inhalte.