UZH-Studie warnt vor Fake News
So lügt ChatGPT uns an

ChatGPT hat ein Talent für die Erstellung überzeugender Falschinformationen. In einer Studie der Universität Zürich hatten Teilnehmende bei von ChatGPT generierten Tweets mehr Mühe, Fake News zu erkennen, als bei jenen, die von Menschen verfasst wurden.
Publiziert: 29.06.2023 um 10:00 Uhr
|
Aktualisiert: 29.06.2023 um 13:49 Uhr
Von Chatbots verfasste Tweets sind laut einer neuen Studie häufig verständlicher als von Menschen verfasste. (Symboldbild)
Foto: CHRISTIAN BEUTLER

Seit Monaten hält uns ChatGPT auf Trab. Inzwischen sind bereits die ersten Untersuchungen zur neuesten Technologie entwickelt worden. So auch von der Universität Zürich (UZH). Dabei zeigt deren neueste Studie, dass ChatGPT ein Talent dafür hat, Fake News zu verbreiten.

So hatten Teilnehmende bei von ChatGPT generierten Tweets mehr Mühe, Fake News zu erkennen, als bei jenen, die von Menschen verfasst wurden.

Gleichzeitig verstanden die Teilnehmer aber von ChatGPT produzierte Tweets besser, wie die am Mittwochabend im Fachblatt «Science Advances» publizierte Studie zeigt. Unterscheiden, welche Tweets von ChatGPT und welche von Menschen verfasst wurden, konnten die Studienteilnehmerinnen und -teilnehmer nicht zuverlässig. «GPT-3 ist ein zweischneidiges Schwert», schrieben die Forscherinnen und Forscher in der Studie.

Chatbot informiert effizienter als Menschen

Die Wissenschaftler der Universität Zürich liessen für die Studie 697 Teilnehmerinnen und Teilnehmern im Alter von 26 bis 76 raten, ob ein Tweet von einem realen Twitter-Nutzer oder von ChatGPT-3 verfasst wurde. Zudem wurden die Teilnehmenden gefragt, ob die Tweets der Wahrheit entsprechen oder nicht. Die Themenfelder der Tweets beinhalteten unter anderem die Corona-Pandemie und die Sicherheit von Impfstoffen, den Klimawandel und homöopathische Behandlungen für Krebs.

Dabei erkannten die Teilnehmenden von Menschen verfasste Fehlinformationen mit einer Wahrscheinlichkeit von 92 Prozent, von ChatGPT erstellte mit einer Wahrscheinlichkeit von 89 Prozent. Zudem dauerte es bei von Menschen verfassten Tweets im Schnitt länger, bis die Teilnehmenden feststellten, ob ein Tweet korrekt war oder nicht. Das zeigt laut der Studie, dass GPT-3 «effizienter» informiert als Menschen.

Diese Resultate deuten darauf hin, dass von GPT-3 erstellte (aber von geschulten Menschen bewertete) Informationskampagnen etwa in Krisensituationen effektiver wären, wie die UZH in einer Mitteilung zur Studie schrieb. Die Erkenntnisse zeigen demnach aber auch Risiken. Die Forschenden plädieren deshalb in der UZH-Mitteilung für strenge, evidenzbasierte und ethisch fundierte Vorschriften, um der potenziellen Bedrohung durch diese Technologien zu begegnen. (SDA)

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.
Fehler gefunden? Jetzt melden
Was sagst du dazu?