Diese Videos sprengen Social Media
0:49
Jesus als Influencer:Diese Videos sprengen Social Media

Test mit 12'500 Personen
Auf diese KI-Bilder fallen fast alle herein – du auch?

Ein Kätzchen mit grossen Augen. Ein Sonnenuntergang, der einfach schön ist: Viele glauben, sie könnten KI-Bilder einfach erkennen. Eine neue Microsoft-Studie zeigt: Sie irren sich.
Publiziert: 01.08.2025 um 18:20 Uhr
|
Aktualisiert: 01.08.2025 um 18:54 Uhr
Teilen
Anhören
Kommentieren
1/6
Echt oder fake? Eine Studie von Microsoft zeigt: Viele Leute können KI-Bilder nicht von Fotos unterscheiden.
Foto: Tobias Bolzern

Darum gehts

  • Microsoft-Studie: Menschen erkennen KI-Bilder kaum besser als Münzwurf
  • Porträts leichter erkennbar, Landschaften und Städte schwieriger zu unterscheiden
  • 12'500 Teilnehmer analysierten 287'000 Bilder, 62% richtige Einschätzungen
Die künstliche Intelligenz von Blick lernt noch und macht vielleicht Fehler.
nnnnnnn.jpg
Tobias BolzernRedaktor Digital

Ein Kater mit einem lieben Blick. Die Schnurrhaare fein gezeichnet, das Licht wie im Fotostudio. Wer das Foto sieht, wird denken: herzig. Oder professionell gemacht. Nur: Es ist komplett erfunden, ein Bild, erstellt mit künstlicher Intelligenz.

Solche Bilder sind längst überall. In Werbung, Memes, Social Media. Doch erkennen wir sie? Microsoft hat das getestet, mit beunruhigendem Ergebnis: Weniger als zwei Drittel erkannten, ob ein Bild jetzt echt oder KI-generiert war. Im Schnitt lagen die Teilnehmenden in 62 Prozent der Fälle richtig. Oder anders gesagt: «Viele Nutzer schnitten nur wenig besser ab als bei einem Münzwurf», schreiben die Forschenden des Microsoft KI-Labors in ihrer Studie (PDF) von Mai.

Tausende machten mit

Die Studie basiert auf einem Online-Spiel namens Real or Not, das Microsoft 2024 lancierte. Über 12'500 Menschen weltweit machten mit, analysierten rund 287'000 Bilder – von echten Sonnenuntergängen bis hin zu künstlich erzeugten Gesichtern.

Am besten schnitten die Teilnehmenden bei Porträts ab: Rund 65 Prozent erkannten korrekt, ob es sich um ein echtes Gesicht handelte oder um KI. Laut Microsoft liegt das daran, dass unser Gehirn besonders gut auf Gesichter trainiert ist. Anders sah es bei Landschaften oder Städten aus. «Viele KI-Bilder sehen dort fast zu perfekt aus, oder wie gut bearbeitete Ferienfotos», so die Autoren. Umgekehrt passierte auch, dass echte Fotografien fälschlicherweise für KI gehalten wurden, etwa Bilder aus dem US-Militärarchiv mit ungewöhnlichem Licht.

Dient der Desinformation

Besonders schwer zu erkennen waren laut Microsoft sogenannte Inpaintings: Dabei wird nur ein kleiner Teil eines echten Fotos mit KI ersetzt, etwa ein Objekt, eine Person oder ein Detail im Hintergrund. «Solche Techniken sind heikel, weil sie besonders glaubwürdig wirken und sich für Desinformation eignen», erklärt das Forscherteam.

Zugleich testete Microsoft einen hauseigenen KI-Detektor, der entwickelt wird. Das Tool erkannte mehr als 95 Prozent der Bilder korrekt, egal ob KI oder echt. Ein Fortschritt, aber auch ein Rennen gegen die Zeit: Denn KI-Bilder werden laufend besser. Und man muss sich bewusst sein: Solche Tools liefern keine Garantie, aber eine erste Einschätzung. Kritisch sollte man in jedem Fall sein, egal ob ein Tool den Inhalt als KI einschätzt oder nicht. 

Die Studienautoren plädieren für eine klare Kennzeichnung von KI-Inhalten. Wasserzeichen, digitale Signaturen oder Metadaten sollen künftig helfen, KI-Bilder erkennbar zu machen. Doch in der Praxis fehlt es heutzutage an Standards und an rechtlichen Vorgaben.

Wer wissen will, wie gut das eigene Auge mithält: Das Real-or-Not-Quiz ist öffentlich zugänglich. In 15 Bildern gilt es, KI und Realität zu unterscheiden. Der Durchschnitt lag bei 62 Prozent. Schaffst du mehr?

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.
Teilen
Fehler gefunden? Jetzt melden
Was sagst du dazu?