Das steckt dahinter
Agenturen verkaufen KI-generierte Bilder vom Gaza-Krieg

Bilder, die von künstlicher Intelligenz (KI) erstellt wurden, werden immer beliebter. Auch im Nahost-Konflikt spielen sie eine Rolle. Fake-Bilder tauchen sogar bei Fotoagenturen auf.
Publiziert: 13.11.2023 um 17:50 Uhr
1/7
Dieses Bild wurde mit KI generiert und ist auf Adobe Stock erhältlich. Eine Deklaration gibt es nicht.
Foto: Screenshot / Adobe Stock

Ob zerstörte Häuser, Verletzte oder gar Tote: Bilder des Nahost-Kriegs überschwemmen das Netz. Doch nicht immer zeigen sie die Realität. Denn: Künstliche Intelligenz (KI) kann inzwischen Bilder generieren, die sich von echten Fotos kaum unterscheiden lassen. Daraus schlagen einige Künstler offenbar Gewinn. 

Wie die «NZZ» berichtet, kursierte etwa ein Bild einer riesigen Rauchwolke im Internet. Sie liegt über einer Stadt, die Gaza zum Verwechseln ähnelt. Mehrere kleineren Online-Portale verwendeten das Bild.

Nur: Weder die Stadt noch die Wolke ist echt. Eine KI hat das Bild erstellt. Darauf hat aber keines der Portale hingewiesen. Und das, obwohl das Bild höchstwahrscheinlich über die Bilddatenbank Adobe Stock erworben wurde. Dort ist klar gekennzeichnet, dass es von KI generiert wurde. 

Keine Kennzeichnung für KI-Bilder

Doch nicht immer werden Bilder auf Adobe Stock so ordnungsgemäss deklariert. Wie die «NZZ» herausfand, stehen auf der Website zahlreiche Bilder des iranischen Künstlers Meysam Azarneshin zum Verkauf. Eines davon zeigt zwei Kinder, die durch Trümmer laufen. Dass das Bild von KI erstellt wurde, ist nirgends ersichtlich. Gibt man in der Suche «Gaza» ein, ist das Bild eines der ersten Resultate. Und das, obwohl in der Bildbeschreibung nichts von Gaza steht: «Zwei obdachlose Mädchen gehen in einer zerstörten Stadt, Soldaten, Helikopter und Panzer attackieren die Stadt noch immer.» 

Ein weiteres Bild zeigt einen Soldaten, der ein Kind in den Armen trägt. Im Hintergrund ist eine Rauchwolke zu sehen. Dieses Bild ist bei der Bildagentur Alamy käuflich, wo es unter den Stichwörtern «Palestine Orphan» angezeigt wird. Wie die «NZZ» unter Berufung auf die Agentur berichtet, handelt es sich bei dem Bild um ein «Composite». Bedeutet: Es ist keine KI-Kreation, sondern eine Zusammensetzung verschiedener Bilder.

Agenturen weisen Schuld von sich

Alamy sagte gegenüber der Zeitung, dass KI-Bilder von der Seite entfernt werden. Das Bild von Azarneshin sei allerdings kein reines KI-Werk und würde deshalb geduldet. Zu der Problematik, die solch unechte Bilder im Zusammenhang mit dem Krieg dennoch mit sich bringen können, nahm Alamy keine Stellung. Die Agentur vertreibt unter anderem Pressebilder, was zur Folge haben könnte, dass Medienhäuser Fake-News verbreiten. 

Auch Adobe Stock wurde von der Zeitung kontaktiert. Die Bilddatenbank sagte, dass auf ihrer Website alle KI-Bilder gekennzeichnet werden müssen. Wieso Adobe seine Richtlinien im Fall des Künstlers nicht durchsetzt, ist unklar. Adobe ging darauf bislang nicht ein. Fest steht aber: Die oben genannten Bilder sind nicht die Einzigen, welche nach KI aussehen, aber keine entsprechende Kennzeichnung tragen. 

Der Künstler selbst reagierte auf Anfrage der Zeitung nicht. Für ihn ist das Geschäft mit den falschen Bildern scheinbar rentabel. Denn: Bilder mit KI zu erstellen ist weniger aufwendig, als sie selbst zu schiessen und anschliessend zu bearbeiten. Gleichzeitig sollen KI-generierte Bilder auf Adobe Stock laut der Zeitung mehr Geld einbringen – im Durchschnitt rund viermal so viel, wie echte Aufnahmen. 

Dass die Bilder undeklariert auf den Seiten vertrieben werden, bringt eine Vielzahl von Problemen mit sich. Die Bilder tragen dazu bei, die Realität zu verschleiern, und können zur Verbreitung von Fake-News beitragen. Weitergehend werden sie aus echten Bildern geschaffen, mit denen die KI trainiert wird. Bedeutet: Fotografen, die ihr Leben riskieren, um Bilder vom Krieg zu machen, werden ausgenutzt. (mrs) 

Fehler gefunden? Jetzt melden
Was sagst du dazu?