Générée par une IA
Une fausse image d'une explosion au Pentagone fait le tour du web

Une explosion au Pentagone? Fake news! Une fausse image d'un tel incident a brièvement fait le tour de Twitter ce lundi. Celle-ci a été générée par une intelligence artificielle (IA). Ce qui a eu l'effet de relancer le débat autour des risques liés aux IA.
Publié: 22.05.2023 à 21:43 heures
Une fausse image d'une explosion au Pentagone est devenue virale, obligeant le Département de la Défense américain à intervenir. (Photo d'illustration)
Photo: Patrick Semansky

Une fausse image montrant une explosion au Pentagone est brièvement devenue virale sur Twitter lundi, causant un léger affaissement des marchés pendant dix minutes, et relançant le débat autour des risques liés à l'intelligence artificielle (IA).

La fausse photographie, apparemment réalisée avec un programme d'IA générative (capable de produire du texte et des images à partir d'une simple requête en langage courant), a obligé le ministère américain de la Défense américain à réagir.

Les pompiers sont intervenus

«Nous pouvons confirmer qu'il s'agit d'une fausse information et que le Pentagone n'a pas été attaqué aujourd'hui», a déclaré un porte-parole.

Les pompiers de la zone où se trouve le bâtiment (à Arlington, près de Washington) sont aussi intervenus pour indiquer sur Twitter qu'aucune explosion ou incident n'avait eu lieu, ni au Pentagone ni à côté.

L'image semble avoir fait légèrement décrocher les marchés pendant quelques minutes, le S&P 500 perdant 0,29% par rapport à vendredi avant de se reprendre.

«Il y a eu une baisse liée à cette fausse information quand les machines l'ont détectée», a relevé Pat O'Hare de Briefing.com, faisant référence aux logiciels de trading automatisés qui sont programmés pour réagir à des publications sur les réseaux sociaux.

«Mais le fait qu'elle soit restée mesurée par rapport à la teneur de cette fausse info suggère que d'autres l'ont aussi jugée vaseuse», a-t-il ajouté pour l'AFP. Un compte de la mouvance conspirationniste QAnon a été parmi les premiers à relayer la fausse image, dont la source n'est pas connue.

D'autres fausses images générées par des IA

L'incident intervient après que plusieurs fausses photographies produites avec de l'IA générative ont été largement relayées pour montrer les capacités de cette technologie, comme celle de l'arrestation de l'ancien président américain Donald Trump ou celle du pape en doudoune.

Les logiciels comme DALL-E 2, Midjourney et Stable Diffusion permettent à des amateurs de créer de fausses images convaincantes sans avoir besoin de maîtriser des logiciels d'édition comme Photoshop.

Mais si l'IA générative facilite la création de faux contenus, le problème de leur dissémination et de leur viralité - les composantes les plus dangereuses de la désinformation - relève lui des plateformes, rappellent régulièrement des experts.

«Les utilisateurs se servent de ces outils pour générer des contenus plus efficacement qu'avant (...) mais ils se répandent toujours via les réseaux sociaux», a souligné Sam Altman, le patron d'OpenAI (DALL-E, ChatGPT), lors d'une audition au Congrès mi-mai.

(ATS)

Découvrez nos contenus sponsorisés
Vous avez trouvé une erreur? Signalez-la