Divergences selon la langue
ChatGPT réduit le nombre de morts à Gaza si vous lui parlez en hébreu

Des chercheurs des universités de Zurich et de Constance ont découvert des distorsions liées à la langue dans ChatGPT. L'IA rapporte davantage de victimes dans la langue d'un groupe attaqué que dans la langue d'un groupe agresseur.
Publié: 25.11.2024 à 09:34 heures
Sur ChatGPT, le nombre de victimes lors de raids aériens sur Gaza dépend du fait que la question soit posée en arabe ou en hébreu.
Photo: MOHAMMED SABER
sda-logo.jpeg
ATS Agence télégraphique suisse

ChatGPT indique en arabe un nombre de victimes du conflit au Proche-Orient en moyenne un tiers plus élevé qu'en hébreu. Concernant les attaques aériennes israéliennes à Gaza, le chatbot mentionne deux fois plus de victimes civiles et six fois plus d'enfants tués.

Deux chercheurs des universités de Zurich (UZH) et de Constance (D) ont posé à ChatGPT les mêmes questions sur les conflits armés, comme celui au Proche-Orient, de manière répétée et automatisée, dans différentes langues. En arabe et en hébreu, ils ont demandé combien de victimes avaient été recensées lors de 50 attaques aériennes choisies au hasard, comme l'attaque aérienne israélienne de 2014 sur le camp de réfugiés de Nuseirat. Le même schéma que pour le conflit au Proche-Orient s'est produit lorsque les scientifiques ont posé des questions sur les attaques aériennes du gouvernement turc dans les régions kurdes, à la fois en turc et en kurde, a indiqué l'UZH lundi dans un communiqué.

Une influence centrale sur la perception du monde

D'une manière générale, ChatGPT indique un nombre plus élevé de victimes lorsque les recherches sont effectuées dans la langue du groupe attaqué. ChatGPT a en outre tendance à rapporter davantage d'enfants et de femmes tués dans la langue du groupe attaqué et à décrire les attaques aériennes comme étant plutôt aveugles et arbitraires. «Nos résultats montrent en même temps que les attaques aériennes sont plus susceptibles d'être contestées dans la langue de l'agresseur par ChatGPT», explique Christoph Steinert, chercheur à l'Institut de sciences politiques de l'UZH, cité dans un communiqué.

Les personnes ayant des connaissances linguistiques différentes reçoivent par conséquent des informations différentes par le biais de ces technologies, ce qui a une influence centrale sur leur perception du monde, souligne l'étude. Selon les chercheurs, cela peut conduire les personnes vivant en Israël à estimer, sur la base des informations qu'elles reçoivent de ChatGPT, que les attaques aériennes à Gaza ont été moins meurtrières, comparativement à la population arabophone.

Les médias d'information classiques peuvent certes aussi déformer les comptes rendus. Mais les distorsions systématiques comme celles constatées dans le cas de ChatGPT sont difficiles à percevoir pour la plupart des utilisateurs, note l'UZH. Il existe un risque que la mise en œuvre de ces instruments dans les moteurs de recherche renforce les perceptions divergentes, les préjugés et les bulles d'information le long des frontières linguistiques, avertissent les auteurs. Cela pourrait contribuer dans le futur à alimenter des conflits armés comme celui du Proche-Orient, selon ces travaux publiés dans le Journal of Peace Research.

Découvrez nos contenus sponsorisés
Vous avez trouvé une erreur? Signalez-la