Pour manipuler l'opinion
Des groupes russes et chinois ont utilisé les programmes d'OpenAI

Des groupes d'influence russes et chinois ont utilisé les programmes d'OpenAI pour tenter de manipuler l'opinion d'autres pays, a indiqué jeudi le créateur de ChatGPT. Il affirme avoir pris des mesures pour en limiter la portée.
Publié: 31.05.2024 à 06:40 heures
OpenAI affirme avoir pris des mesures pour en limiter la portée des groupes d'influence russes et chinois (archives).
Photo: PHILIPP BRANDSTÄDTER
sda-logo.jpeg
ATS Agence télégraphique suisse

L'entreprise OpenAI a indiqué avoir identifié cinq opérations de ce type, qui ont cherché à peser sur les conversations en ligne et à «influencer des scrutins sans dévoiler l'identité ou les intentions des acteurs» à l'origine de ces campagnes, selon un message publié jeudi sur son site.

OpenAI mentionne l'exemple d'un groupe russe qui s'est servi de ses modèles de langage, des logiciels gavés de données pour pouvoir répondre à des questions en langage courant, afin de créer des messages à caractère politique, rédigés en russe et en anglais, postés sur le réseau social Telegram. La start-up californienne évoque aussi une initiative menée par des ressortissants iraniens, qui ont utilisé les interfaces d'OpenAI pour rédiger des articles et les traduire, afin de les publier sur un site dédié.

L'invasion de l'Ukraine, le conflit à Gaza, les élections indiennes…

Les contenus fabriqués grâce aux programmes d'OpenAI traitaient d'une «large palette de sujets, notamment l'invasion de l'Ukraine par la Russie, le conflit à Gaza, les élections indiennes, la politique européenne et américaine ainsi que des critiques du gouvernement chinois par des dissidents».

A ce stade, «ces opérations ne semblent pas avoir augmenté de façon significative la portée [de ces contenus] ou leur audience», a indiqué OpenAI. L'entreprise dit avoir «perturbé» ces campagnes, sans détailler la manière. OpenAI a expliqué que certaines protections et garde-fous intégrés à ses modèles ont mené à ce que, dans certains cas, les interfaces refusent d'exécuter une tâche que leur demandaient ces groupes.

En février, le groupe avait déjà révélé que des pirates informatiques affiliés aux gouvernements russe, chinois, iranien ou nord-coréen utilisaient ChatGPT pour identifier des vulnérabilités dans les systèmes informatiques, préparer des opérations d'«hameçonnage» ou désactiver des logiciels antivirus.

OpenAI avait, là aussi, «perturbé» l'utilisation de l'intelligence artificielle (IA) générative par ces acteurs para-gouvernementaux, avec la collaboration de Microsoft Threat Intelligence, cellule qui répertorie les menaces posées aux entreprises en matière de cybersécurité.

Découvrez nos contenus sponsorisés
Vous avez trouvé une erreur? Signalez-la