Pour plus de transparence
Les Etats-Unis veulent que les contenus d'IA soient identifiables

Des entreprises américaines à la pointe de l'intelligence artificielle (IA) se sont engagées à rendre cette technologie plus transparente, notamment en travaillant à des systèmes de marquage des contenus créés pour réduire les risques de fraude et de désinformation.
Publié: 21.07.2023 à 13:30 heures
Sept entreprises américaines ont notamment promis de tester leurs programmes informatiques en interne et en externe avant leur lancement, d'investir dans la cybersécurité et de partager des informations pertinentes sur leurs outils.
Photo: Shutterstock

La Maison Blanche a annoncé vendredi que sept entreprises – Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI – avaient accepté de respecter plusieurs principes dans le développement de l'IA. Elles ont notamment promis de tester leurs programmes informatiques en interne et en externe avant leur lancement, d'investir dans la cybersécurité et de partager des informations pertinentes sur leurs outils, y compris d'éventuelles failles, avec les autorités et les chercheurs.

Elles doivent aussi «développer des techniques solides pour s'assurer que les utilisateurs savent quand des contenus ont été générés par de l'IA, comme un système de marquage en filigrane», indique un communiqué de l'administration américaine. «Cela permettra à la créativité liée à l'IA de prospérer tout en réduisant les dangers liés aux fraudes et aux supercheries», précise-t-elle.

«C'est un sujet complexe»

Les fausses photographies et les montages perfectionnés (deepfake) existent depuis des années, mais l'IA générative, capable de produire du texte et des images sur simple requête en langage courant, fait craindre un déferlement de faux contenus en ligne. Ceux-ci peuvent servir à fabriquer des arnaques ultra crédibles ou encore à manipuler l'opinion. Une perspective particulièrement inquiétante à l'approche de l'élection américaine de 2024.

Jusqu'à présent, les principales entreprises concernées se sont montrées plutôt réticentes à l'idée d'ajouter de telles marques sur les contenus créés avec leurs programmes. «C'est un sujet complexe», a reconnu un haut responsable de la Maison Blanche lors d'une conférence de presse.

La marque en filigrane «doit fonctionner pour les contenus visuels aussi bien que sonores», a-t-il détaillé. «Elle doit être techniquement robuste, mais aussi facile à voir pour les utilisateurs».

Devoir moral des entreprises

«C'est un bon premier pas pour aider le public à identifier des contenus créés avec de l'IA», a commenté James Steyer, fondateur de l'ONG Common Sense Media. «Mais ce type de marquage ne suffira pas à lui seul à empêcher des acteurs malveillants d'utiliser de tels contenus à des fins néfastes ou illégales», a-t-il nuancé, évoquant l'existence de programmes piratés d'IA générative, disponibles en ligne.

En mai, la Maison Blanche avait insisté sur le «devoir moral» des entreprises d'IA de garantir la sûreté et la sécurité de leurs produits. Les tensions politiques au Congrès rendent de nouvelles lois sur l'IA peu probables dans l'immédiat, mais le gouvernement a indiqué travailler à un décret exécutif.

(ATS)


Découvrez nos contenus sponsorisés
Vous avez trouvé une erreur? Signalez-la