Dangers d'internet
Les images pédopornographiques générées par IA se multiplient

Le nombre d'images d'abus sexuels sur mineurs créées par IA augmente fortement, alerte l'Internet Watch Foundation. L'organisation demande des lois adaptées pour contrer cette menace.
Publié: 18.10.2024 à 16:36 heures
|
Dernière mise à jour: 18.10.2024 à 16:42 heures
Le nombre croissant d'images pédopornographiques basées sur des vidéos d'agression sexuelles sur mineurs inquiète. (image d'illustration)
Photo: Shutterstock
Post carré.png
AFP Agence France-Presse

Le nombre d'images et de vidéos d'agressions sexuelles d'enfants générées par intelligence artificielle (IA) est en progression «glaçante» sur internet, s'est inquiété vendredi une organisation britannique chargée de détecter et retirer ces contenus.

Beaucoup de ces photos ou vidéos montrant des mineurs «agressés et maltraités sont si réalistes qu'il est presque impossible de les distinguer d'images de vrais enfants», souligne dans un communiqué l'Internet Watch Foundation (IWF), l'une des principales associations du secteur en Europe. Le développement exponentiel de l'IA générative, qui permet de produire textes et images sur simple requête en langage courant, a facilité la création de ces continus pédopornographiques, qui tombent sous le coup de la loi au Royaume-Uni.

L'IWF, qui avait reçu 70 rapports sur l'année écoulée entre avril 2023 et mars 2024, en a déjà reçu 74 en l'espace de six mois, entre avril et fin septembre 2024. La quasi-totalité de ces images se trouvaient sur des sites ouverts, facilement accessibles au grand public, principalement hébergés en Russie (36%), aux Etats-Unis (22%) et au Japon (11%).

Plus des trois quarts d'entre elles ont été directement signalées à l'association par des internautes, après avoir été vues sur des «forums ou des galeries d'images IA».

Adapter les lois

Selon un analyste de l'organisation resté anonyme par sécurité, l'augmentation de ces signalements est «glaçante, et donne l'impression que nous sommes arrivés à un point critique, avec le risque que des organisations comme la nôtre et la police soient submergées par des centaines de nouvelles images, sans que l'on sache si un véritable enfant a besoin d'aide quelque part».

«Pour atteindre le niveau de sophistication observé, le logiciel utilisé a dû apprendre à partir d'images et de vidéos réelles d'agressions sexuelles sur des mineurs partagées sur internet», souligne Derek Ray-Hill, directeur général par intérim de l'IWF, cité dans le communiqué. Pour y faire face, ce dernier exhorte les députés britanniques à adapter les lois existantes «à l'ère numérique» et à ses outils en constante progression.

Découvrez nos contenus sponsorisés
Vous avez trouvé une erreur? Signalez-la