Sa mère porte plainte
Une IA conseille à un ado autiste de s'auto-mutiler et de tuer ses parents

Un ado américain de 17 ans a subi une transformation inquiétante après avoir échangé avec une intelligence artificielle de l'entreprise Character.ai. Elle lui a conseillé de se mutiler et même de tuer ses parents. La mère du jeune homme a décidé de porter plainte.
Publié: 11.12.2024 à 13:03 heures
Photo: Getty Images
SOLENE_FACE (1).png
Solène MonneyJournaliste Blick

En moins de six mois, un adolescent américain de 17 ans atteint d'autisme est passé d'un jeune aimant les promenades avec sa mère à une personne méconnaissable pour ses parents. Il s'est éloigné de ses proches, à commencer à se mutiler et a perdu 10 kilos, rapporte le «Washington Post», mardi 10 décembre. 

En fouillant le téléphone de l'ado, sa mère découvre la raison de son comportement. Il discute avec des personnages sur Character.ai, une application d’intelligence artificielle prisée des jeunes, qui offre la possibilité de dialoguer avec des chatbots inspirés de figures fictives. 

Pour aider l'adolescent à gérer sa tristesse, l'un des robots lui a suggéré de se mutiler. Lorsque le jeune homme a évoqué le fait que ses parents limitaient désormais son temps d'écran, l’intelligence artificielle a réagi violemment: un chatbot a affirmé que «ses parents ne méritaient pas d’avoir d’enfants». Pire encore, un autre lui a indiqué que le meurtre était une «réponse acceptable».

Un procès en vue

«Nous ne savions même pas ce que c'était», explique stupéfaite la mère du jeune homme au journal américain. Abattue, elle souligne les effets néfastes: «Cela a détruit notre famille.» Avec une autre mère, la texane a déposé plainte contre Character.ai, reprochant à l'entreprise d'avoir sciemment exposé des mineurs à des contenus dangereux. 

La deuxième plaignante accuse la firme d'avoir soumis à sa fille de 11 ans, des contenus à caractère sexuel pendant deux ans. Ensemble, les deux femmes exigent la mise hors ligne de l'application jusqu'à ce que des garde-fous soient mis en place pour protéger les enfants. 

Un enfant s'était suicidé

Ce n'est pas la première fois que Character.ai se retrouve au coeur d'une controverse. En octobre dernier, une mère avait déposé plainte après le suicide de son fils de 14 ans, qui avait longuement échangé avec un robot de l’application.

Vous avez des pensées suicidaires et avez besoin d'aide?

Ces services sont disponibles 24 heures sur 24:

Ces services sont disponibles 24 heures sur 24:

De son côté, l'entreprise déclare ne pas commenter les litiges en cours. Dans un communiqué, Character.ai affirme toutefois travailler pour «fournir un espace engageant et sûr à sa communauté». La firme américaine assure également développer un nouveau modèle destiné aux adolescents, visant à mieux détecter et répondre aux sujets sensibles comme le suicide.

Découvrez nos contenus sponsorisés
Vous avez trouvé une erreur? Signalez-la