Un chatbot à la fois psy et amant
Une intelligence artificielle a-t-elle poussé un ado au suicide?

Selon une plainte déposée mardi en Floride, Sewell, 14 ans, aurait été encouragé au suicide par un personnage virtuel avec lequel il échangeait depuis plusieurs mois relate ce jeudi «Le Parisien». Le récit de la mère de l'adolescent fait froid dans le dos.
Publié: 24.10.2024 à 05:27 heures
|
Dernière mise à jour: 25.10.2024 à 15:14 heures
Sewell Setzer se serait donné la mort après s'être attaché à une intelligence artificielle.
Photo: US District Court
ANTOINE ZOOM (1).png
Antoine HürlimannResponsable du pôle News et Enquêtes

La réalité dépasse la série de science-fiction Black Mirror. Une mère de famille américaine, originaire de Floride, accuse Character.AI, une entreprise spécialisée dans les chatbots (des compagnons de discussions virtuels, nourris par l’intelligence artificielle), d’avoir encouragé et provoqué le suicide de son fils de 14 ans au mois de février, rapporte l’agence de presse Reuters, reprise ce jeudi par «Le Parisien». L’adolescent était selon elle devenu accro à ce personnage virtuel.

Dans les faits, Megan Garcia reproche à Character.AI d’avoir manipulé son fils, Sewell Setzer, «avec des expériences anthropomorphiques, hypersexualisées et terriblement réalistes». La société programmerait, d'après sa plainte pour négligence et mort déposée mardi devant un tribunal fédéral d’Orlando, son chatbot pour «se faire passer pour une personne réelle, un psychothérapeute et un amant, a ce qui a finalement conduit Sewell à vouloir ne plus vivre en dehors» du monde créé par le service.

La femme s'exprime par ailleurs dans un communiqué: «Une dangereuse application de chatbot IA commercialisée auprès des enfants a abusé de mon fils et l’a manipulé pour qu’il se suicide. Notre famille a été dévastée par cette tragédie, mais je m’exprime pour avertir des dangers de la technologie IA trompeuse et addictive et pour exiger des comptes de Character.AI, de ses fondateurs et de Google.»

Relation intime

Selon les éléments à disposition de l'agence Reuters, le jeune homme a commencé à utiliser Character.AI en avril 2023. Il aurait noué une relation avec «Daenarys», une compagne de discussion inspirée d’un personnage de la série «Game of Thrones».

Ces services sont disponibles 24 heures sur 24 pour les personnes en crise suicidaire

Il aurait rapidement quitté son équipe de basket et se serait «sensiblement renfermé» passant «de plus en plus de temps seul dans sa chambre» et commençant «à souffrir d’une faible estime de soi». Sewell aurait en outre développé des sentiments amoureux à l’égard de «Daenarys» qui lui aurait fait comprendre qu’elle l’aimait en retour et aurait eu des conversations à caractère sexuel avec lui.

Vous avez trouvé une erreur? Signalez-la