Ce père endeuillé a découvert l’impensable début octobre. Sa fille assassinée en 2006, victime d’un féminicide de la part de son petit ami, répond aux questions des internautes, dix-huit ans après sa mort. Tout cela sur le site Character.ai, qui héberge des chatbots — ces agents conversationnels boostés à l’intelligence artificielle et capables d’imiter les réponses de personnalités.
Ce matin-là, Drew Crecente reçoit une alerte Google chez lui à Atlanta, aux Etats-Unis, relate ce vendredi 18 octobre le «Washington Post». Sa fille Jennifer, tuée par balle à 18 ans, semble avoir un nouveau profil en ligne. Son nom et une photo de sa scolarité sont repris, mais une fausse biographie la décrit comme une «journaliste spécialisée dans les jeux vidéo, la technologie et la pop culture».
Nouveau coup dur pour le père
Le site invite tout simplement les internautes à discuter avec cet avatar de la lycéenne décédée, créé par un usager mystère. A la tête d’une fondation dédiée aux victimes de violences conjugales, en l'honneur de sa fille, Drew Crecente n’en revient pas.
«Il m’en faut beaucoup pour être choqué, après tout ce que j’ai traversé. Mais ça, c’est un nouveau coup dur», raconte le paternel au média américain. Il envoie dans la foulée un mail à la firme pour faire supprimer ce compte, qui outrepasse leurs règles d’usage.
Quelle responsabilité pour le milieu de l’IA?
C’est désormais chose faite, mais l'entreprise se dédouane de toute responsabilité. Ce cas particulier pose surtout la question de la capacité des acteurs de l’intelligence artificielle à garder un cadre strict sur le plan de l’éthique comme de la sécurité. En 2023, un jeune chercheur belge en proie à une forte anxiété en était arrivé, notamment après une intense discussion avec le chatbot Eliza, à recourir au suicide.
Le père de Jennifer Crecente n’a pas cherché à discuter avec sa fille virtuelle, ni d’ailleurs de retrouver la personne derrière la création de ce faux profil. «C’est difficile d’imaginer aller aussi loin dans la tragédie», s’est-il attristé auprès du journal américain. Il envisage d'agir pénalement et aimerait trouver le moyen légal d’empêcher les entreprises fondées sur l’IA de profiter de l’image des victimes de crimes violents.