Notre pauvre santé mentale est bousculée, malmenée, simultanément ébranlée par le blues saisonnier, l'épidémie de solitude et le contexte géopolitique anxiogène. Confrontés à une demande grandissante, les psychologues et psychothérapeutes voient leurs calendriers se remplir à ras-bord, comme des gouttières peu à peu inondées de pluie glaciale.
Pour l'intelligence artificielle, ce débordement constitue une occasion parfaite de s'engouffrer dans la brèche, si bien que les robots et leurs créateurs se bousculent pour réconforter ces masses d'humains anxieux et éreintés: «À mon sens, ces outils s’inscrivent dans la suite logique de la pénurie des thérapeutes et de l’épidémie de solitude notamment observée depuis la pandémie, acquiesce Matthieu Corthésy, directeur de l’agence de formation à l'intelligence artificielle romande MCJS. Par exemple, on peut noter la tendance japonaise des robots Aibo, des chiens capables d'interagir avec leurs propriétaires et apportant une compagnie aux personnes âgées dans les EMS.»
Entre les robots craquants, les chatbots rassurants et les jeux de rôle censés imiter une séance de thérapie, un véritable arsenal d'outils destinés à apaiser le stress émerge sous nos yeux. Voici quelques exemples marquants:
Moflin, le robot mignon
Si l'idée de cohabiter avec un robot à l'instar de Kim Kardashian vous évoque des cauchemars asimoviens, cette petite créature imaginée par l'entreprise japonaise Casio Computer Co devrait vous étonner: prénommée Moflin, l'invention est dotée d'un pelage soyeux, de petits yeux innocents et, ainsi que le promettent ses créateurs, de «capacités émotionnelles», d'une personnalité propre et d'une tendance à s'attacher à ses propriétaires, comme un véritable animal de compagnie. Elle n'est toutefois pas encore disponible à la vente.
«Les robots tels que Moflin sont l’évolution des Tamagotchi ou des Furbys, avec une surcouche dite ‘émotionnelle’ qui leur permet d'avoir des interactions, précise Matthieu Corthésy. Or, il faut garder à l’esprit que tout cela est feint, que ces robots sont nourris par des données humaines, des pages Wikipédia, des forums ou des études psychologiques, que l’IA générative est conçue pour étudier, puis imiter. Mais elle ne peut ressentir de véritables émotions.» Impossible, donc, que Moflin détrône nos chats domestiques et leur «ronronthérapie».
Character.Ai et le personnage du psy
Cette application américaine très prisée par les adolescents a pour objectif de rendre l'IA personnalisée accessible à tous. Fondée par Noam Shazeer, le «génie de l'intelligence artificielle» ayant furieusement claqué la porte de Google, elle permet à ses utilisateurs d'imaginer leurs propres personnages, capables d'interagir avec les autres abonnés. Parmi ces créations souvent influencées par la pop culture, l'avatar surnommé psychologist remporte un fulgurant succès, avec 78 millions de messages en moins d'une année, d'après BBC.
Censé répondre à la manière d'un véritable psychologue, ce personnage généré par IA accueille des questions relatives à la santé mentale, à l'anxiété ou au stress, en remâchant des millions d'informations dénichées en ligne, comme le ferait ChatGPT: «Il fait partie des plus populaires de la plateforme, ajoute notre intervenant. Cela peut répondre à certaines problématiques, tant qu’on a bien conscience qu’il ne s’agit pas d’un ami, ni d’un psychologue, mais juste d’un outil qui a ingurgité beaucoup de connaissances.»
Wysa, Ginger et leurs chatbots
Téléchargée plus de 80 millions de fois depuis 2016 selon le site Business of Apps, cette célèbre application de méditation a choisi d'unir ses forces à celles de Ginger, une plateforme de santé mentale fondée en 2011 et désormais largement basée sur l'IA générative. Pour résumer, cela implique l'intégration d'un chatbot entraîné pour réagir aux problèmes de stress et d'anxiété, capable de répondre aux questions des utilisateurs. Des concurrents tels que BetterHelp surfent évidemment sur la même vague, intégrant le même type de technologie, tandis que des créations telles que Wysa ou Woebot sont entièrement fondées sur un modèle de chatbot, dédié aux personnes n'ayant pas accès à des sessions de thérapie.
Quelle qualité peut-on attendre des réponses fournies par ces outils, qui se perfectionnent de jour en jour? Pour Matthieu Corthésy, cela reste tout de même assez basique: «L’IA est douée pour produire un contenu standard, un brouillon, une base qu’on peut travailler, souligne-t-il. Il en va de même pour les conseils psychologiques, qui seront fortement standardisés. Cela ne peut évidemment être comparé au travail des thérapeutes humains, qui peuvent proposer des approches personnalisées et faites sur mesure.»
Sonia, par l'ETH de Zurich
Début 2024, trois étudiants de l'école polytechnique fédérale de Zurich présentaient Sonia, leur application de santé mentale capable d'interagir par message écrit et par téléphone avec ses utilisateurs. Spécialement programmée pour accueillir des problèmes liés à l'anxiété ou au burnout, cette IA made in Suisse propose trois sessions gratuites à tous ses abonnés, mais reste complètement gratuite pour les étudiants de l'ETH souhaitant l'utiliser.
Son offre promet à la fois des sessions poussées de thérapie cognitivo-comportementale et des discussions brèves appréciées par les utilisateurs ayant «quelque chose sur le cœur». Disponible sur l'AppStore (et bientôt sur Android) depuis quelques semaines, la création zurichoise a remporté de prix 2024 de la meilleure application d'IA spécialisée dans la thérapie guidée.
ChatGPT et ses jeux de rôle
Ce cher ChatGPT peut également s'improviser psychologue… pour autant qu'on formule une question adéquate dans le prompt! Matthieu Corthésy explique en effet que l'outil possède un talent particulier pour le jeu de rôle, lorsqu'on lui demande d'incarner un personnage spécifique. Dans le cadre de la santé mentale, il suffit donc d'exiger que le robot s'adresse à nous «comme un éminent psychologue professionnel». C'est d'ailleurs en se basant sur cette technique que la spécialiste en intelligence artificielle britannique Heather Murray a appris à ChatGPT de la soutenir lorsqu'elle souffre de crises d'angoisse: dès qu'elle commence à ressentir les premiers signes annonciateurs de panique, elle brandit l'application qui lui rappelle des réflexes de sophrologie.
«Comme l’IA est douée pour imiter et feindre, le principe du jeu de rôle peut être une bonne technique de prompt, résume Matthieu Corthésy. D’ailleurs, la plupart de ces chatbots se basent sur ChatGPT, auquel on a indiqué qu’il devait jouer le rôle d’un psychologue renommé.»
Attention aux dérives
Bien que ces outils s'avèrent de plus en plus performants, notre intervenant rappelle qu'une certaine vigilance est de mise, lorsqu'on confie nos états d'âmes à des robots: «Le risque est de céder à l’anthropomorphisme, d’attribuer de véritables émotions aux robots, qui n’en ont absolument pas, pointe-t-il. Tout est construit, il n’y a pas d’empathie réelle. Et bien que ce type d’outil peut s’avérer utile, apporter une première base de ressources lorsqu’il est impossible de contacter un thérapeute dans l'immédiat, cela peut aussi mener à des dérives, notamment pour les personnes plus vulnérables, comme les jeunes, qui risquent d'avoir plus de mal à distinguer les robots des véritables consciences humaines empathiques.»
Et l'expert de rappeler que, dans certaines situations, les IA peuvent répondre de manière assez frontale à des questions plutôt vulnérables… Pas toujours diplomatiques, ces machines.