Des thérapeutes débordés, une population de plus en plus anxieuse, bouleversée et dépassée par la trajectoire incompréhensible du monde... Le timing était parfait pour que l'intelligence artificielle bondisse sur l'occasion. Après les chatbots distributeurs de conseils, voilà que des robots mignons (versions améliorées et velues des Tamagotchi) ou des avatars très bavards se bousculent pour réduire le stress et l'angoisse des humains.
Et ça marche: le personnage du psychologist, une IA censée interagir comme un véritable thérapeute sur la plateforme Character.AI, a reçu plus de 78 millions de messages en moins d'une année, d'après BBC. L'offre s'épanouit, conçue pour répondre à l'épidémie de solitude et d'anxiété qui afflige nos sociétés.
Mais qu'en pensent les principaux concernés, les psychologues, dont le job semble de plus en plus convoité par ces gourmands robots? «Je ne suis pas inquiète, je pense que l’humain est un être tellement complexe qu’on aura toujours besoin de professionnels pour adresser les problèmes, répond Cathy Maret, membre de la direction de la Fédération suisse des psychologues. Comme toujours, les nouvelles technologies peuvent être de magnifiques opportunités, tout en présentant des risques de dérives. En termes d’IA, plein de choses sont possibles, mais il faut assurer un cadre professionnel et une assise scientifique pour évaluer l’utilité de ces outils.»
Des opportunités… et des dangers
Car la cohabitation thérapeute-IA ne constitue plus un scénario d'avenir: «On y est déjà, souligne notre intervenante. Ces technologies font partie du quotidien de nos psychologues membres, qui ont la connaissance nécessaire à les utiliser de manière appropriée. Pour les patients, rien ne remplace le professionnel, mais cela ne signifie pas que les thérapeutes ne peuvent pas intégrer ces outils, potentiellement utiles, à leur pratique.»
Ainsi Cathy Maret évoque-t-elle l'exemple de la blended therapy, une méthode consistant à utiliser les technologies modernes entre les séances, pour aider la patientèle à intégrer des activités thérapeutiques dans leur quotidien de manière flexible: «On sait aujourd'hui que ce genre de thérapie est efficace», pointe-t-elle, rappelant l'importance de la validation scientifique.
Or, face à l'arsenal séduisant de nouvelles plateformes florissant sur la Toile, une certaine vigilance reste de mise: «En général, les outils qui promettent des miracles ne sont pas aussi efficaces qu’on le prétend, prévient notre interlocutrice. Pour les utilisateurs, il faut veiller à ne pas choisir des plateformes non reconnues par des professionnels ou n’ayant fait l’objet d’aucune étude.»
Des conseils trop standardisés
On risque même de se faire plus de mal que de bien. En effet, les IA régurgitent typiquement des recommandations très standardisées, devant convenir à tout le monde: «On peut alors perdre du temps en appliquant des conseils inadaptés, laissant ainsi le trouble psychique s’installer et devenir chronique, déplore Cathy Maret. Pour rappel, plus on prend en charge une pathologie rapidement, mieux on peut la traiter.»
Même son de cloche pour la psychologue et psychothérapeute FSP Elizabeth Frei, qui évoque notamment le robot Moflin, une créature pelucheuse imaginée par l'entreprise japonaise Casio pour réduire le stress et la solitude: «On est d'accord que ce robot est très mignon, acquiesce-t-elle. Et peut-être qu'il peut s'agir d'une idée profitable, lorsqu'on l'intègre à une 'boîte à outils' plus complète pour la gestion de l'anxiété. Par contre, le plus souvent, ces créations ne génèrent aucune information sur les façons d'obtenir une amélioration durable, à long terme.»
Ne jamais oublier qu'il s'agit de robots
Rappelons que les robots sont principalement conçus pour intégrer des millions de données, afin de les imiter à la perfection. Dès lors, le danger réside dans leur capacité de plus en plus irréprochable à reproduire nos interactions humaines: «Le risque est de céder à l’anthropomorphisme, d’attribuer de véritables émotions aux robots, qui n’en ont absolument pas, nous rappelait Matthieu Corthésy, directeur de l’agence de formation à l'intelligence artificielle romande MCJS, dans un précédent article. Tout est construit, il n’y a pas d’empathie réelle. Et bien que ce type d’outil puisse apporter une première base de ressources lorsqu’il est impossible de contacter un thérapeute dans l'immédiat, cela peut aussi mener à des dérives.»
L'expert pense tout particulièrement aux personnes plus vulnérables, comme les jeunes, qui risquent d'avoir plus de mal à distinguer les robots des véritables consciences humaines empathiques. On se souvient par exemple de l'histoire dramatique d'un adolescent américain tombé amoureux d'une IA et ayant choisi de se donner la mort pour se rapprocher d'elle.
Preuve que de nombreuses personnes, faute de mieux, se tournent quand même vers l'intelligence artificielle pour se réconforter. Encore un signe que les thérapeutes sont trop débordés, alors que la demande explose. «Au final, le succès de la psychothérapie dépend de nombreux facteurs complexes, estime Elizabeth Frei. L'IA a beau être capable d'imiter certains de ces facteurs, les individus auront toujours intérêt à se tourner vers une ou un professionnel, qui pourra répondre à leurs besoins par un plan fait sur mesure. J'espère vivre dans un monde où l'accès aux soins thérapeutiques efficaces ne soit plus un privilège, mais une exigence. Dans ce cas de figure, on n'aurait pas besoin de l'IA pour combler les lacunes.»