«Il était une fois une reine qui s’appelait Marie…» Vous en avez marre de vous creuser la tête pour inventer 1000 contes pour vos enfants? Si oui, il existe peut-être une solution à votre problème: elle s’appelle ChatGPT. Ce robot décrit par le «New York Times» comme le «meilleur assistant virtuel jamais créé» a réponse à (presque) tout: capable de formuler des histoires avec une morale, de créer des poèmes (plus ou moins bons) et même d'écrire du code, il paraît avoir plus d'un tour dans son sac.
Comment est-ce possible? «Lorsqu’on lui soumet une question, ChatGPT y répond en puisant des informations indexées sur le web comme un moteur de recherche classique», explique Martin Grandjean, chercheur en humanités numériques à l'UNIL. L’algorithme relève ensuite le contexte des mots utilisés dans notre question. «Elle va donc les 'hypercontextualiser' et noter les mots-clés qui les entourent, pour ensuite formuler la réponse que l'on cherche avec des termes qui ont de fortes chances d’être appropriés», poursuit le chercheur.
Un exemple? «Si l’on a tapé le terme 'gâteau', l’IA écumera des millions de pages web pour trouver des occurrences de ce mot. Et s’il se retrouve des milliers de fois à côté de parfums comme 'fraise' ou 'chocolat', il va les associer et créer des structures de phrases typiques de celles qui comprennent les termes 'gâteau' et 'fraise' ou 'chocolat'», éclaire le spécialiste. C’est ainsi que la machine peut créer de toutes pièces un récit, résoudre une énigme ou écrire une lettre de motivation.
La conjonction de deux technologies
Regardons de plus près la technologie de cet agent conversationnel. En réalité, elle repose sur deux éléments qui étaient déjà accessibles au grand public auparavant: il s'agit d'une conjonction d'un moteur de recherche et d'un assistant de saisie prédictive (comme lorsque notre smartphone nous propose le mot suivant lorsque l’on écrit un message).
En termes de résultat, il ressemble aux chatbots et autres assistants vocaux comme Alexa ou Siri. «Mais si ces derniers offraient à l'utilisateur des réponses basées sur des modèles préenregistrés, à l'inverse, ChatGPT crée du texte prédictif – comme le fait aussi, par exemple, un iPhone, mais qui marche à la puissance 10 de ce que l'on connaissait jusque-là!», analyse Martin Grandjean. La véritable évolution est donc celle de la forme: «La réponse donne l'impression qu'elle a été formulée de manière réfléchie parce qu’elle a été nourrie de millions d’exemples de conversations réelles.»
Il ne faut pas pour autant tomber dans le panneau, avertit le spécialiste: «La réponse n'a souvent pas de fond, puisqu’il s’agit avant tout d’une sorte d’exercice de style très perfectionné». En effet, même si cette IA connaît un enthousiasme sans précédent (cinq jours après sa sortie en novembre dernier, le nombre d’utilisateurs avait déjà passé la barre du million!), ChatGPT a des imperfections.
Par exemple, le robot peut parfois faire face à ce que les informaticiens appellent des «hallucinations», c'est-à-dire qu'il peut inventer des informations en associant des syntagmes par erreur. Il est programmé pour écrire un texte qui a l'air d'avoir été écrit par un humain, mais pas pour vérifier sa justesse. Et il faut en être conscient.
ChatGPT, un outil à garder à l'œil
Peut-on dès lors la laisser entre les mains de n'importe qui, comme des enfants par exemple? Lorsqu'on formule des demandes qui flirtent avec l'illégalité et, dans une moindre mesure, l'immoralité, ChatGPT semble prendre des gants. Mais il ne s'agit bien sûr que d'une illusion. La machine n'est pas elle-même dotée de morale et peut produire une réponse problématique.
«Or, les enfants sont moins susceptibles de discerner ce qui relève de certains dualismes, comme le juste et le faux ou le bien et le mal, note Bastien Taverney, psychologue de l'enfance. Leurs facultés de raisonnement critique sont encore en maturation.» C'est pourquoi il appelle à la plus grande vigilance: «Certains risques existent bien. Et ils sont plus élevés chez les petits que chez leurs aînés.»
Aider un enfant à de mauvaises fins
Par exemple, cette intelligence artificielle ne fait pas de distinction d’âge lorsqu’il converse, charge l’expert: «Un enfant pourrait s’enquérir d’informations sensibles liées à la sexualité sans que le robot n’adapte sa réponse aux spécificités de son interlocuteur.» Des éléments qui pourraient nuire à son bon développement psycho-affectif, s’inquiète Bastien Taverney.
Aussi, la machine peut dans certains cas aider un enfant à de mauvaises fins. L'expert illustre son propos avec la triche dans les devoirs scolaires. «Il serait tentant pour un jeune de demander au programme de rédiger le récit qui lui a été demandé par son professeur, plutôt que de l’écrire par ses propres soins», avance-t-il. Les plus petits ne sont en effet pas toujours en mesure de se rendre compte qu'un tel acte n'est pas dans leur propre intérêt, contrairement à leurs aînés. Et ChatGPT n’est pas conçu pour pallier ce problème, déplore-t-il.
Le psychologue tient toutefois à préciser qu’il ne faut pas pour autant décourager toute utilisation de ce robot: «Ses applications possibles sont vastes. Mais il faut qu’elles soient entourées par l’adulte.»
Des biais racistes
Un constat partagé par l’expert en numérique Martin Grandjean: «Au fond, c’est un outil, qui peut être bon selon les circonstances. Et c'est ce qu'il doit rester.» Autrement dit, ChatGPT doit être mis au service d'un humain averti. Le spécialiste en humanités numériques glisse encore que le plus grand problème actuel de cet instrument est qu'on ne sait pas sur quelles sources il est entraîné. Cette opacité favorise nécessairement la reproduction de clichés – auprès de toutes les tranches d'âge.
«Le programme peut biaiser la perception de la réalité, en intégrant par exemple une majorité de données issues de personnes non-racisées ou en ne prenant pas assez en compte des points de vue minoritaires.» Elle agirait comme un miroir grossissant de la société, montrant ses plus grands travers à partir des données massives qu’elle produit au quotidien.
Raison pour laquelle il faut à tout prix fournir des explications sur les limites de cet agent conversationnel, mais aussi sur sa façon de fonctionner. Ou, au contraire, l’entraîner sur une catégorie de textes spécifiques, ajoute le spécialiste. Par exemple, des textes juridiques et officiels si l'on veut s'en servir pour produire des documents administratifs.
«Un outil fourni sans la notice d'emballage»
«C’est comme n’importe quel outil fourni sans la notice d’emballage, illustre Martin Grandjean. Il faudra parvenir à le comprendre pour bien l’utiliser.» L’historien du numérique se veut toutefois positif sur l’avenir de ces robots conversationnels: leur utilisation va se normaliser, en tout cas dans certains domaines dans lesquels on produit déjà du texte en série.
Le chercheur y voit un parallèle avec l’avènement de la télévision dans les années 1950. «À l'époque, personne ne savait comment elle marchait – c'était tout juste pas si certains se demandaient s'il y avait un lutin de la machine!», image-t-il. Tandis qu’aujourd’hui, sans pour autant maîtriser l’ingénierie de la TV, les téléspectateurs comprennent suffisamment le principe de capture d'image et de retranscription pour utiliser cet objet au quotidien avec un certain esprit critique, poursuit le chercheur: «On sait bien que le résultat est un mélange subjectif d’information et de divertissement, qu'il y a des êtres humains derrière les reportages et les émissions, et qu'il faut les prendre avec un certain recul.»