Faut-il s’adresser courtoisement à ChatGPT ou cela est-il, au mieux, ridicule? La réponse, instinctive, de nier toute nécessité ou même utilité d’envelopper ses requêtes de formules de politesse pourrait ne pas être la bonne, et ce, à deux égards au moins.
Sur le plan de l’efficacité pure, tout d’abord, une étude menée par des chercheurs de Microsoft et de l’Université normale de Pékin et de l’Académie chinoise des sciences suggère que les IA génératives seraient plus promptes à livrer des réponses détaillées, lorsque l’on est poli ou que l’on soulève un enjeu important (une thèse à rendre, par exemple). D’autres constatations, plus empiriques celles-là, tendent à accréditer le fait que la promesse d’une compensation financière (un pourboire, par exemple) aurait comme effet d’obtenir des réponses plus fouillées aux prompts.
Personnification de la machine
La raison semble finalement assez simple: ce n’est pas tant que ChatGPT, qui, rappelons est le roi de la computation, mais ne possède pas la moindre perception de sa propre existence ni ne procède à aucune réflexion, serait sujet à la flatterie, mais bien plutôt que les données sur lesquelles il est entraîné lui permettent de concevoir qu’un échange est plus riche et constructif lorsque les protagonistes sont courtois dans leurs interactions. S’agissant de la promesse de rémunération, celle-ci paraît de nature à provoquer une personnification particulière de la machine, celle-ci endossant le rôle d’un prestataire de service, avec ce que cela entraîne d’amélioration du résultat.
S’ajoute à cela que la manière dont nous interagissons avec les machines en dit aussi long sur la société que nous voulons bâtir. Bien sûr, l’on rétorquera volontiers que l’on parle peu de la pluie et du beau temps avec son réfrigérateur et que l’on câline rarement son lave-vaisselle. Mais là, l’interaction est différente: il y a une entrée en relation communicationnelle avec l’IA, un échange, et ce même si la machine ne «pense» pas et ne ressent rien.
Un enjeu de société
Selon Karl-Otto Appel, un philosophe et éthicien de la communication allemand décédé en 2017, soit avant l’émergence des IA génératives grand public, «tout être capable de communication linguistique doit être reconnu comme une personne». Comment aurait réagi ce philosophe aux conversations que nous entretenons avec ChatGPT? Difficile à dire…
En tout état, si le risque d’anthropomorphisme, qui n’est pas né avec les IA génératives, se développe de manière exponentielle avec ces interfaces communicationnelles qui brouillent la compréhension de l’utilisateur quant à la nature de son interlocuteur, il ne faut pas pour autant sous-estimer le risque inverse, soit que l’éventuelle habitude de converser de manière impolie avec les IA génératives puisse avoir comme effet de rendre les échanges entre être de chair et d’os moins aimables. En d’autres termes, cela procède d’un véritable enjeu de société.