«Je suis un survivant d’abus sexuels dans ma jeunesse.» Lorsque ce message a été publié en février sur le forum r/ChangeMyView («change mon point de vue»), nombre d’utilisateurs ont réagi avec empathie. Ce forum a pour but de confronter des opinions afin de les faire évoluer. Mais ici, l’auteur du commentaire n’était pas une victime réelle. Il s’agissait d’un bot, un compte piloté par une IA, contrôlé par une équipe de recherche de l’université de Zurich.
D’autres comptes IA se sont également fait passer pour des vrais utilisateurs: un homme noir opposé à Black Lives Matter, une victime de mauvais traitements hospitaliers à l’étranger, ou encore un thérapeute spécialisé en traumatologie. Autant de personnages inventés qui ont polarisé les discussions par leurs récits.
L'IA davantage convaincante
Entre novembre 2024 et mars 2025, les 34 comptes créés pour l’expérience ont généré 1783 commentaires dans plus de 1000 fils de discussion. L’équipe a testé différentes approches, allant de réponses génériques à des messages sur mesure. Ces derniers se sont avérés les plus efficaces.
«Le taux de persuasion des comptes IA était trois à cinq fois supérieur à celui des comptes humains», indiquent les chercheurs, restés anonymes, dans leur étude. Toutes les réponses ont été validées manuellement avant publication.
«Nous aurions refusé»
Pour contourner les garde-fous des modèles IA, les chercheurs ont laissé entendre, dans leurs instructions à l’IA, que les utilisateurs de Reddit étaient informés et avaient donné leur consentement à l’expérience.
Ce procédé enfreignait les règles de la plateforme, qui interdit tout usage non déclaré d’IA. «Les chercheurs ne nous ont pas contactés en amont. S’ils l’avaient fait, nous aurions refusé», ont déclaré les modérateurs dans un post.
Contactés par dnip.ch, premier média à avoir révélé l’affaire, ils déplorent qu’une telle initiative vienne d’une université prestigieuse. Ils qualifient l’utilisation d’un faux témoignage d’abus sexuel pour influencer le débat de «cartoonishly evil», autrement dit d’un mal digne d’une caricature.
Une expérience qui fait couler beaucoup d'encre
Les chercheurs assument leur choix. Ils admettent avoir violé le règlement du forum, mais estiment que «l’expérience était indispensable, compte tenu de son importance sociétale». Ils n’ont informé les modérateurs qu’en avril, provoquant une vague d’indignation. «Comment prouver que vous avez parlé à de vrais humains, et non à d’autres bots?», s’interroge un utilisateur nommé sundalius, qui demande que l’étude ne soit pas publiée.
Reddit a réagi fermement: son directeur juridique, sous le pseudo Traceroo, a qualifié la méthode d’« profondément immorale et juridiquement discutable ». Les comptes IA ont été bloqués, et Reddit envisage une action en justice.
Tollé mondial!
L’affaire a fait le tour du monde. Des médias spécialisés comme The Verge ou 404media s’en sont emparés. En Suisse, des voix critiques se font aussi entendre. Angela Müller, d’AlgorithmWatch, a déclaré à dnip.ch: «La recherche, avec ou sans IA, doit impérativement s’appuyer sur des bases éthiques solides. L’avocat Martin Steiger, dans la NZZ, estime: La fin ne justifie pas tous les moyens. L’étude viole manifestement les principes éthiques. C’est un sérieux faux pas de l’université de Zurich.»
Les chercheurs ont finalement décidé de ne pas publier les résultats. Mais une question demeure: jusqu’où peut aller la recherche lorsqu’elle utilise elle-même les techniques de manipulation qu’elle prétend dénoncer? Les chercheurs rappellent que leur étude a été validée par l’université. Il n’est toutefois pas précisé par quelle faculté. Selon dnip.ch, les chercheurs refusent désormais de s’exprimer et renvoient au service de communication.
Une commission d'éthique insatisfaite
L’université de Zurich précise que la commission d’éthique de la faculté concernée n’a qu’un rôle consultatif. Dès avril 2024, elle aurait recommandé de mieux justifier la méthodologie, d’informer au maximum les participants et de respecter les règles de Reddit. «La responsabilité de la réalisation et de la publication incombe entièrement aux chercheurs», indique une porte-parole.
Les services compétents vont à présent examiner le dossier et renforcer les procédures internes. La commission prévoit de nouvelles directives plus contraignantes. L’identité exacte des chercheurs reste confidentielle «pour des raisons de protection de la personnalité».