«Les systèmes d'intelligence artificielle (IA) dotés d'une intelligence humaine compétitive peuvent poser de graves risques pour la société et l'humanité.» Cette phrase (apocalyptique) est l’introduction d’une pétition parue sur le site de l’institut Future of Life ce jeudi.
Sur l'intelligence artificielle
Une déclaration renforcée par le fait que, parmi les 1869 signataires du texte (à l’heure où Blick écrit ces lignes), se trouvent de nombreuses personnalités, dont Elon Musk, propriétaire de Twitter ainsi que fondateur de SpaceX et de Tesla. Celui-ci est également cofondateur de la société OpenAI, propriétaire de l’assistant virtuel ChatGPT... et cofondateur de l’institut Future of Life.
La pétition en question, présentée comme une lettre ouverte, demande aux laboratoires d’intelligences artificielles de «suspendre immédiatement pendant au moins 6 mois la formation des systèmes d'IA plus puissants que GPT-4» (ndlr: la dernière version du système Chat GPT). Une question se pose alors: quels sont les risques pour l’humanité engendrés par l’IA sous-entendus par cette demande? Interview avec Olivier Glassey, sociologue spécialiste des usages du numérique à l'Université de Lausanne.
Olivier Glassey, Elon Musk est-il vraiment préoccupé par le bien-être de l’humanité?
Selon moi, cette lettre aurait eu plus de poids s’il n’y avait pas eu la signature d’Elon Musk. Ce dernier a financé l’intelligence artificielle d’OpenAI, puis a quitté l’entreprise avant qu’elle n’obtienne le succès qu’on lui attribue aujourd’hui. Comme argument, il a évoqué un possible conflit d’intérêts avec le développement d’une autre IA au sein de Tesla. OpenAI est donc devenu un de ses concurrents directs. L'entrepreneur – qui n’avait pas anticipé le succès de ChatGPT – éprouve peut-être aussi de la rancœur vis-à-vis de ses anciens partenaires.
Nous pouvons ajouter que Elon Musk est aussi le cofondateur de l'institut Future of Life, qui a mis en ligne la fameuse lettre ouverte.
Absolument. Je ne veux pas lui faire de procès d’intention, mais il y a ses empreintes à peu près dans toutes les étapes de ce processus. J’ai, de ce fait, de la peine à imaginer que ce qu’il fait est complètement désintéressé et orienté uniquement vers le bien-être de l’humanité.
Il y a pourtant beaucoup de signataires du document qui sont des experts de l’intelligence artificielle. Cela renforce l’impact de la demande de moratoire.
Effectivement, le nombre de spécialistes impliqués donne un certain poids au texte. Mais pourquoi maintenant, après des années de développement de l'IA? Ce sont des débats qui ne datent pas d’hier. La différence, c’est qu’aujourd'hui, les inquiétudes vis-à-vis des dangers de cette technologie se sont concrétisées. On pourrait aussi se demander pourquoi ces experts ont attendu que le diable numérique sorte de sa boîte pour être à ce point-là sensible à son impact. C’est comme si, durant des années, nous avions peu pris au sérieux les conséquences potentielles.
Venons-en au cœur du sujet. L’intelligence artificielle est-elle réellement un danger pour l’humanité?
Il y a effectivement des menaces, mais il est difficile de les concevoir, car elles engagent une multitude de scénarios. Par exemple, si une intelligence artificielle sans supervision était déployée dans le domaine de l’armement, cela pourrait être très dangereux. L’IA possède des failles compliquées à cerner, c’est pourquoi lui déléguer le pouvoir de décision pour des systèmes critiques peut s’avérer potentiellement très néfaste.
Au point de détruire les humains?
J’ignore si cela mettrait concrètement l’ensemble de l'humanité en danger. Au lieu de nous focaliser sur des scénarios apocalyptiques, nous devrions plutôt nous demander quel sera à court terme l’impact de l’IA sur notre vie sociale, politique et économique.
La lettre ouverte parle également de danger pour la démocratie.
Effectivement. Dans le monde numérique, les IA jouent à domicile. Elles accèdent déjà à énormément de données, les recombinent, les mettent en scène… La question: comment continuer à se reconnaitre entre humains? Le fait que des entités artificielles puissent se comporter de manière similaire, voire prendre l’identité de certaines personnes en générant du texte, des voix ou des images – qui paraissent réels –, pose la question du contrôle de l’information. Si l’on prend l’exemple des réseaux sociaux, le dialogue y est déjà difficile. En ajoutant l’IA dans l'équation, le degré de manipulation de l’information peut y être multiplié. De plus, que restera-t-il de social sur ces plateformes, lorsqu’elles seront peuplées de ces entités?
Vous parlez principalement du monde numérique. Qu'en est-il des interactions en dehors?
Le monde numérique nous affecte en dehors. Les intelligences artificielles peuvent être utilisées dans divers domaines. Par exemple, elles peuvent être les outils d’une politique publique, ou d’une décision commerciale. Les spécialistes n’arrivent d’ailleurs souvent pas à expliquer pourquoi une IA choisit une réponse plutôt qu’une autre.
Nous ne comprenons donc pas encore entièrement comment cette technologie fonctionne.
Exactement. C’est une technologie difficile à comprendre, à maîtriser. Il est également compliqué de lui inculquer les valeurs que l’on souhaite. Pour ces raisons, le monde extérieur au numérique subira définitivement les conséquences de l'usage de ces technologies. Il est encore trop tôt pour savoir exactement comment.