Vers une IA plus avancée?
OpenAI lance un comité de surveillance pour limiter les dangers liés à l'IA

OpenAI, l'entreprise créatrice de ChatGPT, a annoncé mardi la création d'un nouveau comité de surveillance, alors que le départ de plusieurs responsables a soulevé des inquiétudes quant à la volonté de celle-ci de réduire les dangers potentiels de l'IA.
Publié: 28.05.2024 à 17:37 heures
Un comité de surveillance d'OpenAI doit, durant les 90 prochains jours, travailler à évaluer et renforcer la sécurité et les processus existants autour du développement d'une IA avancée. (archive)
Photo: Michael Dwyer
sda-logo.jpeg
ATS Agence télégraphique suisse

An nouveau comité de surveillance a été créé OpenAI, a fait savoir ce mardi l'entreprise créatrice de ChatGPT. Selon elle, le comité, au sein duquel siégera son patron Sam Altman, doit commencer à travailler au moment où OpenAI a lancé l'entraînement de son nouveau modèle d'intelligence artificielle (IA), qui est censé dépasser les capacités de GPT-4, l'actuel système au coeur de ChatGPT.

«Nous sommes fiers de créer et proposer des modèles d'IA à la pointe de l'industrie, tant en matière de capacités que de sécurité et, en ce moment-clé, accueillons positivement le débat solide» qu'il suscite, a déclaré l'entreprise dans un communiqué.

Le comité, qui sera composé de membres de son conseil d'administration et de responsables, doit, durant les 90 prochains jours, travailler à évaluer et renforcer la sécurité et les processus existants autour du développement d'une IA avancée.

Plusieurs spécialistes externes ont été consultés

OpenAI a également assuré qu'elle recevra les avis de spécialistes externes durant cette période, parmi lesquels l'ancien responsable américain de la cybersécurité, Rob Joyce, qui était à la tête de cette division au sein de l'Agence nationale de sécurité (NSA), ainsi que John Carlin, ancien responsable du département de la Justice.

Le comité va faire le point sur les protocoles de sécurité déjà en place au sein d'OpenAI et avancer des recommandations en vue de possibles améliorations ou additions.

A l'issue des trois mois, un rapport du comité sera présenté au conseil d'administration avant d'être publié.

Le lancement de ce comité se veut la réponse au départ de plusieurs hauts responsables du groupe, inquiets au sujet du manque de priorité accordé, selon eux, par OpenAI à la sécurité de l'IA.

Au début du mois, l'entreprise avait démantelé son équipe chargée de la réduction des risques de long terme induits par l'IA.

Annonçant son départ, le responsable de l'équipe, Jan Leike, avait critiqué OpenAI, l'accusant, dans une série de tweets, de donner la priorité à de «nouveaux produits tous beaux» au détriment du travail essentiel de sécurisation de l'IA.

«Ces derniers mois, mon équipe naviguait à contre-courant», a-t-il ainsi déclaré.

L'entreprise a par ailleurs créé la polémique alors que sa dernière itération intégrait une voix très proche de celle de l'actrice américain Scarlett Johansson, même si OpenAI a assuré ne pas avoir cherché à copier la star hollywoodienne.

(ATS)

Vous avez trouvé une erreur? Signalez-la