L’autorité italienne de protection des données est passée à l’action. La semaine dernière, elle a décidé de bloquer l’agent conversationnel ChatGPT utilisant l’intelligence artificielle (IA). Depuis, la pression internationale s’accroît sur l’entreprise OpenAI, qui a développé le chatbot.
À lire aussi sur ChatGPT
Une enquête est par exemple en cours au Canada, à la suite d’une plainte concernant l’utilisation de données privées. Même le président américain, Joe Biden, demande que les inventions reposant sur l'IA soient plus sûres. Les autorités allemandes sont également alarmées.
Les autorités suisses en contact avec l’Italie
ChatGPT génère des réponses grâce à l’IA. Les utilisateurs peuvent poser des questions ou demander des actions de la part de l’interface, qui propose des réponses de manière autonome à l’aide de milliards de textes provenant d’Internet. Les critiques objectent que les sources à partir desquelles les entreprises comme ChatGPT obtiennent leurs données et la manière dont elles les traitent ne sont pas claires ni sûres.
La décision de l’Italie a ainsi suscité l’intérêt du préposé fédéral à la protection des données (PFPDT). Selon ses propres informations, Adrian Lobsiger est en contact avec l’autorité italienne de protection des données afin d’obtenir de plus amples informations sur la décision de blocage.
Attendre et observer
Pour l’instant, il n’y a pas d’action en vue. En Suisse, on veut d’abord attendre – et observer. C’est ce qu’écrit le PFPDT dans un communiqué. Jusqu’à présent, Adrian Lobsiger conseille uniquement aux utilisateurs de vérifier, avant de saisir du texte ou de télécharger des images, dans quel but ces informations sont traitées.
«Comme le PFPDT n’a pas encore examiné ChatGPT dans le cadre d’un examen des faits, il ne se prononce pas sur la conformité de cette application avec la protection des données», écrit-il à ce sujet.
Des risques pour la sphère privée
Tout en reconnaissant les opportunités que représentent ces applications basées sur l’IA, le traitement de données personnelles à l’aide de ces nouvelles technologies «est également lié à des risques pour la sphère privée», écrit Adrian Lobsiger.
Les entreprises qui souhaitent utiliser des applications basées sur l’IA doivent s’assurer que les exigences en matière de protection des données sont respectées. Cela implique par exemple que les utilisateurs soient informés de manière transparente sur la manière dont les données sont traitées et utilisées.