Si vous redoutez que votre prochain collègue de bureau soit une intelligence artificielle, mauvaise nouvelle: elle est déjà partout. «Il est probablement trop tard pour résister à l’IA», prévient Ursula Häfliger, responsable politique de la Société suisse des employés de commerce (SEC Suisse) et directrice de la plateforme. Inutile donc d’espérer pouvoir encore interdire ChatGPT au travail.
Un usage raisonné
De nombreuses entités, comme SEC Suisse, plaident plutôt pour en faire un usage raisonné en pariant sur la formation du personnel pour le convaincre de l'utiliser, mais aussi pour éviter les craintes excessives, notamment sur l’avenir de l'emploi. «Travailler avec l'IA demande des connaissances de base et de l’entraînement, poursuit Ursula Häfliger. Les nouvelles technologies se développent tellement rapidement, que le sujet doit être abordé maintenant. Il est de la responsabilité des entreprises de s'assurer que les connaissances de base peuvent être acquises. Pour cela, pas besoin d'un CAS, mais simplement de quelques règles de base.»
À l’utilisation déjà courante de ChatGPT, l’IA vedette d’OpenAI, de Midjourney, son équivalent graphique, ou de leurs concurrentes pour tout ce qui touche à la traduction, l’analyse de données, la conception d’images et de codes, la production de contenus en tous genres, le design ou... le journalisme, s’ajoutent désormais des usages plus complexes: vente, gestion logistique, recommandations, santé, fiscalité, assurances, droit…
Les algorithmes ne sont pas nouveaux
«On utilise des algorithmes depuis longtemps dans les entreprises, mais ChatGPT et ses équivalents marquent une rupture dans la mesure où ce type d’IA est accessible à tout le monde, des grosses multinationales ou des entreprises high tech aux PME. Chiffres, images, sons, textes: du moment qu’il y a des données à exploiter, l’IA peut intervenir», explique Sandro Saitta, enseignant en data sciences à l’Université de Lausanne et fondateur de la société de conseil en IA Viadata.
Et de renchérir: «Ce n'est pas l'IA qui va vous remplacer, c'est plutôt une personne qui utilise l'IA. Il ne s’agit pas de transformer tout le monde en data scientists, mais de faire en sorte que chacun puisse se servir de l'IA au quotidien, en expliquant ce qui peut être fait ou pas. Quitte à instaurer des limites pour éviter certains pièges, par exemple en rappelant aux salariés qu’on ne peut pas saisir n’importe quelle information dans ChatGPT.»
Pièges éthiques et légaux
Une précaution indispensable, confirme Johan Rochel, philosophe, éthicien et chercheur à l'EPFL: «L’utilisation de l'IA générative au travail présente en effet certains pièges éthiques et légaux. De manière générale, toutes les informations qu’on entre dans une IA sont utilisées pour l’entraîner. Quelles données peut-on utiliser? Est-il possible de les partager avec un tiers?»
La réponse à ces interrogations est souvent l'affaire des États et l’Union européenne y travaille. Mais c’est bien à chaque entreprise de fixer ses propres règles pour gérer ces questions qui relèvent en partie de l’éthique des affaires, ajoute le chercheur: «À part vous, personne ne peut savoir s’il est encore acceptable de facturer au même prix une traduction qui prenait trois jours, mais qui ne demande plus que dix minutes aujourd'hui.»
Un impact majeur
Un monde où la machine a totalement remplacé l’humain ne semble donc pas encore pour demain. Mais l’impact de ChatGPT et des autres IA s’annonce massif. «Toutes les activités qui peuvent être automatisées risquent d'être moins valorisées et moins bien payées, tandis que celles que l’IA permettra de rendre plus productives seront mieux valorisées», explique Ursula Häfliger.
Les employés de centres d’appel, les secrétaires, les opérateurs chargés d’activités linéaires et simples avec peu de variations et peu d’interactions avec autrui pourraient être remplacés par des chatbots. Mais l’IA ne s’invite pas uniquement dans les métiers les plus répétitifs: d’après une étude menée en 2003 par le cabinet de conseil McKinsey, les technologies actuelles pourraient déjà permettre d’automatiser des activités qui occupent aujourd’hui jusqu’à 70% du temps de travail, et leurs capacités croissantes à comprendre le langage naturel accélèrent encore ce processus. Selon l'étude, d’ici 2060, près de 50% des activités professionnelles actuelles pourraient être automatisées.
Même dans les domaines où l’humain pouvait paraître indépassable – les industries créatives, la recherche, les services – l’IA s’invite dans l’open space avec ses promesses de gains de productivité, d’automatisation et d’aide à l’innovation. Les médecins ne sont pas épargnés: l’année dernière, une étude publiée dans la très réputée revue médicale américaine «Jama Internal Medicine» montrait qu’à tâche égale, ChatGPT était jugé plus clair et plus empathique que des médecins en chair et en os, y compris par… les praticiens eux-mêmes!
Véritable risque de dérives
Présentes partout, les IA sont aussi de plus en plus performantes. Bien dirigé, ChatGPT propose une gamme toujours plus large de styles rédactionnels et les erreurs grossières, tel un sixième doigt aux mains, qui trahissaient souvent une création générée par Midjourney, se font de plus en plus rare. Bien malin qui peut dire à présent si l’image, le texte ou le rapport qu’il a commandé a été conçu partiellement ou entièrement par une IA.
Le monde économique découvre un défi que les enseignants connaissent depuis quelques années, confrontés qu’ils sont à une véritable explosion des dissertations produites entièrement ou partiellement par des IA génératives, sans avoir toujours les moyens de s’en rendre compte. «À l’université comme dans le monde professionnel, repérer un contenu rédigé par une IA n’est pas facile. Les outils existent, mais leur précision n’est pas suffisante pour garantir une certitude absolue», explique Sandro Saitta, le fondateur de Viadata.
Au-delà des légitimes questions qui pèsent sur l’emploi, la démocratisation de ces outils puissants s’accompagne d’un vrai risque de dérives: confidentialité, protection des données personnelles, discriminations ou manque de transparence. «Que Netflix ou Spotify choisissent à votre place ce que vous devriez regarder ou écouter est une chose. C’en est une autre si une machine décide demain que je dois aller en prison ou qu’une banque me refuse un prêt. Nous devons savoir sur quelle base ces décisions sont prises», résume le chercheur de l'EPFL Johan Rochel.
En collaboration avec Large Network