Un «merci» peut coûter bonbon
Pourquoi être poli avec ChatGPT est une très mauvaise idée

Sam Altman, cocréateur de ChatGPT, met en garde contre l'utilisation de formules de politesse avec l'IA. Cette pratique, bien que bénéfique pour les performances, entraîne des coûts économiques et environnementaux colossaux.
Publié: 15:43 heures
Les utilisateurs de ChatGPT ne soupçonnent pas le coût des formules de politesses superflues.
Photo: Shutterstock

C'est bien connu, dire «bonjour», ça ne coûte rien. Enfin, sauf si l'on s'adresse à une IA conversationnelle. Alors que de nombreux utilisateurs ont pris pour habitude d'accompagner leurs requêtes à ChatGPT de formules de politesses, son cocréateur Sam Altman met en garde contre cette pratique. Derrière ces marques de courtoisie se cache en fait un coût insoupçonné, mais bien réel – à la fois économique et environnemental.

La remarque est partie d'une question posée par un internaute sur X: «Je me demande combien d'argent OpenAI a perdu en frais d'électricité à cause des gens qui disent 's'il vous plaît' et 'merci' à leurs modèles (ndlr: dont fait partie ChatGPT).» Sam Altman y a répondu, non sans ironie: «Des dizaines de millions de dollars bien dépensés – on ne sait jamais.» 

Contenu tiers
Pour afficher les contenus de prestataires tiers (Twitter, Instagram), vous devez autoriser tous les cookies et le partage de données avec ces prestataires externes.

Alors certes, de recherches récentes, reprises notamment par le magazine économique «Forbes», montrent que les prompts formulés avec respect améliorent considérablement les performances de l’IA. Certains tests ont d'ailleurs révélé que l’impolitesse entraînait jusqu’à 30% de baisse de performance, avec plus d’erreurs, de biais et d’informations omises.

Pourtant, écologiquement et économiquement, tout indique que cette politesse superflue a un coût exorbitant. Pour rappel, chaque mot entré dans une requête déclenche un traitement informatique et chaque traitement de texte mobilise une infrastructure énergétique colossale. Selon l’Agence internationale de l’énergie, une seule requête sur ChatGPT consomme dix fois plus d’électricité qu’une recherche Google. Sachant qu'un milliard de requêtes sont adressées à ChatGPT chaque jour par 300 millions d’utilisateurs hebdomadaires, le calcul devient vertigineux.

Une industrie ultra-gourmande

De leur côté, les data centers qui soutiennent ces IA représentaient déjà 1,4% de la consommation mondiale d’électricité en 2023, un chiffre qui pourrait tripler d’ici à 2030. Suffisant pour atteindre l’équivalent de la consommation annuelle de la France et de l’Allemagne réunies. Dans ce contexte, l’Agence internationale de l’énergie prévoit une hausse de plus de 75% des besoins en électricité des centres de données d'ici à 2026.

Au-delà de l’électricité, l’IA générative pèse lourd en eau et en carbone. L’entraînement d’un grand modèle comme GPT-3, le modèle d'OpenAI qui a sous-tendu ChatGPT, peut générer jusqu’à 300 tonnes de CO2, l’équivalent de 125 vols transatlantiques aller-retour. Côté hydrique, GPT-3 consommerait un demi-litre d’eau pour quelques dizaines de réponses, et les infrastructures associées pourraient représenter jusqu’à 6,6 milliards de mètres cubes d’eau en 2027, soit plusieurs fois la consommation annuelle du Danemark.

Ajoutez à cela, les 2600 tonnes de déchets électroniques générés en 2023 et une projection de 2,5 millions de tonnes de pollution en 2030 si rien n’est fait. Bref, l'équivalent d'un gros doigt d'honneur lancé à l'environnement. De quoi passer l'envie de dire «merci ChatGPT».

Vous avez trouvé une erreur? Signalez-la