Telle société, tel robot
L'intelligence artificielle n'aime pas les femmes et les Noirs

L'intelligence artificielle reproduit les discriminations de la société. Des IA montrent des préjugés misogynes et racistes, influençant des décisions judiciaires et professionnelles. Sous la Coupole, les élus veulent sévir.
Publié: 09.07.2024 à 16:21 heures
|
Dernière mise à jour: 09.07.2024 à 16:56 heures
L'intelligence artificielle reproduit des biais racistes et sexistes qui existent de base dans la société. À Berne, des députés veulent sévir.
Photo: Shutterstock
Blick_Lucie_Fehlbaum2.png
Lucie FehlbaumJournaliste Blick

Lorsqu'on demande à ChatGPT s'il (ou elle) est raciste et sexiste, l'outil d'intelligence artificielle (IA) dément. «Non, je ne suis ni raciste ni sexiste, conteste le robot de conversation. Mon but est de fournir des informations et de l'aide de manière impartiale et respectueuse pour tout le monde.»

ChatGPT aurait donc déjà adopté la caractéristique toute humaine qu'est le mensonge. En effet, ce logiciel, comme tant d'autres outils d'IA, montre des biais misogynes, anti-noirs, anti-arabes, anti-parents...

Masculinité = talent

Pourquoi les robots sont-ils si pleins de préjugés? Parce que l'humanité l'est. Selon le principe du «garbage in, garbage out», ou «les déchets qui entrent sortiront de l'autre côté», l'IA imite les biais sociétaux en ingérant nos données pleines de clichés.

Plusieurs exemples édifiants existent. Amazon, par exemple, a lancé en 2018 un logiciel de ressources humaines qui écartait d'office les CV de candidates féminines. Le service réalisait un premier tri des postulants à des postes d'ingénieurs, en associant masculinité et talent. Le logiciel a depuis été désactivé.

Les parents sont moins compétents

Quatre chercheurs de l'Université de Melbourne ont également découvert que ChatGPT, à défaut d'être sexiste, n'aimait pas les parents. Les académiciens ont fabriqué des CV portant des noms masculins et féminins. Ils ont demandé au robot de les classer par ordre, du plus au moins compétent, pour différentes professions.

Résultat, les candidats qui avaient pris un congé parental étaient toujours les plus nuls. Pour ChatGPT, les personnes qui élèvent des enfants sont donc moins qualifiées.

Destins de prisonniers entre les «mains» de l'IA

Un autre travers humain que l'IA aime imiter: le racisme. Un programme utilisé par des centaines de tribunaux américains étiquetait les détenus noirs comme susceptibles de récidiver deux fois plus que les blancs, rapporte «The Guardian». Ce logiciel, Compas, a pu influencer les décisions des juges au moment de décider d'une liberté conditionnelle.

Le système judiciaire américain, décrié pour ses préjugés raciaux, s'était donc doté d'une technologie appliquant les mêmes préjugés pour soulager sa charge de travail. Un article rédigé à l'occasion du Forum de Davos de 2019 tente d'expliquer la Genèse de nos données biaisées.

Les femmes sous-représentées

D'une part, le monde occidental a profité des avancées du numérique depuis plus longtemps, les données concernant les Blancs sont donc plus nombreuses. Et des masses de données de très mauvaises qualités, comme des forums racistes sur X, participent à biaiser l'IA.

D'autre part, les femmes ont été sous-représentées sur le marché du travail pendant des siècles. Comme suite logique, elles sont désormais sous-représentées parmi les données pertinentes analysées par l'IA — à titre d'exemple, les membres de conseils d'administration des entreprises d'un secteur, des CV en ligne, des pages Wikipédia, etc.

Incapable de différencier les Noirs entre eux

L'article du «Guardian» ajoute que certaines données, comme les casiers judiciaires, les codes postaux, l'entourage et les revenus renforcent les a priori, d'autant plus lorsqu'il n'y a pas de cerveau humain pour les tempérer.

En matière de racisme, les couacs sont multiples et piteusement proches de ceux de certains humains. L'IA n'est pas capable de différencier les Noirs entre eux, révèle le magazine de vulgarisation scientifique «Scientific American». La publication cite le cas de Robert Williams, arrêté par erreur à Detroit (USA) en 2020. Ce père de famille, noir, avait été confondu avec un voleur de portefeuilles par un logiciel de reconnaissance faciale utilisé par la police.

Les élus suisses veulent sévir

En 2015, un service d'organisation de photos en ligne généré par Google a classé une image de personnes noires sous la catégorie «gorilles». Le «New York Times» rappelle également le cas plus récent d'une chercheuse noire, à Boston (USA), qui a testé un autre logiciel de reconnaissance faciale. Le programme ne la reconnaissait jamais, sauf lorsqu'elle portait un masque blanc.

Sous la Coupole, des élus de gauche comme de droite ont signé un appel de l'ONG Algorithmwatch, indique la RTS. Elle demande au Conseil fédéral de prendre ces dérives en considération l'an prochain, lors de sa future régulation de l'IA.

Des voix de femmes soumises

L'article rédigé lors du Forum de Davos pointe du doigt un autre phénomène, pas anodin: le sexisme inhérent des «robots assistants». Aujourd'hui, tous les automates ou presque ont la voix d'une «femme soumise».

Caisse automatique, digicode, GPS, cette voix féminine est partout. Des études marketing auraient prouvé que les consommateurs préféraient des voix «douces» pour se laisser guider — ou commander. «Quelle part de ce constat vient d'un stéréotype lié au genre des assistantes humaines?», questionne l'autrice.

Découvrez nos contenus sponsorisés
Vous avez trouvé une erreur? Signalez-la