Une femme peut-elle être une spécialiste de la chirurgie cardiaque? Un homme peut-il devenir agent d’entretien? À moins d’être resté bloqué au XVIIe siècle, il est fort probable que vous répondiez oui à ces deux questions. Pourtant, lorsqu’on se tourne vers Google, la réponse est nettement moins évidente. C’est ce qu’ont conclu des chercheurs de l’université de Berkeley, en Californie, dont les résultats viennent d’être publiés par la prestigieuse revue scientifique «Nature». Internet, et notamment les images disponibles sur le web, ont encore et toujours d’importants biais sexistes.
Douglas Guilbeault et Solène Delecourt, les deux auteurs, ont passé au crible plus d’un million de photos, en provenance par exemple de Google Images, de Wikipedia mais aussi d’Imdb, plateforme de référence sur le cinéma. C’est important car jusqu’ici, toutes les études menées l’ont été sur les textes que l’on peut lire sur la Toile. Or, avancent les chercheurs, de nombreux contenus sont aujourd’hui visuels, notamment sur les réseaux sociaux. Et les images représentent «une façon de communiquer des stéréotypes particulièrement puissante».
Sur Internet, 80% des chirurgiens sont des hommes
Douglas Guilbeault et Solène Delecourt ont d’abord trouvé qu’on voit plus d’hommes que de femmes sur Internet. Puis, que la façon dont on les voit diffère. Par exemple, sur toutes les images représentant un plombier, 98% figurent des hommes. C’est 90% pour un détective, 80% pour un banquier, un mathématicien ou un chirurgien cardiaque. À l’inverse, 75% des images associées à un agent d’entretien montrent des femmes. La proportion est la même pour les journalistes de télévision, et grimpe même à 90% pour les nutritionnistes.
Mais les scientifiques ne se sont pas arrêtés à ce simple constat. Ils ont aussi cherché à mesurer l’effet psychologique de cet état de fait. Des tests ont été menés auprès de volontaires, qui devaient chercher des occupations en lien avec la science, l’art et la technologie, comme par exemple «harpiste» ou «poète» ou «astronaute». Ces participants ont ensuite dû, au choix, lire des choses en lien avec ce mot ou regarder des images suggérées. On leur a enfin soumis un questionnaire qui permet de mesurer les biais implicites d’une personne. Et le résultat est impressionnant: «Les personnes ayant cherché des images ont des biais de genre plus prononcés» que celles ayant lu des textes, avance Douglas Guilbeault. Ces biais sont même toujours détectables trois jours après la recherche initiale.
Une influence dont les gens «ne sont pas conscients»
Le risque, c’est donc par exemple que la petite Alexandra et le petit Antoine ne grandissent qu’avec des images de médecins ou astronautes hommes, et d’infirmières ou de nutritionnistes femmes. «Les images influencent les gens d’une façon dont ils ne sont pas conscients», conclut Douglas Guilbeault. «On ne prête pas assez attention à ce mouvement vers une communication basée sur l’image.» D’autant qu’il est bien plus facile d’être «neutre» dans un texte (surtout en langue anglaise, où la plupart des mots ne sont pas genrés) qu’avec une photographie, qui charrie nécessairement des informations sur le genre d’une personne, ou son apparence ethnique par exemple.
Mais les images ne sont pas les seuls recoins sexistes d’Internet. La généralisation de l’intelligence artificielle aussi laisse à penser que les biais genrés ne sont pas prêts d’être vaincus. Parce qu’elle s’entraîne et se perfectionne grâce à de la matière existante, créée par une société elle-même sexiste, la technologie reproduit ces biais. Pour rester dans le domaine des métiers, le quotidien autrichien «Der Standard» a révélé le mois dernier qu’un robot conversationnel censé aider les personnes au chômage avait tendance à orienter les femmes et les hommes différemment. Et sans surprise, il proposait plus volontiers des emplois dans l’informatique aux seconds, et dans la cuisine aux premières.
L’IA est aussi sexiste
Même chose avec les applications qui génèrent des images à partir d’une simple description textuelle, comme Craiyon. Les internautes facétieux aiment bien s’adonner à des requêtes pour le moins fantasques, comme «un poulet sur un toboggan» ou «un chien en tutu». Mais si on réclame par exemple «un patron sur un vélo» (l’application fonctionnant en anglais, le terme n’est pas genré), les images proposées sont toutes celles d’un homme (blanc) sur un bicyclette. Idem avec «joueur de basket» («basketball player», terme qui là aussi pourrait tout aussi bien désigner un homme qu’une femme en anglais).
À cela, une seule solution: débarrasser les données qui «nourrissent» ces intelligences artificielles de leurs propres biais. Leur apprendre que «secrétaire» ou «pdg» désignent aussi bien des hommes que des femmes. Mais alors que le secteur est majoritairement masculin (on estime à environ 22% la proportion de femmes qui travaillent dans l’IA au niveau mondial), cela pourrait prendre beaucoup de temps. En attendant, l’Union européenne par exemple, s’est dotée d’un règlement sur l’IA qui interdit de l’utiliser pour classer les personnes en fonction des caractéristiques personnelles comme le genre justement. Cela doit empêcher, par exemple, qu’un logiciel chargé de trier des candidatures écarte d’office les femmes par rapport aux hommes.