Une récente étude des prestigieuses universités de Washington et de Pittsburgh, relayée par Futura Sciences, est en train de bouleverser la petite communauté scientifique et technologique mondiale. Selon les résultats de cette méta-analyse, l'intelligence artificielle (IA) serait... raciste.
À lire aussi sur l'intelligence artificielle
Pour balancer leur pavé dans la mare, quatre chercheurs ont confronté plusieurs intelligences artificielles. Première sur la liste: Vision. Selon l'outil développé par Google, si deux individus tiennent un thermomètre en main, il s'agira d'un simple «appareil électronique» pour celui à la peau claire, et d'un fusil pour celui à la peau foncée.
Les chercheurs ont également constaté que ProPublica, un outil d'IA utilisé par les tribunaux américains pour évaluer la probabilité de récidive des criminels, faisait exploser les risques chez les prévenus noirs (45%, contre 23% pour les prévenus blancs).
Des Barbies allemandes habillées en SS, des Barbies libanaises dans des ruines
Une autre intelligence artificielle développée par Midjourney a été testée pour représenter des Barbies-types de 194 pays différents.
Résultat:
- La Barbie allemande portait un uniforme SS
- La Barbie sud-soudanaise brandissait une arme à feu
- La Barbie libanaise évoluait dans un champ de ruines
Tous ces résultats ont été obtenus en croisant des millions de sources et de documents, lesquels reflètent plus largement des représentations sociales, selon les experts.
Au Royaume-Uni, l'Information Commissioner's Office – l'autorité chargée de la protection des données – a ainsi invité les acteurs du secteur à prendre des mesures pour éviter certaines dérives, estimant que l'Intelligence artificielle pourrait conduire à «des conséquences dommageables pour la vie des gens».