La traque sans fin des biais algorithmiques

Biais racistes, sexistes ou culturels. Qu'il s'agisse de reconnaissance ou de génération d'images, de production de texte ou de prise de décision, les algorithmes d'intelligence artificielle trahissent toujours le même travers : ils ne sont ni neutres ni objectifs. Les chercheurs sont dans l'urgence pour trouver des solutions.

Cet article est extrait du mensuel Sciences et Avenir - La Recherche n°915, daté mai 2023.

Prakhar Ganesh est étudiant à l'Université nationale de Singapour, spécialiste de questions d'équité et de confidentialité dans les technologies d'apprentissage automatique. À l'automne 2022, il a mobilisé cette expertise pour remporter un concours un peu particulier. Organisée par un groupe de bénévoles appelé Bias Buccaneers, la compétition consistait à développer un algorithme capable d'indiquer correctement la couleur de peau de 15.000 visages générés artificiellement, d'évaluer leur tranche d'âge et leur genre. Mais les modèles n'étaient pas jugés sur le seul taux de bonnes réponses. Ils devaient aussi afficher des performances équivalentes sur des visages à peau sombre ou claire, masculins ou féminins, jeunes ou vieux. Et face à une image sans visage, si le modèle indiquait une couleur de peau, celle-ci devait s'avérer aléatoire, aucune ne devait prédominer dans les prédictions.

"Ces critères ont été choisis en raison du fait que certaines catégories de personnes pâtissent du manque d'efficacité de modèles d'apprentissage automatique de ce genre", explique Prakhar Ganesh. C'était tout l'objet du concours. Qualifié de "bias bounty", sur le modèle des programmes de récompenses "bug bounty " (prime au bug) dédiés à la recherche de failles de sécurité informatique, il poussait les développeurs à se préoccuper des possibles biais de leurs outils.

Cette question des biais et du manque d'équité est récurrente en intelligence artificielle (IA). "Ce travers concerne particulièrement les IA de type statistique, les réseaux de neurones, car elles n'extrapolent jamais, elles interpolent entre leurs données, note Jean-Louis Dessalles, maître de conférences à Télécom Paris, membre du Laboratoire de traitement et communication de l'information. S'il existe un biais sexiste dans les données d'apprentissage, elles vont le reproduire. "

Les travaux de la chercheuse Joy Buolamwini au Massa[...]

Lire la suite sur sciencesetavenir.fr

A lire aussi