L’intelligence artificielle d’Amazon confond des politiques avec des criminels

Fin mai, des associations demandaient à Amazon de ne plus fournir ses solutions de reconnaissance faciale aux forces de l’ordre. Parmi elles, l’ACLU (Union américaine pour les libertés civiles), qui défend les droits et les libertés aux États-Unis. Ce 26 juillet, l’organisme a publié un rapport sur ses propres tests réalisés à partir d’Amazon Rekognition, la technologie en question. L’ACLU a demandé au logiciel développé par la firme américaine de comparer le visage des membres du Congrès à une base de données de 25.000 criminels recherchés. Sur les 535 élus, Amazon en a identifié 28 comme criminels. Un taux d’erreur de 5%, jugé bien trop important par l’association.

Les Afro-Américains surreprésentés

Parmi les 28 élus concernés par ces faux positifs, 40% sont noirs, alors que les Afro-Américains ne représentent que 20% des élus du Congrès. Un résultat qui suscite les craintes de l’ACLU. “Les personnes de couleur sont déjà disproportionnellement blessées par les pratiques policières et il est facile d’imaginer comment Rekognition pourrait amplifier le phénomène”, écrit l’association sur son site. Elle cite le cas de la police d’Orlando (Floride), qui utilise déjà la solution mise au point par Amazon.

Image

Quelques heures après la publication des résultats de ces tests, une porte-parole d’Amazon a défendu l’entreprise auprès du New York Times, expliquant...

Lire la suite sur BFMTV.com

A lire aussi