Quand l'IA fausse l'intelligence humaine

S’implantant dans tous les secteurs d’activité humaine, l’intelligence artificielle pourrait faussement influencer les individus dans leurs décisions, montrent deux psychologues espagnoles.

C'est connu : l'intelligence artificielle (IA) souffre de plusieurs biais, essentiellement car elle est programmée par des humains. En effet, les données utilisées pour entraîner les modèles d'IA sont basées sur des décisions humaines. Si ces dernières recèlent des erreurs, les algorithmes en hériteront et évolueront en reproduisant ces données fausses.

Mais l'inverse est tout aussi vrai, révèle une étude réalisée par Lucia Vicente et Helena Matute, du département de psychologie de l'université de Deusto (Bilbao, Espagne) : les humains peuvent prendre de mauvaises décisions et les répéter s'ils ont été influencés par des IA faussées. Les deux chercheuses se sont livrées à plusieurs expériences qu'elles décrivent dans la revue Scientific Reports.

Lire aussiDes IA multilingues surtout douées en anglais

Perpétrer les mêmes erreurs héritées de l'IA

Dans un premier temps, les scientifiques ont demandé à des étudiants en psychologie de se livrer à un diagnostic médical : identifier dans des échantillons tissulaires en fonction de leurs colorations ceux pouvant être atteints d'une maladie spécifique (et fictive). Un groupe de participants était assisté par une IA (entachée d'une erreur systématique, ce que les cobayes ignoraient). Le groupe contrôle n'avait, lui, aucune assistance.

Sans surprise, le groupe assisté et influencé par l'IA défective a commis les mêmes erreurs que leur assistant informatique, à la différence du groupe contrôle qui n'en a pas commis.

Puis, dans un second temps, les chercheuses ont désactivé l'IA et demandé aux deux groupes de poursuivre les tests. Le résultat est inquiétant : le groupe désormais sans assistance a continué à perpétrer les mêmes erreurs, ayant comme hérité du biais introduit par l'IA précédemment. Un effet qui n'était pas observé dans le groupe contrôle.

Lire aussiChatGPT a écrit son premier article scientifique : est-il convaincant ?

Un effet négatif sur des décisions humaines

Pour les chercheuses, ce résultat montre qu'une info[...]

Lire la suite sur sciencesetavenir.fr

A lire aussi