Intelligence artificielle : peut-on avoir confiance en elle ?

L'opacité des systèmes d'intelligence artificielle à base d'apprentissage automatique pose de manière pressante la question de la confiance. Elle ne concerne pas uniquement les résultats mais aussi leur logique de fonctionnement parfois problématique, explique dans un entretien avec Sciences et Avenir Fabien Gandon de Inria.

ENTRETIEN. Avec la montée en puissance, technologiquement et médiatiquement, de l’intelligence artificielle, la terme de "confiance" est presque aussi en vogue que "éthique" ou "responsable". Des programmes de recherches se montent spécifiquement sur le sujet : Confiance.AI en France, Themis 5.0 en Europe, institut ANITI à Toulouse, pour essayer de comprendre des technologies au fonctionnement encore trop opaque. Car comment s'en remettre à des machines dont on ne maîtrise pas le fonctionnement ? Explications avec Fabien Gandon, directeur de recherche Inria, responsable de l'équipe Wimmics (Inria/Université Côte d’Azur/CNRS) et représentant d'Inria au W3C.

Sciences et Avenir : La notion de confiance en intelligence artificielle est-elle propre à l’IA de type apprentissage automatique ?

Fabien Gandon : Cette question se posait avant. Lorsque les systèmes à base de règles commençaient à avoir de grosses bases de règles, cela devenait difficile à lire pour un humain. Donc d’expliquer, de résumer de façon suffisamment ergonomique ce qui s’était passé dans un ensemble de règles pour qu’un utilisateur décide de suivre ou non le résultat.

Mais au moins, la machine était programmée pour faire des choses selon des règles que l’on maîtrisait. Avec les méthodes d’apprentissage, c’est la machine qui apprend des règles à partir d’exemples et de données. On a ajouté de l'opacité. On n’est pas forcément capables de comprendre à tout instant ce que la machine a réellement appris et ce qu’elle fait réellement.

"Une IA peut nourrir d’autres systèmes et avoir des effets en cascade"

A quoi correspond cette notion de confiance dans une IA, quels gages la machine est-elle censée donner ?

La première chose, c’est savoir si je peux prendre la réponse donnée par l’algorithme et ce que je peux en faire. Mais ce n’est pas suffisant. Il faut savoir comment cette réponse a été obtenue, si les données sont bonnes, ou biaisées, ou erronées.

Si vous avez entraîné une IA à diagnostiquer certaines [...]

Lire la suite sur sciencesetavenir.fr

A lire aussi