Ces intelligences artificielles conçues pour rassurer

Lancée dans le cadre de la stratégie nationale pour l’intelligence artificielle en 2018, le consortium Confiance AI a présenté une série de projets sur le plateau de Saclay. Objectif : comprendre comment et pourquoi une IA prend une décision et en finir avec la réputation de "boîte noire" de ces technologies.

"L’intelligence artificielle (IA), ça marche, mais on ne sait pas pourquoi ça marche". La formule revient souvent depuis une dizaine d'années et l’avènement des techniques d’apprentissage profond, qui ne sont pas les seules en IA mais restent les plus emblématiques. D’où l’émergence d’un certain malaise à voir de telles technologies se déployer. C’est dans ce contexte que s’est monté en janvier 2021 le consortium Confiance.AI, un programme de recherche sur quatre ans qui entre dans le cadre de la stratégie nationale pour l’intelligence artificielle lancée par le gouvernement français en 2018. Il regroupe des industriels (Airbus, Thalès, Renault…) et des organismes de recherche académiques (CEA, Inria, Instituts de recherche technologiques…) autour de cas d’usages.

Une série de projets étaient présentés les 5 et 6 octobre 2022 à CentraleSupélec sur le campus de Paris-Saclay. Soit un ensemble de méthodes, d’applications, de logiciels destinés à ajouter une couche de transparence, de sécurité ou d’explicabilité à une fonction d’intelligence artificielle. "Il faut sortir de la situation où une IA reconnaît un husky non pas pour ce qu’il est mais parce qu’il y a de la neige sur l’image. Mettez le husky sur une plage et l’IA ne sait plus ce que c’est", résume Bertrand Braunschweig, coordinateur scientifique de Confiance.AI, en citant un exemple fameux de mauvaise interprétation d'image.

Droit réduit à l'erreur

Toutes les applications d’intelligence artificielle ne sont pas concernées, mais bien celles où des vies humaines, des missions de défense, des transactions financières, par exemple, sont en jeu. "Il ne s’agit pas de créer des outils d’IA mais des outils pour des systèmes critiques industriels, où le droit à l’erreur doit être réduit", ajoute David Sadek, président du comité de direction du consortium et vice-président en charge de l’innovation et des technologies chez Thalès.

Un des projets concerne ainsi la question des "attaques adversaires", c’est-à-dire ces per[...]

Lire la suite sur sciencesetavenir.fr

A lire aussi