L’intelligence artificielle devient de plus en plus incompréhensible

© SYSPEO/SIPA

C’est un étrange phénomène qui ne cesse d’intriguer les chercheurs qui s’intéressent à l’évolution de l’intelligence artificielle. Comme le résume le journal américain «Vice», «l’IA ne se contente plus de copier l’intelligence humaine, elle reflète aussi désormais son inexplicabilité.» Au point que les développeurs ont de plus en plus de mal à comprendre comment elle fonctionne et à déterminer pourquoi elle obtient tel résultat plutôt qu’un autre.

À lire aussi Une intelligence artificielle «invente» une physique alternative


Les experts recommandent donc aux développeurs de faire «un pas de côté» et de réfléchir au pourquoi et au comment une IA obtient un résultat plutôt qu’à améliorer sans cesse l’acuité et la rapidité des processus.

«Si l’IA devient une boîte opaque, nous ne parviendrons plus à comprendre les causes d’un échec, ni à améliorer la sécurité du système» explique Roman V. Yampolskiy, professeur de science informatique à Université de Louisville, dans un article au titre en forme de constat «Inexplicabilité et incompréhensibilité de l’intelligence artificielle».
«De plus, ajoute le chercheur, si nous nous habituons à accepter les réponses de l’IA comme des paroles d’oracles ne nécessitant pas d’explication, alors nous serons incapables de vérifier si ces résultats ne sont pas biaisés ou manipulés.»

À lire aussi Au Danemark, un parti dirigé par une intelligence artificielle se lance en politique

L’un des exemples le plus spectaculaire de c...


Lire la suite sur ParisMatch