Intelligence artificielle : prendre en compte ses risques concrets, plutôt que de potentielles menaces existentielles

Ces derniers mois, l’intelligence artificielle (IA) a fait l’objet d’un débat mondial en raison de l’adoption généralisée d’outils basés sur l’IA générative, tels que les chatbots et les programmes de génération automatique d’images. D’éminents scientifiques et technologues de l’IA pointent les potentiels risques existentiels posés par ces développements – c’est-à-dire les risques qui menacent la survie de l’humanité.

Nous travaillons dans le domaine de l’IA depuis des décennies et avons été surpris par cette popularité subite et ce sensationnalisme. L’objectif de cet article n’est pas d’antagoniser, mais plutôt d’équilibrer une perception publique qui nous semble dominée par des craintes spéculatives de menaces existentielles liées au développement de systèmes d’IA.

Il ne nous appartient pas de dire que l’on n’a pas le droit, on ne devrait pas s’inquiéter de ces risques existentiels. Mais, en tant que membres du Laboratoire européen pour l’apprentissage et les systèmes intelligents (ELLIS), un organisme de recherche qui se concentre sur l’apprentissage automatique, nous pensons qu’il nous appartient de mettre ces risques en perspective, en particulier parce que des organisations gouvernementales envisagent de réguler l’IA en prenant en compte les apports des entreprises de la tech.

Qu’est-ce que l’IA ?

L’IA est une discipline de l’informatique ou de l’ingénierie informatique qui a pris forme dans les années 1950. Elle vise à construire des systèmes informatiques intelligents, en prenant pour référence l’intelligence humaine. Tout comme l’intelligence humaine est complexe et diversifiée, l’intelligence artificielle comporte de nombreux domaines qui visent à imiter certains aspects de l’intelligence humaine, de la perception au raisonnement, en passant par la planification et la prise de décision.

En fonction du niveau de compétence, les systèmes d’IA peuvent être divisés en trois niveaux :

1.L’IA faible (narrow AI ou weak AI en anglais), qui désigne les systèmes d’IA capables d’effectuer des tâches spécifiques ou de résoudre des problèmes particuliers – souvent avec un niveau de performance supérieur à celui des humains dorénavant. Tous les systèmes d’IA actuels sont des systèmes d’IA faible, y compris les chatbots comme ChatGPT, les assistants vocaux comme Siri et Alexa, les systèmes de reconnaissance d’images et les algorithmes de recommandation.

2.L’IA forte, ou IA générale, qui fait référence aux systèmes d’IA qui présentent un niveau d’intelligence similaire à celui des humains, y compris la capacité de comprendre, d’apprendre et d’appliquer des connaissances à un large éventail de tâches et d’incorporer des concepts tels que la conscience. L’IA générale est largement hypothétique et n’a pas été réalisée à ce jour.


Lire la suite: Google a-t-il développé une IA consciente ?


3.Les superintelligences désignent les systèmes d’IA dotés d’une intelligence supérieure à l’intelligence humaine pour toutes les tâches. Par définition, nous sommes incapables de comprendre ce type d’intelligence, de la même manière qu’une fourmi n’est pas en mesure de comprendre notre intelligence. La super IA est un concept encore plus spéculatif que l’IA générale.

L’IA peut être appliquée à tous les domaines, de l’éducation aux transports, en passant par les soins de santé, le droit ou la fabrication. Elle modifie donc profondément tous les aspects de la société. Même sous sa forme « faible », l’IA a un potentiel important pour générer une croissance économique durable et nous aider à relever les défis les plus urgents du XXIe siècle, tels que le changement climatique, les pandémies et les inégalités.

Les défis posés par les systèmes d’IA actuels

L’adoption, au cours de la dernière décennie, de systèmes décisionnels basés sur l’IA dans un large éventail de domaines, des réseaux sociaux au marché du travail, pose également des risques et des défis sociétaux importants qu’il convient de comprendre et de relever.

L’émergence récente de grands modèles de « transformateurs génératifs pré-entraînés », plus connus sous leur acronyme anglais GPT, très performants, exacerbe bon nombre des défis existants tout en en créant de nouveaux qui méritent une attention particulière.

De plus, l’ampleur et la rapidité sans précédent avec lesquelles ces outils ont été adoptés par des centaines de millions de personnes dans le monde entier exercent une pression supplémentaire sur nos systèmes sociétaux et réglementaires.

Certains défis d’une importance cruciale devraient être notre priorité :

L’IA représente-t-elle vraiment un risque existentiel pour l’humanité ?

Malheureusement, au lieu de se concentrer sur ces risques tangibles, le débat public – et notamment les récentes lettres ouvertes – s’est surtout concentré sur les risques existentiels hypothétiques de l’IA.

Un risque existentiel désigne un événement ou un scénario potentiel qui représente une menace pour la pérennité de l’humanité, avec des conséquences qui pourraient endommager ou détruire la civilisation humaine de manière irréversible, et donc conduire à l’extinction de notre espèce. Un événement catastrophique mondial (comme l’impact d’un astéroïde ou une pandémie), la destruction d’une planète vivable (en raison du changement climatique, de la déforestation ou de l’épuisement de ressources essentielles comme l’eau et l’air pur) ou une guerre nucléaire mondiale sont des exemples de risques existentiels.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Notre monde est certainement confronté à un certain nombre de risques, et les développements futurs sont difficiles à prévoir. Face à cette incertitude, nous devons hiérarchiser nos efforts. L’éventualité lointaine d’une superintelligence incontrôlée doit donc être replacée dans son contexte, notamment celui des 3,6 milliards de personnes dans le monde qui sont très vulnérables en raison du changement climatique, du milliard de personnes qui vivent avec moins d’un dollar américain par jour ou des 2 milliards de personnes qui sont touchées par un conflit. Il s’agit de véritables êtres humains dont la vie est gravement menacée aujourd’hui, un danger qui n’est certainement pas causé par la super IA.

En se concentrant sur un hypothétique risque existentiel, on détourne notre attention des graves défis documentés que l’IA pose aujourd’hui, on n’englobe pas les différentes perspectives de la communauté des chercheurs au sens large, et on contribue à affoler inutilement la population.

Ces questions doivent être traitées dans toutes leurs diversités, complexités et nuances, pour le bien de la société humaine dans son ensemble. La société bénéficierait aussi de solutions concrètes et coordonnées pour relever les défis actuels de l’IA, y compris en termes de réglementation. Pour relever ces défis, il faut la collaboration et l’implication des secteurs les plus touchés de la société, ainsi que l’expertise technique et l’expertise de gouvernance nécessaire. Il est temps d’agir maintenant, avec ambition et sagesse, et en coopération.


Les auteurs de cet article sont membres du conseil d’administration du European Lab for Learning & Intelligent Systems (ELLIS).

La version originale de cet article a été publiée sur La Conversation, un site d'actualités à but non lucratif dédié au partage d'idées entre experts universitaires et grand public.

Lire la suite:

Bernhard Schölkopf a reçu des financements de la Max Planck Society, du DFG, du BMBF (Ministère allemand des sciences), de l'ETH Zürich, de l'état du Baden-Wuerttemberg, de la Hector Foundation, de la Koerber Foundation, et du CIFAR.

Florence d'Alché-Buc a reçu des financements de l'ANR, de Hi!Paris et de la Telecom Paris Chair on AI and Data Science for Industry and services.

Nicolò Cesa-Bianchi a reçu des financements du projet de recherche FAIR (Future Artificial Intelligence Research) financé par le programme européen NextGenerationEU au sein du programme PNRR-PE-AI.

Serge Belongie a reçu des financements du Pioneer Centre for AI, via la bourse P1 de la Danish National Research Foundation (DNRF).

Nada Lavrač and Sepp Hochreiter do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.