Dangers de l'IA : doit-on étendre le statut de lanceur d'alerte aux lanceurs d'alarme ?
Une lettre ouverte cosignée par des employés d'OpenAI et de DeepMind appelle à une extension du statut de lanceur d'alerte qui permette à des membres de grandes sociétés de divulguer des informations secrètes lorsqu'il en va du devenir de l'humanité. "Comment ne pas y souscrire, face à la catastrophe annoncée ?", s'interroge notre chroniqueur Jean-Gabriel Ganascia.
Cet article est extrait du mensuel Sciences et Avenir - La Recherche n°931, daté septembre 2024.
Lanceurs d'alerte, whistle-blowers - de whistle, sifflet, et blow, souffler en anglais - ou encore carillonneurs attirent l'attention sur des faits répréhensibles ou contraires à l'intérêt général, afin qu'on enquête et prenne au plus vite des mesures salutaires.
Un statut de lanceur d'alerte reconnu depuis 2016
À l'évidence, lorsqu'elles portent sur des atteintes à la santé des personnes ou sur la détérioration de l'environnement, de telles révélations profitent à tous. Il faut les encourager, en dépit des obstacles qui se dressent. Pour éviter que leurs auteurs pâtissent de ceux qu'ils mettent en cause, des lois les protègent tant en Amérique du Nord qu'en Europe, en particulier en France, depuis qu'un statut de lanceur d'alerte a été reconnu en 2016.
Le 5 juin 2024, une lettre ouverte cosignée par des employés anciens et actuels d'OpenAI et de DeepMind, et parrainée par trois personnalités du secteur, Geoffrey Hinton, Yoshua Bengio et Stuart Russel, dénonçait les dangers cachés des techniques d'intelligence artificielle. Elle en profitait pour appeler à une extension du statut de lanceur d'alerte qui permette à des employés de grandes sociétés de divulguer des informations secrètes lorsqu'il en va du devenir de l'humanité.
Lire aussiL'intelligence artificielle pâtit d'un manque de confiance
70 % de chances que l'IA détruise ou nuise irréversiblement à l'humanité ?
Comment ne pas y souscrire, face à la catastrophe annoncée ? Si ce n'est qu'à force d'effarouchements récurrents, leurs auteurs perdent toute crédibilité. Que sont ces secrets qui sourdent à notre insu ? Ils n'en disent rien, sauf qu'ils provoqueront un cataclysme.
Un des signataires, ancien employé d'OpenAI, Daniel Kokotajlo, estime dans une déclaration faite à la fin mai au New York Times, à 70 % les chances que l'intelligence artificielle générale produite par OpenAI et DeepMind détruise ou nuise irrévers[...]