OpenAI perd un quatrième responsable de l’entreprise pour désaccords éthiques

“Concevoir des machines plus intelligentes que les humains est une entreprise par définition dangereuse. OpenAI porte cette immense responsabilité au nom de l’humanité tout entière.”

Jan Leike

Ex-chargé de la sécurité d'OpenAI, coresponsable de la cellule chargée de l’éthique et de la protection des humains

Le navire de la tech OpenAI perd peu à peu son équipage : Jan Leike, l’un des principaux chercheurs en sécurité de l’entreprise, est le quatrième membre à démissionner ce mois-ci.

Il était le “coresponsable du superalignement” à OpenAI, un poste qui consistait à veiller à ce que les systèmes d’intelligence artificielle (IA) “respectent les valeurs et les objectifs de l’humanité”, écrit le quotidien britannique The Guardian. Il explique aujourd’hui ne plus retrouver ces fameuses valeurs dans le fonctionnement de l’entreprise.

Ce départ soudain a lieu dans la foulée de celui d’Ilya Sutskever, cofondateur d’OpenAI et figure emblématique du secteur, et de ceux de “deux hauts responsables de la sécurité chez OpenAI qui ont récemment démissionné” pour des désaccords éthiques, souligne le Guardian.

“Au fil des années, l’importance accordée à la sûreté et le respect des procédures sont passés au second plan au profit de produits clinquants”, écrit Jan Leike sur son compte X, en regrettant que l’entreprise n’investisse pas “davantage de ressources dans la sécurité, les répercussions sociales, la confidentialité et la sûreté” de ses modèles.

Cette démission est intervenue à la veille d’un sommet mondial sur l’IA organisé à Séoul, dont le thème central est la surveillance de cette technologie. Dès son ouverture, seize géants de l’IA, dont OpenAI, se sont engagés à “ne pas développer des logiciels qui pourraient menacer l’humanité” en signant une charte, rapporte le quotidien londonien The Times.

“Risques extrêmes pour l’humanité”

Timing bien calculé ou coïncidence ? Toujours est-il qu’avec cette charte, pensée pour “apaiser les craintes concernant la technologie”, les entreprises d’IA s’engagent à “atténuer les risques extrêmes pour l’humanité”, dont l’un des principaux est “la perte de contrôle d’un système superintelligent par l’homme”.

Au cœur de ces craintes se trouve ainsi “la croyance qu’un jour les systèmes d’IA seront plus intelligents que les experts humains”, relève le Times. Une crainte que partage vivement Jan Leike, le démissionnaire d’OpenAI.

[...] Lire la suite sur Courrier international

Sur le même sujet :