OpenAI perd un quatrième responsable de l’entreprise pour désaccords éthiques
“Concevoir des machines plus intelligentes que les humains est une entreprise par définition dangereuse. OpenAI porte cette immense responsabilité au nom de l’humanité tout entière.”
Jan Leike
Ex-chargé de la sécurité d'OpenAI, coresponsable de la cellule chargée de l’éthique et de la protection des humains
Le navire de la tech OpenAI perd peu à peu son équipage : Jan Leike, l’un des principaux chercheurs en sécurité de l’entreprise, est le quatrième membre à démissionner ce mois-ci.
Il était le “coresponsable du superalignement” à OpenAI, un poste qui consistait à veiller à ce que les systèmes d’intelligence artificielle (IA) “respectent les valeurs et les objectifs de l’humanité”, écrit le quotidien britannique The Guardian. Il explique aujourd’hui ne plus retrouver ces fameuses valeurs dans le fonctionnement de l’entreprise.
Ce départ soudain a lieu dans la foulée de celui d’Ilya Sutskever, cofondateur d’OpenAI et figure emblématique du secteur, et de ceux de “deux hauts responsables de la sécurité chez OpenAI qui ont récemment démissionné” pour des désaccords éthiques, souligne le Guardian.
“Au fil des années, l’importance accordée à la sûreté et le respect des procédures sont passés au second plan au profit de produits clinquants”, écrit Jan Leike sur son compte X, en regrettant que l’entreprise n’investisse pas “davantage de ressources dans la sécurité, les répercussions sociales, la confidentialité et la sûreté” de ses modèles.
Yesterday was my last day as head of alignment, superalignment lead, and executive @OpenAI.
— Jan Leike (@janleike) May 17, 2024
Cette démission est intervenue à la veille d’un sommet mondial sur l’IA organisé à Séoul, dont le thème central est la surveillance de cette technologie. Dès son ouverture, seize géants de l’IA, dont OpenAI, se sont engagés à “ne pas développer des logiciels qui pourraient menacer l’humanité” en signant une charte, rapporte le quotidien londonien The Times.
“Risques extrêmes pour l’humanité”
Timing bien calculé ou coïncidence ? Toujours est-il qu’avec cette charte, pensée pour “apaiser les craintes concernant la technologie”, les entreprises d’IA s’engagent à “atténuer les risques extrêmes pour l’humanité”, dont l’un des principaux est “la perte de contrôle d’un système superintelligent par l’homme”.
Au cœur de ces craintes se trouve ainsi “la croyance qu’un jour les systèmes d’IA seront plus intelligents que les experts humains”, relève le Times. Une crainte que partage vivement Jan Leike, le démissionnaire d’OpenAI.
[...] Lire la suite sur Courrier international
Sur le même sujet :
Au festival South by Southwest, les “trois révolutions simultanées” de l’IA inquiètent
L’IA pourrait renforcer la fraude autant que le progrès scientifique
Elon Musk pense-t-il vraiment au bien de l’humanité en poursuivant OpenAI ?
Il était une petite start-up française, Mistral AI, qui voulait devenir grande