Le long-termisme, l'idéologie qui façonne le débat sur l'IA

La conférence mondiale sur l'intelligence artificielle de Shangaï, en Chine, le 6 juillet 2023 (WANG Zhao)
La conférence mondiale sur l'intelligence artificielle de Shangaï, en Chine, le 6 juillet 2023 (WANG Zhao)

C'est la philosophie préférée de la Silicon Valley: le long-termisme, qui se concentre sur l'amélioration du bien-être à long terme de l'humanité plutôt que sur les humains d'aujourd'hui, explique que le débat autour de l'intelligence artificielle se soit focalisé sur l'idée de l'extinction des Hommes.

Elon Musk et Sam Altman, patron d'OpenAI (ChatGPT), ont fait sensation en signant des tribunes mettant en garde contre un risque d'extinction de l'humanité par l'IA... même si leurs critiques estiment qu'ils ont tout à gagner en affirmant aussi que seuls leurs projets pourront nous sauver.

Et des critiques de plus en plus virulentes mettent en garde contre les dangers de cette philosophie et contre le fait que l'obsession de l'extinction à long terme détourne l'attention des problèmes actuels liés à l'IA, comme le vol de données et les algorithmes biaisés.

Le mouvement et les idéologies qui sont liées au long-termisme, comme le transhumanisme (l'idée d'augmenter l'être humain par la technologie) et l'altruisme efficace (produire le plus de bien possible), exercent une influence considérable dans les universités anglophones, d'Oxford (Royaume-Uni) à Stanford (Etats-Unis), et dans le secteur de la technologie.

De grands investisseurs de la tech comme Peter Thiel et Marc Andreessen financent des entreprises travaillant à prolonger la vie et d'autres projets liés à cette mouvance.

Face à cela, ses détracteurs estiment que ce courant de pensée marginal exerce une influence bien trop grande sur les débats publics.

- "Vraiment dangereux" -

Les adeptes du long-termisme se projettent dans un avenir lointain où des milliards d'êtres humains voyageront dans l'espace pour coloniser de nouveaux mondes. Et affirment que nous avons les mêmes devoirs envers chacun de ces futurs humains qu'envers ceux qui vivent actuellement. Puisqu'ils sont plus nombreux, les individus à venir pèsent à leurs yeux davantage que ceux d'aujourd'hui.

Ce type de raisonnement rend cette idéologie "vraiment dangereuse", estime Emile Torres, auteur de "Human Extinction: A History of the Science and Ethics of Annihilation" (L'extinction de l'Homme: une histoire de la science et de l'éthique de l'anéantissement).

Pour lui la théorie repose sur des principes qui, dans le passé, ont pu justifier des tueries de masse et génocides. "Lorsque vous avez une vision utopique de l'avenir" et que "vous la combinez à une morale utilitaire, dictant que la fin peut justifier les moyens, c'est dangereux", explique-t-il.

Comme d'autres experts, il aimerait recentrer le débat sur les problèmes déjà bien réels liés à l'IA, tels que les droits d'auteurs, les biais cognitifs ou la concentration des richesses entre les mains de quelques entreprises.

Un discours qui perce difficilement face aux tribunes alarmistes sur l'avenir, selon Emile Torres.

"Parler de l'extinction de l'humanité, d'un véritable événement apocalyptique au cours duquel tout le monde meurt, est tellement plus captivant que de parler des travailleurs kényans payés 1,32 dollar de l'heure" pour modérer des contenus utilisés dans l'IA "ou des artistes et des écrivains exploités" pour alimenter les modèles d'intelligence artificielle, souligne l'historien.

  

- Eugénisme -

Le long-termisme est né des travaux du philosophe suédois Nick Bostrom portant sur le risque existentiel et le transhumanisme, dans les années 1990 et 2000.

D'après la chercheuse Timnit Gebru, ex-membre de l'équipe de recherche en éthique et IA de Google qui en avait été renvoyée, le transhumanisme est lié à l'eugénisme (les tentatives d'améliorer l'humanité au travers d'une sélection génétique) depuis ses origines. Le biologiste britannique Julian Huxley, qui a inventé le terme, était ainsi également un théoricien de l'eugénisme.

Et Bostrom a longtemps été accusé de soutenir l'eugénisme. Le philosophe, qui dirige le Future of Humanity Institute (Institut du futur de l'humanité) à l'université d'Oxford, a présenté ses excuses en janvier après avoir admis avoir écrit des messages racistes sur internet dans les années 1990.

"Suis-je favorable à l'eugénisme ? Non, pas au sens où ce terme est généralement compris", avait-il alors assuré.

jxb/leb-elc/gvy