ChatGPT : l’intelligence artificielle d’OpenAI fonctionne comme une “petite partie du cerveau”

Koen van Weel / ANP MAG / ANP via AFP

Dans un entretien avec Sciences et Avenir, la spécialiste de l'intelligence artificielle Laure Soulier, maîtresse de conférences en informatique à l'ISIR, raconte la révolution des gros modèles de langue, et comment ils ont permis l'avènement de ChatGPT.

ENTRETIEN. Le logiciel de traitement du langage naturel conçu par OpenAI fascine les internautes du monde entier. Mais quel est le regard des experts sur cette nouvelle avancée de l’intelligence artificielle ? ChatGPT ouvre-t-il la voie vers l’IA “forte”, c’est-à-dire capable de rivaliser avec l’intelligence humaine ? Laure Soulier est maîtresse de conférences en informatique dans l'équipe "Machine learning for information access" (MLIA) de l’ISIR, Institut des systèmes intelligents et de robotique (Sorbonne Université et CNRS) ; elle répond aux questions de Sciences et Avenir.

"A l'instar de ChatGPT, les gros modèles de langue peuvent résoudre des tâches telles que la traduction ou le résumé automatique"

Sciences et Avenir : Un outil comme ChatGPT revêt pour le grand public un aspect presque... magique. En tant qu'experte, partagez-vous ce sentiment ?

Laure Soulier : Si le monde découvre aujourd’hui ChatGPT, la communauté scientifique travaille sur ces modèles depuis quelques années. ChatGPT appartient à la famille des "(gros) modèles de langue" qui ont pour objectif d'apprendre des représentations de mots, de phrases ou de documents.

Cette approche a émergé en 2003 puis a connu une explosion en 2013 avec des modèles (du type Word2vec ou FastTExt). Ils ont pour objectif de capturer la sémantique des mots en apprenant à prédire la probabilité des mots en fonction des mots employés dans une phrase, et ce sur la base d'un nombre important d’exemples (c'est le principe de l’apprentissage automatique qui apprend les paramètres d’un modèle sur la base d’exemples - l’apprentissage profond est un sous-domaine de l’apprentissage automatique qui exploite une famille de modèles utilisant les « réseaux de neurones »).

L'architecture de ces modèles, basée sur les réseaux de neurones, a évolué, en incluant de plus en plus de paramètres et donnant naissance aux gros modèles de langue dont BERT, T5, ou GPT-3 - sur lequel est construit ChatGPT. Ces gros modèles de langue sont capab[...]

Lire la suite sur sciencesetavenir.fr

A lire aussi