ChatGPT et le mirage des intelligences artificielles qui "raisonnent"

OpenAI a présenté, jeudi, son nouveau modèle ChatGPT o1 qui représenterait une “avancée significative” car il serait capable de “raisonner” – bientôt comme un “thésard”, assure le groupe américain. Mais comment un chatbot peut-il raisonner ? En faisant semblant.

ChatGPT a-t-il atteint l’âge de raison ? Son géniteur, OpenAI, soutient que son "bébé" a franchi ce cap. La société américaine a annoncé, jeudi 12 septembre, la sortie de son nouveau modèle d’intelligence artificielle - baptisé o1 - qui aurait été entraîné à effectuer des "raisonnements complexes".

Pour l’instant, ChatGPT o1 a surtout appris à "réfléchir avant de répondre", se félicite OpenAI dans son communiqué. Le but affiché serait d’en faire un grand modèle de langage ("large language model" en anglais, LLM) - ou chatbot - capable de rivaliser avec le raisonnement d’un "thésard" en mathématique, biologie ou physique.

Des champions en probabilité, pas en raisonnement

Vaste programme ! Jusqu’à présent, les grands modèles de langage - tels que ChatGPT - n’étaient pas associés à l’idée de "raisonnement", et "lorsqu’ils s’aventuraient sur ce terrain, ils étaient plutôt mauvais", affirme Mark Stevenson, spécialiste en informatique et modèle de langage à l’université de Sheffield.

C’est ce qui lui permettrait, in fine, de "repousser les limites de la prédiction du prochain mot et donner une meilleure impression de raisonner", poursuit Anthony Cohn.


Lire la suite sur FRANCE 24

Lire aussi:
Publicité Google pour l'IA : une polémique reflet de la peur “du remplacement de l’humain”
ChatGPT et droits d’auteur : le New York Times, héraut de la liberté de la presse
OpenAI : les mathématiques résistent encore et toujours à ChatGPT et à l'IA