Publicité

Pourquoi, Grok, le chatbot d'IA d'Elon Musk, ne peut être qualifié d'IA open source ?

Pourquoi, Grok, le chatbot d'IA d'Elon Musk, ne peut être qualifié d'IA open source ?

Le chatbot d'intelligence artificielle (IA) d'Elon Musk nommé, Grok, n'est pas aussi open source qu'il le dit et les nombreuses entreprises qui le prétendent ne le sont pas non plus, selon l'OSI.

Fondée en 1998, l'Open Source Initiative (OSI) est une organisation à but non lucratif qui défend le terme "open source". Elle travaille actuellement à la mise à jour de sa définition pour y inclure l'IA open source.

L'open source signifie généralement que le code source du logiciel est accessible à tous dans le domaine public pour être utilisé, modifié et distribué.

La définition de l'OSI précise que le logiciel doit également répondre à dix critères, dont l'existence d'un moyen bien connu d'obtenir le code source à un coût raisonnable ou gratuitement, l'absence de discrimination et le fait que la licence ne restreigne pas l'utilisation d'autres logiciels.

Mais les systèmes d'intelligence artificielle sont plus difficiles à évaluer au regard des 10 points de l'OSI.

"C'est une période très nouvelle de l'histoire où nous disposons d'un nouvel artefact qui est toujours le fruit de l'ingéniosité, de l'intelligence et de la créativité de l'homme".

"La définition du logiciel libre que nous avons utilisée pour les logiciels ne s'applique pas vraiment aux systèmes d'intelligence artificielle", explique Stefano Maffulli, directeur exécutif de l'OSI, à Euronews.

Les entreprises d'IA qui prétendent être open source, comme la dernière entreprise d'IA d'Elon Musk, ouvrent les poids, autrement dit les paramètres numériques qui influencent les performances d'un modèle d'IA - mais pas les données sur lesquelles il est entraîné ni le processus d'entraînement.

Selon Stefano Maffulli, cela signifie qu'il ne peut pas s'agir d'une open source, car les données utilisées pour former ces poids ne sont pas transparentes, ce qui peut poser des problèmes de droits d'auteur et des questions éthiques quant à la partialité des données.

"Ces poids sont nouveaux, et c'est un moment très nouveau dans l'histoire où nous disposons d'un nouvel artefact qui est toujours le fruit de l'ingéniosité, de l'intelligence et de la créativité humaines", précise-t-il.

"Mais en même temps, c'est aussi l'élaboration d'un calcul semi-aléatoire effectué par de grands ordinateurs".

La recherche de la vérité

Dans un message publié sur sa plateforme de médias sociaux, X, Elon Musk a précédemment déclaré que son IA open source était "de loin la plus transparente et la plus soucieuse de vérité", et a poursuivi OpenAI pour avoir abandonné sa mission initiale au profit de l'humanité en s'associant à Microsoft. Pourtant, le Grok d'Elon Musk ne divulgue pas les données sur lesquelles le poids a été entraîné.

En fait, les entreprises ne sont guère incitées à le faire, car dès lors qu'elles annoncent les données sur lesquelles elles s'appuient, elles s'exposent à des poursuites en matière de droits d'auteur.

Nous sommes les gardiens, les garants de la définition, mais nous n'avons pas vraiment de pouvoir pour la faire respecter.

"Tant que nous n'aurons pas un peu de clarté sur le plan juridique, je pense que nous serons toujours confrontés à ce genre de problèmes", affirme Stefano Maffulli.

Une autre raison pour laquelle les entreprises d'IA dites "open source" peuvent ne pas vouloir être totalement transparentes est la préservation des secrets commerciaux.

L'OSI a donc une tâche difficile à accomplir lorsqu'il s'agit de définir l'IA open source. L'organisation a entamé ses recherches il y a deux ans, après que le ChatGPT d'OpenAI a été propulsé sur la scène, en novembre 2022.

Le plus grand obstacle, selon lui, lorsqu'il s'agit de définir l'IA open source est de comprendre la dépendance entre les données des ensembles d'entraînement et les poids des modèles, indique Stefano Maffulli.

Comment définir l'IA open source

L'OSI a commencé par réunir un groupe d'experts initiaux issus d'organisations telles que la Fondation Mozilla et Wikipédia, mais aussi de groupes de la société civile, d'universités et d'entreprises de Big Tech telles que Microsoft et Meta.

Les groupes de travail ont ensuite évalué trois modèles d'IA générative - Llama de Meta, Illusion AI et Bloom - ainsi qu'un modèle d'IA non générative utilisant l'apprentissage automatique.

Les groupes de travail ont voté sur les exigences minimales pour qu'un système d'IA soit open source.

Stefano Maffulli affirme que les groupes de travail "ont tous dit qu'il fallait au moins une exigence minimale de transparence des données".

L'OSI est en train d'affiner ce projet de définition, qu'elle prévoit de rendre public au cours de l'été.

Mais cela ne signifie pas qu'une fois la définition finalisée, l'OSI s'en prendra à Elon Musk ou à d'autres entreprises d'IA autoproclamées "open source".

"Nous sommes les gardiens et les responsables de la définition, mais nous n'avons pas vraiment le pouvoir de la faire respecter", concède Stefano Maffulli.

Il ajoute que les juges et les tribunaux du monde entier commencent à reconnaître l'importance de la définition de l'open source, notamment en matière de fusions, mais aussi de réglementation.

Les pays du monde entier sont en train de finaliser la manière dont ils vont réglementer l'IA et les logiciels open source ont été un sujet de discorde.

"La définition de l'open source sert de barrière à l'identification de la publicité mensongère", souligne Stefano Maffulli.

"Si une entreprise affirme que son logiciel est open source, elle doit porter les valeurs que la définition de l'open source véhicule. Sinon, c'est tout simplement déroutant".