Et si l’IA pouvait aider à mettre de l’ordre dans Wikipédia ?

Alors qu’on présente souvent l’intelligence artificielle (IA) comme associée à la prolifération de fausses informations, des chercheurs démontrent qu’elle peut être mise au profit de la fiabilité. Du moins pour l’encyclopédie participative en ligne Wikipédia.

Pour une étude parue le 19 octobre dans Nature Machine Intelligence, Fabio Petroni, cofondateur de Samaya AI, une société établie à Londres, et Samuel Broscheit, qui travaille avec l’équipe IA d’Alexa (Amazon), en collaboration avec des membres de l’équipe de recherche fondamentale sur l’IA (Fair) de Meta, ont développé un système alimenté par un réseau de neurones artificiels. Baptisé “SIDE”, ce système “analyse si les références Wikipédia soutiennent les affirmations auxquelles elles sont associées, et suggère de meilleures références pour celles qui ne le font pas”, rapporte Nature.

La fiabilité de l’encyclopédie en ligne repose en effet sur la crédibilité des références, qui doivent être explicitement signalées. Néanmoins, elles sont parfois erronées, dirigent vers des sites web défectueux ou des sources non fiables. Dans ce cas, la communauté d’humains qui y participe contribue à les repérer et, le cas échéant, à les modifier. Une tâche chronophage et pas toujours menée à bien.

IA et humains main dans la main

Interrogé par Nature, Noah Giansiracusa, qui étudie l’IA à l’université Bentley de Waltham, dans le Massachusetts, et n’a pas participé à ces travaux, estime que “cela peut paraître paradoxal de vouloir recourir à l’IA pour obtenir de meilleures références, quand on sait la mauvaise réputation qu’a ChatGPT dans ce domaine à cause de ses approximations et de ses hallucinations. Mais il faut bien voir que les modèles de langage de l’IA ne se réduisent pas aux chatbots.”

Pour mettre à l’épreuve la viabilité de leur système, les chercheurs ont conçu une expérience leur permettant d’interagir avec la communauté Wikipédia anglophone. Ils lui ont soumis les résultats de SIDE. L’équipe a alors constaté que la première recommandation de citation proposée par leur système était préférée par les contributeurs humains de Wikipédia deux fois plus souvent que la citation existante, pour les 10 % des références signalées par SIDE comme étant invérifiables. “Nous pouvons en conclure qu’un système fondé sur l’IA gagnerait à être utilisé, en tandem avec des humains, pour améliorer la fiabilité de Wikipédia”, écrivent les auteurs. Reste à savoir si la communauté Wikipédia y trouvera une véritable utilité.

[...] Lire la suite sur Courrier international

Sur le même sujet :