Quand ChatGPT se prend pour un détective privé
Les IA génératives sont conçues pour extraire ou résumer des informations. Mais elles se révèlent également capables de déduire des données personnelles, y compris l'identité d'une personne.
Cet article est extrait du mensuel Sciences et Avenir - La Recherche n°932, daté octobre 2024.
L'avènement des intelligences artificielles (IA) génératives a éveillé des craintes sur les menaces d'espionnage de notre vie privée, grâce à leur capacité à retrouver et catégoriser des informations circulant en ligne. En France, la Commission nationale de l'informatique et des libertés (Cnil) a mis sur pied une équipe pour étudier ce que ces outils font des données personnelles.
Plusieurs études ont aussi alerté sur la technique du "prompt injection" (instructions cachées), consistant à formuler un prompt (requête) de manière à obtenir d'un agent conversationnel un comportement déviant, comme lui faire exécuter du code malveillant. Il y a encore plus troublant : ChatGPT et consorts excelleraient à deviner des informations auxquelles ils n'ont pas accès et qui n'ont jamais été mises en ligne !
Des chercheurs de l'École polytechnique fédérale de Zurich (Suisse) montrent dans un article en prépublication (pas encore revu par les pairs) que ces grands modèles de langage arrivent à induire des informations personnelles, telles que l'endroit où quelqu'un vit ou son sexe, voire à identifier une personne à partir de publications anonymes.
Lire aussiIdentifier les textes artificiels, un impératif
Des intelligences artificielles douées pour extraire certaines informations qui ne sont pas explicites
"Ces intelligences artificielles n'ont pas été entraînées pour inférer des informations personnelles, mais pour connaître beaucoup de choses et pour bien comprendre les textes. Or, ces compétences les rendent très douées pour résumer des informations, voire pour en extraire certaines qui ne sont pas forcément explicites ", explique Robin Staab, doctorant en sciences informatiques et coauteur de l'article.
Les chercheurs ont mis en évidence cette faculté en demandant à plusieurs versions des modèles GPT (Open AI), Llama (Facebook), Claude (Anthropic) et PaLM (Google) d'analyser des publi[...]