L’impossible oubli de ChatGPT et autres chatbots

Quand ChatGPT a révélé à Shubham Agarwal que leurs échanges avaient pu influencer les réponses que l’agent conversationnel avait apportées à d’autres personnes, ce journaliste spécialisé dans la tech s’est précipité pour effacer les informations le concernant de la mémoire du chatbot.

Problème, raconte-t-il dans New Scientist, il n’a pas trouvé de bouton “supprimer” : les chatbots fondés sur l’intelligence artificielle (IA) et formés sur des ensembles de données comprenant un grand nombre de sites Internet et d’articles en ligne n’oublient jamais ce qu’ils ont appris.

Pourtant, les entreprises qui développent ce genre d’IA sont tenues de se conformer au “droit à l’oubli”. Aussi connu sous le nom de “droit à l’effacement”, il s’appuie sur une directive européenne sur la protection des données et permet à chacun de demander à un organisme l’effacement de données à caractère personnel le concernant.

L’incapacité des chatbots à se conformer à ce droit signifie que, potentiellement, ils sont susceptibles de divulguer des informations personnelles. “Pour le moment, les entreprises d’IA ont recours à des solutions provisoires de ‘masquage’ consistant à programmer leurs services pour bloquer l’accès à certaines informations et à ne pas révéler les réponses. ‘Désolé, je ne peux pas répondre à votre requête’, dit ChatGPT, par exemple, quand je lui demande de constituer un dossier personnel sur moi”, raconte Shubham Agarwal dans New Scientist.

Un concours lancé par Google

Cela signifie malgré tout qu’il existe toujours un risque que ces informations apparaissent dans les réponses du chatbot à la suite de problèmes ou même d’interventions malveillantes. Cet impossible oubli signifie aussi “que nous sommes incapables d’empêcher les hackeurs de manipuler les productions de l’IA en insérant de fausses informations ou des instructions malveillantes dans les données [d’entraînement]”, relève encore le journaliste indépendant.

Dans son article publié par l’hebdomadaire britannique, il recense les différentes approches des chercheurs dans les universités mais aussi celles des sociétés comme Google ou OpenAI (créatrice de ChatGPT) pour tenter de retirer les informations potentiellement sensibles de la mémoire des IA sans avoir à les réentraîner en repartant de zéro. “Une chose est sûre, note-t-il, c’est qu’il n’y a pas de favori dans la course au désapprentissage [des IA].”

[...] Lire la suite sur Courrier international

Sur le même sujet :