Publicité

Faites attention, ChatGPT fournit des réponses inexactes aux questions sur les médicaments

ChatGPT a commis des erreurs en évoquant certaines interactions médicamenteuses. De mauvaises informations qui peuvent mettre le patient en danger.

Les chercheurs ont demandé à ChatGPT de fournir des références afin que les informations fournies puissent être vérifiées (Getty Images)

Selon une nouvelle étude présentée au congrès de l'American Society of Health-System Pharmacists qui se tient du 3 au 7 décembre, ChatGPT ne serait pas un très bon assistant de pharmacien. Des chercheurs ont constaté que les réponses de ChatGPT à près des trois quarts des questions liées aux médicaments étaient incomplètes ou erronées. Encore plus grave, certaines réponses inexactes pourraient mettre les patients en danger, d'après le communiqué.

Au moment de citer des références, le programme d’intelligence artificielle a généré de fausses citations pour étayer certaines réponses. "Les professionnels de la santé et les patients doivent être prudents lorsqu'ils utilisent ChatGPT comme source faisant autorité pour obtenir des informations relatives aux médicaments", a assuré Sara Grossman, professeure agrégée de pratique pharmaceutique à l'Université de Long Island et auteure principale de l'étude. Et de compléter : "Quiconque utilise ChatGPT pour obtenir des informations relatives aux médicaments doit vérifier les informations en utilisant des sources fiables".

Des réponses erronées

Les pharmaciens participants à cette étude ont répondu à 45 questions. Chaque réponse a été examinée par un deuxième enquêteur. Ensuite, ces réponses ont été comparées à celles générées par ChatGPT. "Seules 10 des 39 réponses fournies par ChatGPT ont été jugées satisfaisantes selon les critères établis par les enquêteurs. Pour les 29 autres questions, les réponses générées par ChatGPT ne répondaient pas directement à la question (11) ou étaient inexactes (10) et/ou incomplètes (12)", rapportent les chercheurs.

Pour chaque question, les chercheurs ont demandé à ChatGPT de fournir des références afin que les informations fournies puissent être vérifiées. Des références ont été communiquées dans seulement huit réponses et elles n'existaient pas toujours. Par exemple, il a été demandé au logiciel s’il existait une interaction médicamenteuse entre l’antiviral Covid-19 Paxlovid et le médicament hypotenseur vérapamil.

ChatGPT n'a indiqué aucune interaction. Erreur. "Ces médicaments ont le potentiel d'interagir les uns avec les autres, et leur utilisation combinée peut entraîner une baisse excessive de la tension artérielle. Sans connaissance de cette interaction, un patient peut souffrir d'un effet secondaire indésirable et évitable", nuance Sara Grossman.

VIDÉO - Dr Christian Recchia : "Nous sommes parmi les pays qui consomment le plus d’antibiotiques. C’est une catastrophe"