Colombie : un juge utilise l’intelligence artificielle ChatGPT pour statuer

Un juge a rendu une décision de justice grâce à ChatGPT - Getty Images/iStockphoto

Le juge colombien Juan Manuel Padilla a utilisé ChatGPT pour rendre une décision de justice en faveur d’un enfant autiste. Une méthode surprenante qui inquiète les défenseurs des droits civiques.

“Le mineur autiste est-il dispensé de payer des frais de modération pour ses thérapies ?”. C’est la question qu’un juge colombien, Juan Manuel Padilla, a posé au chatbot d’intelligence artificielle ChatGPT pour rendre une décision de justice ce lundi 30 janvier 2023, rapporte le journal suisse La Tribune de Genève, relayant une interview dans une radio locale.

Comme l’indique la question du juge, la décision concernée portait sur la possibilité pour un petit garçon autiste d’être exempté de frais médicaux dans le cadre de son traitement. Heureusement pour l’enfant et sa mère, l’intelligence artificielle (IA) a tranché dans son sens : “Oui, c’est exact. Selon la loi en vigueur en Colombie, les mineurs ayant reçu un diagnostic d’autisme sont exemptés du paiement de frais de modération pour leurs thérapies”.

Une méthode contestable

Visiblement très porté sur la technologie et les méthodes pouvant accélérer le travail de la justice colombienne, Juan Manuel Padilla considère que de tels outils pourraient être couramment utilisés par ses homologues. “Cela ouvre des perspectives immenses, aujourd’hui ça peut être ChatGPT, mais dans trois mois ça pourrait être n’importe quelle autre alternative pour faciliter la rédaction de textes juridiques sur laquelle le juge peut s’appuyer”, explique le magistrat en précisant que ce travail était autrefois fait par les secrétaires des juges.

Toujours selon Juan Manuel Padilla, cela n’entrave en rien le travail de la justice ni ne supprime sa dimension humaine : “Les juges ne sont pas des imbéciles, ce n’est pas parce que nous posons des questions à l’application que nous cessons d’être des juges, des êtres pensants”. Une vision que ne partage pas du tout les défenseurs des droits civiques. Et pour cause, comme le raconte notamment le professeur Juan David Gutiérrez, Chat GPT donne parfois des réponses différentes à une même question. Pire encore, il lui arrive de créer des informations de toutes pièces. “Comme pour d’autres IA dans d’autres domaines, sous le prétexte d’une efficacité supposée, les droits fondamentaux sont mis en danger”, tranche l’universitaire.

Ce contenu peut également vous intéresser