Un juge colombien a utilisé ChatGPT pour rendre une décision de justice

Un juge colombien a utilisé ChatGPT pour rendre une décision de justice

Un juge colombien a utilisé ChatGPT pour rendre une décision de justice

MotherBoard relève que « le juge Juan Manuel Padilla Garcia, qui préside le premier tribunal de circuit de la ville de Carthagène, a déclaré qu'il avait utilisé l'outil d'intelligence artificielle pour poser des questions juridiques sur l'affaire et avait inclus ses réponses dans sa décision, selon un document judiciaire daté du 30 janvier 2023. »

« L'inclusion de ces textes produits par l'IA n'a en aucun cas pour but de remplacer la décision du juge », précise-t-il dans sa décision : « ce que nous recherchons vraiment, c'est d'optimiser le temps passé à rédiger les jugements après avoir corroboré les informations fournies par l'IA ».

« L'affaire concernait un différend avec une compagnie d'assurance maladie sur la question de savoir si un enfant autiste devait bénéficier d'une couverture pour un traitement médical », précise MotherBoard. Les questions juridiques saisies dans l'outil d'IA incluaient : « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ? » et « La jurisprudence de la cour constitutionnelle a-t-elle rendu des décisions favorables dans des affaires similaires ? »

Le juge Garcia a inclus dans sa décision les réponses complètes de ChatGPT, ainsi que sa propre analyse de la jurisprudence, pour motiver sa décision.

MotherBoard précise que si la loi colombienne n'interdit pas l'utilisation de l'IA dans les décisions de justice, « des systèmes comme ChatGPT sont connus pour donner des réponses biaisées, discriminatoires ou tout simplement fausses » : « En effet, le modèle de langage ne contient aucune "compréhension" réelle du texte – il synthétise simplement des phrases basées sur la probabilité à partir des millions d'exemples utilisés pour entraîner le système. »

Commentaires (15)


Quand on lit le document source (en espagnol) on voit qu’il a posé quatre questions assez simples sur l’existence ou non de jurisprudences.



La question que je me pose c’est surtout : ce n’est pas à l’avocat “requérant” (je ne sais pas si ce terme est approprié ?) de faire ce boulot ? Là j’ai l’impression que ChatGPT a fait les cinq premières minutes du boulot d’un avocat.
En plus on est pas en première instance où les tribunaux peuvent être débordés/les plaignants incompétents, c’est déjà un appel, vu qu’à la fin il confirme la décision des “prud’hommes pour petits problèmes” (?) ( el Juzgado 4º de Pequeñas Causas Laborales de Cartagena)
Je précise que j’ignore tout du fonctionnement de la justice colombienne.



Le juge a-t-il fait le travail de vérification des codes de loi cités (la Ley 1753 de 2015 existe bien) ? Il aurait pu demander le numéro de dossier de la décision de la Corte Constitucional de Colombia par exemple.



Total ce qui me surprend dans cette affaire ce n’est pas forcément ChatGPT.


Bientôt sur vos écrans : 12 chats en colère


:mdr:
Je me suis demandé un instant ce que venaient faire les félidés dans cette histoire.


Généré par LUMIER-E


« L’affaire concernait un différend avec une compagnie d’assurance maladie sur la question de savoir si un enfant autiste devait bénéficier d’une couverture pour un traitement médical »



Je ne pense pas qu’une compagnie d’assurances n’essayes pas d’attaquer la décision du juge, quand bien même il dit avoir rendu ses propres conclusions…



tpeg5stan a dit:


Je précise que j’ignore tout du fonctionnement de la justice colombienne.




Ce sont souvent des hommes avec des gilets pare-balles, dans des voitures blindées qui se suivent, et dont la famille est protégée aussi ? :)


Je me pose quand même la question de la véracité des restitutions faites par chatGPT. Je me demande même si l’outil ne fait pas des croisements. Sur cette hypothèse, on pourra quand même manipuler le résultat.


Il n’y a aucune garantie de la véracité des “propos” de chatGPT. Ce n’est qu’une suite de mots fabriquée de façon probabiliste. En plus, il s’appuie sur des données acquises en 2021 pour la version actuelle.



Il n’y a qu’à lire ce qu’il affirme sur les œufs de vache. :D



Un outil qui peut raconter n’importe quoi, qui ne donne aucune source pour justifier ce qu’il dit, qui est daté, ce n’est pas pour moi.



En plus, il ne respecte pas le RGPD. Ma plainte a été transmise au service de l’exercice des droits et des plaintes de la CNIL. Affaire à suivre.


J’ai moi aussi testé les questions sur les oeufs de vache sur ChatGPT après avoir vu un post Linkedin à ce sujet.



Du coup, vu que ce sujet tourne sur internet, je me demande si ce n’est pas en entrainant régulièrement ChatGPT à donner son avis sur les oeufs de vache qu’on finit par le convaincre qu’ils existent vraiment. Sans cet entrainement, on aurait eu une réponse du type “les mammifères ne pondent pas d’oeufs”.



Y a t il sur ce forum des personnes qui pourraient infirmer ou confirmer cette idée ?


ChatGPT n’apprend plus depuis 2021 (certainement pour éviter le genre de problèmes qu’a eu Microsoft avec Tay).



tpeg5stan a dit:



Le juge a-t-il fait le travail de vérification des codes de loi cités (la Ley 1753 de 2015 existe bien) ?




…après avoir corroboré les informations fournies par l’IA…



(reply:2118816:univ_paris) “les mammifères ne pondent pas d’oeufs”. Allez dire ça aux ornithorynques. Et à leurs autres copains monotrèmes.



Effectivement, il y a les ornithorynques …
Pan sur le bec, comme disent certains.
Conclusion : un humain est au moins aussi bon que ChatGPT pour faire des erreurs



Fseg a dit:




Les ornithorynques, c’est vraiment une aberration de la nature :transpi:
Bec de canard, queue de castor, mammifère ovipare, griffes venimeuses (le venin est rarissime chez les mammifères)…


En même temps il y a une classe à part pour les mammifères qui pondent des oeufs (avec un seul ordre et 2 familles …).



C’est vraiment par ce qu’il fallait bien les classer quelque part …


Fermer