Un avocat base sa défense sur des jurisprudences mentionnées par ChatGPT, mais qui n’existent pas
Le 31 mai 2023 à 05h10
2 min
Droit
Droit
Aux États-Unis, un certain Roberto Mata avait porté plainte après qu'un chariot en métal a heurté son genou dans un aéroport. Pour éviter de voir sa plainte rejetée, Peter LoDuca, son avocat, devait trouver des cas similaires où les plaignants avaient eu gain de cause, explique BFM.
Or, précise Le Figaro, le juge new-yorkais chargé du dossier, P. Kevin Castel, a découvert que « six des arrêts invoqués renvoient à de fausses décisions de justice et mentionnent de fausses citations ».
L'un des collaborateurs de l'avocat, Steven A. Schwartz, a reconnu avoir préparé le dossier en effectuant des recherches sur ChatGPT. Fort de plus de trente ans d'expérience comme juriste et une solide connaissance du droit, il n'avait jamais encore utilisé ChatGPT, et ignorait qu'une partie de ses réponses pouvaient être inventées (ou « hallucinées »), et donc se révéler erronées.
Les captures d'écran transmises au tribunal montrent que ChatGPT lui aurait répondu que ses sources étaient LexisNexis et Westlaw, deux bases de données référençant des décisions de justice, mais il n’avait pas vérifié.
Les deux avocats ont été convoqués à une audience le 8 juin prochain, en vue d'une éventuelle procédure disciplinaire.
Le 31 mai 2023 à 05h10
Commentaires (39)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 31/05/2023 à 05h13
Décidément, Brassens va tourner en boucle pendant longtemps.
Le 31/05/2023 à 05h33
C’est quand même ballot, quand on sait que LexisNexis vend des stats sur les décisions de justice (bossé un temps sur un de leurs produits, où l’on souhaitait par exemple savoir dans quelle région tel type d’affaire se résolvait en faveur de telle partie) Ils auraient peut-être pu sortir les cas intéressants, moyennant quelques brouzoufs.
Le 31/05/2023 à 06h18
Une news qui doit rassurer bon nombre d’avocats qui pensaient devoir se reconvertir à cause de ChatGPT.
Quant à lui, il peut se reconvertir tout de suite… à cause de ChatGPT.
Le 31/05/2023 à 08h39
Hum, chez JP & Morgan il y a déjà 2-3 ans au moins qu’une légion d’avocats spécialisés en recherche jurisprudence a été remplacée par un algo…
Le 31/05/2023 à 09h06
Un algo ou une IA ?
Le 31/05/2023 à 14h02
Dans l’article, ils parlaient d’IA.
Pour moi, ce n’était pas de l’IA mais un algo.
Le 31/05/2023 à 06h22
Sa défense ? Alors qu’il est le plaignant ? J’ai raté un truc ?
Le 31/05/2023 à 07h07
Ses avocats ne préparaient pas la défense du plaignant, mais justifiait sa demande.
Pour qu’une plainte soit recevable, il faut qu’elle soit justifiée.
Sinon, elle est rejetée par manque d’intérêt à agir.
Le 31/05/2023 à 07h14
C’est une plaidoirie donc, pas une défense.
Certainement une mauvaise traduction (plaidoirie se disant defense en anglais…)
Le 31/05/2023 à 07h56
Plaider veut dire défendre, soutenir, faire valoir les droits.
Le 31/05/2023 à 07h54
Un avocat défend les intérêts, la cause de quelqu’un.
Ce n’est pas le défendeur face au demandeur, c’est vrai. Peut-être que tu as d’autres mots synonymes qui ne prêtent à aucune équivoque ?
Le 31/05/2023 à 06h44
Le 31/05/2023 à 08h23
En effet, mais le verbe c’est “plaider”, pas “défendre”. On va donc réécrire le titre sans anglicisme :
“un avocat base sa défense (…)” -> un avocat fonde sa plaidoirie sur (…)
(oui, “baser” dans ce sens là est aussi un anglicisme)
Le 31/05/2023 à 10h00
“Un avocat fonde sa plaidoirie sur (…)”
Le 31/05/2023 à 09h49
ChatGPT n’étant pas un outil de recherche, faut être un peu con pour l’utiliser ainsi.
C’est comme si les chercheurs du GIEC utilisaient random.org comme source des données.
Le 31/05/2023 à 10h14
Les avocats (du monde entier) n’ont ils pas des logiciels “dictionnaires intelligent” pour justement ne pas faire ce genre de bêtise ?
Le 31/05/2023 à 10h40
Bien ça fait une sélection naturelle (oui je suis sévère et j’exagère un peu mais quand il s’agit de juridique, c’est le boulot de l’avocat d’être rigoureux dans le moindre détail, et ne pas vérifier l’existence d’une jurisprudence utilisée dans l’argumentaire, ça fait très “étudiant de 2ème année” dans la démarche et encore).
À la limite ça aurait été un outil qu’il utilise sans soucis depuis des années ce serait compréhensible, mais un nouvel outil, le premier réflexe c’est de le mettre en doute. APrès peut-être qu’il a effectivement vérifié que les 2-3 premières existaient puis s’est dit “c’est bon l’outil fonctionne ça roule” possible aussi vu la pression qu’ils se tapent.
Mais zut quoi.
Le 31/05/2023 à 12h22
C’est bien tout le problème de le présenter comme un moteur de recherche (questions, réponses, suggestions). Et au vu de l’orientation “oufti de recherche” que prend l’IA générative avec Bing, Bard & co, ça risque pas de s’arranger 😑
Le 31/05/2023 à 13h35
Y a t-il une différence ?!
La notion d’intelligence chez l’homme fait encore débat, alors dans la machine, on va la chercher longtemps…
Le 31/05/2023 à 14h46
Du mauvais usage des AI, chap. 2633739 …
Le 31/05/2023 à 14h46
Une IA c’EST un algo.
Le 31/05/2023 à 14h55
Ah mais une IA c’est un algo et ce n’est pas un programme? Pardon ;)
Je le sais bien qu’une IA c’est un algo. Mais on nous vend à toute les sauces de l’IA qui n’est pas de l’IA.
De mémoire, le “truc” cherchait par mot clefs et autres critères des jugements précédents pour trouver une jurisprudence favorable à l’affaire en cours. Pour moi, ce n’est pas de l’IA :)
A la base, j’ai parlé de ça car si une légion d’avocats a déjà été remplacée par un simple algo, amha, une bonne partie de la profession peut se faire du souci avec le développement d’une IA spécialisée dans leur domaine.
Le 31/05/2023 à 21h17
Non, ça n’est pas un algo, en tout cas pas au sens premier (wiktionnaire) :
Le 01/06/2023 à 04h44
Et donc qu’est-ce qui empêche toto de lire les opérations ambiguës des modèles de deep learning ?
Doit-on renier la photographie dans le cinéma au seul motif (faux) qu’il y aurait du mouvement ?
Le 31/05/2023 à 17h11
Excellent
Encore quelques affaires dans le genre et la hype autour de ce truc va retomber comme un soufflé, la bubulle risque d’exploser plus vite que prévu et dommage pour ceux qui y ont investi des fortunes
C’est con pour Nvidia qui comptait se servir de l’IA pour continuer à vendre du GPU hors de prix par containers entiers pour compenser l’effondrement des cryptos machins
Le 31/05/2023 à 17h42
Ce fait divers ne démontre rien à part que cet avocat est un incompétent.
Le 02/06/2023 à 15h15
Je ne suis pas d’accord, ça démontre que les “IA” dans leur état actuel sont très loin de la solution universelle à tous les maux que le marketing essaye de nous faire avaler, c’est au mieux un outil pouvant s’avérer utile dans certains cas particuliers, et encore comme avec n’importe quel outil un peu évolué à condition de savoir s’en servir correctement et en interpréter les résultats sinon ça donne juste n’importe quoi comme ici.
Ah et oui bien sur ça démontre également que cet avocat est aussi incompétent que fainéant et vice versa
Le 02/06/2023 à 15h38
Le fait que les outils basés sur l’IA soient sur-fantasmés par le marketing, on est d’accord, c’est ce que je disais en #33.
Le 31/05/2023 à 18h35
” et ignorait qu’une partie de ses réponses pouvaient être inventées (ou « hallucinées »), et donc se révéler erronées”
c’est pas que ça, la pertinence de la réponse de ChatGPT va tenir compte du nombre d’occurrences trouvées dans ses recherches. c’est con. (mais humain)
Le 31/05/2023 à 18h48
“ont été convoqués […], en vue d’une éventuelle procédure disciplinaire.”
Bien fait. ChatGPT peut être un super outil pour indiquer où trouver des infos, mais pas pour en donner.
PT qu’il devrait y avoir une loi pour dire que ChatGPT devrait commencer toutes ses phrases par “J’ai end dire que…”
Non, mais sérieusement ?
Le 31/05/2023 à 20h12
Clairement.
2005 : Yeah je trouve tout ce que je veux en moins de 5 minutes !
2013 et suivants : Voilà la recherche, maintenant je dois fouiller dans les résultats pour trouver ma cible entre tout ce qui est inutile ou commercial. Je devrais trouver ce que je cherche dans les 20 minutes…
2023 et suivants : D’abord je demande à machinGPT, et ensuite je lance une recherche afin de vérifier si ce que dit machinGPT est vrai, cela après avoir dû fouiller dans les résultats entre tout ce qui est inutile ou commercial.
C’est beau le progrès. On rajoute des étapes
Le 01/06/2023 à 05h20
Pour moi c’est l’une des plus grosses conneries énoncées autour du marketing de ces solutions. Vendre un générateur de contenu comme un moteur de recherche, c’est absurde. Un cas d’usage plus cohérent serait de lui demander d’analyser les résultats de la recherche pour faire le tri et sortir les plus pertinents selon les critères demandés.
Mais bon, ça laissera du terrain aux moteurs alternatifs à Google (que perso j’utilise quasi plus vu qu’il n’y a que de la pub dessus).
Le 31/05/2023 à 23h10
Faut pas utiliser un générateur de baratins comme si c’était un moteur de recherche ne faisant qu’indexer…
Le 01/06/2023 à 04h58
Bien sûr que non. C’est juste que ça devient difficile à lire facilement pour un cerveau humain. Au final cela reste exécuté par les mêmes ordinateurs et donc toujours les mêmes instructions.
Le 01/06/2023 à 05h10
Oui. Et ainsi, Bill Gator propose de convertir le temps de travail de Bill Glandouille en temps machine de Bill Glados.
Le tout en prétendant que Roger et Jean-Jaques seront remplacés par la nouvelle convention alors que Bill Glandouille devrait passer 30 ans à relire son code pour prétendre d’un intérêt à agir.
Bill Gator prend son billet de la poche droite et le met dans sa gauche : révolution, on vient d’inventer le crédit !
Le 01/06/2023 à 06h27
Bah ajoute l’ambiguité statistique et tu as un modèle type IA
Le 01/06/2023 à 18h19
L’IA, le poisson d’avril permanent.
Le 02/06/2023 à 12h42
Un réseau de neurones c’est un algo. C’est une suite finie et non ambigüe d’opérations permettant d’obtenir un résuntat statistique en fonction d’une entrée et de paramètres.
Le 02/06/2023 à 15h39
Si, c’est ambiguë dans le sens où tu ne sais pas pourquoi chaque neurone fait telle opération.