ChatGPT poursuivi en justice pour diffamation
Le 09 juin 2023 à 05h09
2 min
Droit
Droit
Mark Walters, un animateur radio américain, porte plainte contre OpenAI car ChatGPT a envoyé à un journaliste une réponse déclarant que Walters détournait des fonds de The Second Amendment Foundation (SAF), une association de défense du port d’armes.
Dans le détail, Fred Riehl, le rédacteur en chef d’un site spécialisé dans les armes à feu, a demandé à ChatGPT de résumer une affaire concernant le Procureur général de Washington, Bob Ferguson. La machine a produit un texte dans lequel Mark Walters est cité comme trésorier et directeur financier de la SAF – ce qu’il n’est pas –, quand bien même Walters n’avait jamais été mentionné auparavant par le journaliste.
Riehl n’a publié aucune des informations produites par ChatGPT. Néanmoins, Walters et ses avocats estiment que le texte produit par la machine porte atteinte à sa réputation.
C’est la première plainte de ce type, et si rien ne dit qu’OpenAI sera condamné pour celle-ci, elle pourrait ouvrir le bal d’une série d’autres poursuites du même type, selon plusieurs juristes interrogés par Gizmodo.
Le 09 juin 2023 à 05h09
Commentaires (19)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 09/06/2023 à 05h25
Va-t-on voir bientôt un démenti en dessous de chaque réponse qui précise que ChatGPT ne fait que générer des phrases qui ne sont ni vraies ni fausses ?
Le 09/06/2023 à 06h06
Et sur la base quelle exception à l’amende ou d’organisation administrative il est souhaitable de déplacer le délit de diffamation dans l’interpersonnel ?
Le 09/06/2023 à 06h10
Mais c’est déjà le cas.
Ecrit en dessous du prompt.
D’ailleurs Infomaniak a ajouté aussi un chatbot basé sur l’IA à sa suite kSuite, dans l’outil kChat (il y a aussi un qui utilise l’API ChatGPT pour comparer, 100 requêtes par jour). Le même avertissement est affiché.
C’est fou comme l’IA démontre la stupidité humaine.
Le 09/06/2023 à 06h31
La mention “Fumer tue” ne remplace pas la responsabilité des vendeurs de tabac. Même les vendeurs de cigarettes électroniques commencent à être mis face à leur responsabilité.
Le tour viendra des exploitants d’algorithmes, et on ne leur demandera pas leur permission comme avec les fakenews des médias sociaux. Ça a pris des dizaines d’années de lutte contre le tabagisme.
Le 09/06/2023 à 06h48
Oui, c’est juste fou à quel point les gens deviennent ou sont stupides… Ils attaquent une AI comme si elle avait conscience de ce qu’elle écrivait, comme si c’était un être humain…
Le 09/06/2023 à 06h52
Ou comme si c’était un service mis en place par des humains qui doivent maîtriser leur service, la blague. Oh, wait
Le 09/06/2023 à 06h22
Proposition intéressante, ce qui éviterait toute responsabilité des responsables des services par algorithmes ou IA.
Cependant, personne ne peut se dédouaner de sa responsabilité sur un automate ou un service ou un produit. Il existe des responsables de publication dans la presse, des responsables sécurité et hygiène dans les établissements recevant du public, il serait temps que les algorithmes et autres automatismes respectent la législation.
Le 09/06/2023 à 06h50
Je trouverai ça amusant de voir sous les trends ou “pour vous” Insta/TikTok/YT/… un truc du genre “On pense que c’est bon pour vous, mais ça peut aussi nuire à votre santé mentale et votre stabilité, use carefully”
Le 09/06/2023 à 06h55
Non, ils n’attaquent pas l’IA, il ne faut pas se fier au titre de l’article. Ils attaquent OpenAI, la boîte gérée par des humains qui ont bien conscience de ce qu’il font (une IA qui raconte de la merde).
Le 09/06/2023 à 07h02
Et c’est pour ça qu’il y a la possibilité de signaler un résultat comme incorrect / inapproprié. Pour ça il suffit de cliquer le bouton 👎 juste à côté et d’expliquer.
Le 09/06/2023 à 08h26
Sauf qu’on est pas là pour faire leur boulot à leur place. Et contrairement à un forum où l’on peut signaler un post et voir qu’il a été supprimé ou pas, on a aucune idée de l’action qui est faite suite au signalement.
Le 09/06/2023 à 09h46
Outre la réponse de misocard (et il me semble que c’est effectivement le fonctionnement de l’entraînement de l’IA), le développement d’un produit se fait aussi par retour utilisateur. C’est pas une question de faire le boulot à leur place, c’est juste signaler un défaut du produit (ou une qualité, on peut faire un signalement positif aussi sur ChatGPT).
Au même titre qu’on peut signaler une insatisfaction au service consommateur d’une entreprise (“votre lessive a lavé plus blanc que blanc, résultat mon slip est transparent”). Le cycle de développement agile avec boucle de retour utilisateur constante n’a rien inventé sur ce point.
Le 09/06/2023 à 07h04
Quand est-ce que les gens comprendront que les LLM ne donnent pas d’informations, mais ne font que prédire une suite de mot et qu’il ne faut pas prendre pour argen comptant ce que ca nous donne, sans vérifier.
Les LLM n’ont pas d’intelligence dans le sens où elles ont des connaissances intrinsèques. Ils ne font qu’imaginer ce que le mot suivant pourrait etre, point.
Le 09/06/2023 à 07h13
Malheureusement le marketing autour de ces produits a détruit toute capacité à comprendre leur fonctionnement.
Quand on vend un produit en disant que c’est Oracle-qui-sait-tout, voilà la conséquence. C’est dommage car cela nuit à une technologie intéressante.
Le 09/06/2023 à 08h55
Le point intéressant sera la conclusion de cette plainte, qui pourra faire jurisprudence si l’animateur gagne son procès et OpenAI doit payer une grosse amende. Dans ce cas, il va y avoir probablement un sacré coup de frein sur la mise à disposition d’IA au grand public pour générer tout et n’importe quoi, du texte comme des images, pouvant potentiellement porter atteinte à l’image d’une personne.
Le 09/06/2023 à 09h10
C’est pas ce qu’on a fait avec les captcha ?
Pour ce qui est de l’action prise par la suite, sans être un expert je pense que c’est utilisé par l’IA si elle fonctionne dans un système “Récompense / Punition”.
En cochant la case elle reçoit une punition de ce type pour qu’elle ait moins tendance à reproduire la logique utilisée pour produire le texte.
Ce qui est cocasse, c’est que c’est un défenseur des armes à feu qui s’attaque au produit et pas à l’utilisateur.
Guns don’t kill people, people kill people
Le 09/06/2023 à 09h49
Si, mais les captcha, on a généralement pas le choix.
Et pour le cas de chatgpt, il faudrait relancer un apprentissage afin qu’il prenne en compte les mensonges qu’il a produit. Je doute fortement qu’ils fassent quoi que ce soit des signalements (ou alors avec des délais qui peuvent prendre des mois)
Le 09/06/2023 à 11h50
random.org a généré “FCKYOUBSTRD”.
Je me suis senti offensé.
J’ai porté plainte.
Le 10/06/2023 à 05h57
Les désinformateurs et corbeaux n’ont plus qu’à créer un syndicat pour se protéger de ce concurent totalement déloyal.
Des années de tradition de médisance ruinées par cet affabulateur numérique hors pair. Cela fait froid dans le dos.