Deux plaintes ont été adressées à la CNIL au sujet de ChatGPT
Le 07 avril 2023 à 05h05
2 min
Droit
Droit
Deux plaintes ont été déposées en France contre ChatGPT auprès de la Commission nationale de l’informatique et des libertés (CNIL), révèle L'Informé.
Me Zoé Vilain, avocate et cofondatrice de Janus International, une association qui veut sensibiliser aux enjeux du numérique et promouvoir le droit à la vie privée, a en effet « constaté lors de la création de mon compte dédié, que Open AI ne me demandait ni d’accepter les conditions générales d’utilisation ni une quelconque politique de confidentialité ».
Elle a donc demandé à Open AI, début février, de lui envoyer toutes les informations la concernant, et réclamé des explications sur les « finalités » de ses traitements, en vain, comme elle l'explique dans sa plainte à la CNIL :
« soit Open AI refuse de donner droit à ma demande d’accès à mes données personnelles, ce qui constitue une violation du RGPD, soit Open AI ne serait pas en mesure de m’identifier alors même que j’ai un compte sur son site, et cela constituerait une violation encore plus grave du droit des données personnelles »
« Je me suis rendu compte que l’organisme en cause avait collecté certaines de mes données personnelles sans m’en avoir informé », déplore de son côté David Libeau, développeur et membre de l’association Exodus Privacy & Open Knowledge France.
Interrogé à son sujet, ChatGPT lui a en effet attribué, à tort, des manifestations en ligne en 2018 contre la directive sur le droit d’auteur ou encore la création de l’association la Quadrature du Net.
Ce pourquoi, précise-t-il sur son blog, il a lui aussi porté plainte contre ChatGPT pour « manque de transparence (car les personnes ne sont pas informées que leur nom peut être enregistré dans le modèle de langage), le défaut de loyauté (car les informations générées par ChatGPT sont incorrectes) et l’absence apparente de base légale dans la politique de protection des données de ChatGPT ».
Le 07 avril 2023 à 05h05
Commentaires (43)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 07/04/2023 à 06h23
Je trouve ça risible qu’une partie de la plainte vienne du faite que ce que chatGBT génère n’est pas toujours vrai. C’est ne pas comprendre ce qu’est cet outils…. Un baratineur
Le 07/04/2023 à 06h44
Comme j’avais dit dans un précédent commentaire, la deuxième va être intéressante pour savoir si un outil de génération de contenu avec une donnée personnelle dedans peut être assimilé à un traitement de données personnelles. La première c’est un recours plutôt classique qui n’a de lien avec ChatGPT que parce que OpenAI n’a pas répondu dans le délai d’un mois, elle n’est pas en lien direct avec l’outil à priori.
Accessoirement, le prompt donné à GPT pour lui faire produire le contenu est indispensable pour comprendre le contexte.
Dans le cas présent je viens de tester sur un nouveau prompt :
La conversation avec l’outil est indispensable pour savoir s’il est simplement parti dans un délire imaginaire ou bien si le prompt l’a orienté. C’est la raison pour laquelle je suis dubitatif quant à la pertinence de la plainte car c’est similaire à rechercher un nom et prénom dans un moteur de recherche et se plaindre auprès de ce dernier que le résultat n’a rien à voir.
Sinon effectivement, je pense que les 3 lignes affichées sur chaque nouvelle page sont ignorées par une majorité des utilisateurs.
Le 07/04/2023 à 06h56
Ah oui la limitation qu’ils indiquent est pourtant bien présente. Mais bon il y a bien des idiots pour se plaindre que la fameuse colle ne permet pas vraiment de se coller au plafond comme dans la pub…
Le 07/04/2023 à 06h47
Bon courage pour l’Europe pour avoir sa propre version de Chat GPT avec ces empêcheurs d’innover en rond, armés de la meilleure usine à gaz inapplicable jamais inventée.
Le 07/04/2023 à 06h59
snif j’ai plein de projet avec esp32, j’avance à une vitesse de ouf grâce à GPT, je vais devoir retourner sur les forum avec des questions ou personne ne réponds
au doigts mouillé, j’ai fait en une 1 journée le projet prévue pour une semaine.
Le 07/04/2023 à 13h29
J’avoue que j’ai beaucoup de Python à faire en ce moment, et que n’étant pas dev ça me fait gagner un temps fou ^^
Le 09/04/2023 à 13h16
tu cotise bien aux assedic, j’espère parce que ça sent le roussi pour ton job si ton chef arrive à lire ça.
Le 07/04/2023 à 07h27
Espérons que ces 2 plaintes à la Cnil aboutissent à un peu plus de transparence de la part des concepteurs. Transparence nécessaire puisque personne n’est capable de dire si ChatGPT traite des données personnelles et s’il les conserve en base de données.
Le machin (j’ai bien écrit “le machin”, pas “la machine”) est capable de faire des choses bluffantes comme faire des anachronismes ou inventer des choses irréalistes, avec une expression moyenne et une tendance inexorable à tourner en rond après quelques interactions. Ça n’a rien d’un service grand public, mais il faut nourrir le truc pour qu’il fonctionne seulement un peu mieux.
Il faut cadrer ces prototypes juridiquement et obliger ses concepteurs à faire des études d’impact, mais il n’y aura que l’effondrement de cette bulle financière pour avoir un effet, en mettant un arrêt total à ces abus (les recherches sur l’IA continueront un peu plus lentement et sereinement, sans bullshit).
Le 07/04/2023 à 07h41
Je vais faire comme Jacques Dutronc :
Et moi , et moi, et moi ?
Le 07/04/2023 à 08h02
En lisant le titre je me suis tout de suite demandé si ta plainte était l’une des deux :)
Le 07/04/2023 à 08h11
Tu envoies une demande de droit d’accès pour savoir où ça en est ?
Le 07/04/2023 à 08h24
Le problème n’est pas du côté de la CNIL qui n’a pas communiqué sur ces 2 plaintes a priori, en particulier elle n’a pas dû communiquer le nom des 2 plaignants cités.
Le problème est plutôt que le rédacteur de la brève n’a pas communiqué avec le rédacteur en chef qui a toutes les informations utiles et a préféré lire l’ancien rédacteur en chef dans son nouveau média.
À moins que ça soit parce que je n’ai pas communiqué sur Twitter (et ce n’est pas près d’arriver).
Je taquine, hein.
Le 07/04/2023 à 10h48
Le 07/04/2023 à 08h24
Porter plainte contre chatgpt parce qu’il raconte des bobards, c’est comme porter plainte contre un compagnon de bistrot parce qu’il racontre des bobards après avoir trop picolé, car la conversation est privée entre le bot et la personne.
https://actu.fr/ile-de-france/paris_75056/pourquoi-le-developpeur-david-libeau-a-porte-plainte-contre-chat-gpt_58738350.html
On voit bien qu’il a orienté la conversation privée afin d’aboutir à ce que chatgpt raconte des mensonges à son propos.
Le 07/04/2023 à 08h33
Les conversations avec ChatGPT ne sont pas privées. Elles peuvent être analysées par OpenAI et réinjectées dans le modèle pour son entraînement.
https://help.openai.com/en/articles/6783457-what-is-chatgpt
Le 07/04/2023 à 09h28
Quelle différence entre ChatGPT et les robots Gmail ?
Si ce n’est pas “privé”, ou confidentiel, alors pourquoi on s’offusque dans la presse que des employés de ces entreprises ont parfois accès à des informations personnelles ?
J’ai parfois du mal à suivre. Je suis un lapin de 3 semaines en matière d’IA mais beaucoup de commentaires me laissent sceptiques, pour ne pas dire dubitatif.
Le 07/04/2023 à 08h52
Tu vas un peu vite.
Il a d’abord fait sortir son nom en évoquant un compteur de signatures en ligne qu’il avait mis en place.
C’était un passage obligé pour savoir si son nom était connu de chatGPT.
Ensuite, il lui a juste demandé “Qu’a-t-il fait d’autre de connu ?” ce qui est une question parfaitement neutre pour savoir si chatGPT savait d’autres choses de lui.
Et c’est là que le bonimenteur artificiel a dérapé.
Comme je n’utilise pas chatGPT directement chez openAI tant que je ne sais pas ce qu’ils font des données personnelles, je me suis inscrit pour utiliser le mode conversationnel de Bing qui si j’ai bien compris s’appuie sur les technos de openAI.
J’ai essayé de lui faire sortir mon nom (en espérant qu’il utilise mon profil LinkedIn pour cela).
Je n’ai pas réussi. Je ne sais pas si c’est parce qu’ils n’utilisent pas les données de LinkedIn parce qu’elle sont personnelles ou qu’ils filtrent après.
En utilisant les mêmes mots sur le moteur de recherche Bing, je ne ressors pas non plus mon profil LinkedIn. On se demande pourquoi Microsoft a racheté ce site !
Par compte, Google ressort mon profil dans les premières réponses.
Donc, je n’ai pas pu demander des comptes à Microsoft sur le traitement de mes données personnelles dans ce cadre.
Le 07/04/2023 à 09h06
Pour avoir accès aux infos sur linkedin, il faut un compte. Entrainer un bot avec un compte va probablement à l’encontre des CGU, et je doute que l’entreprise derrière linkedin accepte de se faire pomper les données.
Je disais “privée” dans le sens où un autre utilisateur ne vas pas voir l’intégralité de la conversation (peut-être une partie via l’utilisation pour apprentissage, je sais pas trop)
Le 07/04/2023 à 09h47
Vous êtes au courant que c’est Microsoft ? Le même qui a accru sa participation dans OpenAI à coup de milliards.
+1
Le 07/04/2023 à 13h27
De quel plugin tu parles ? Je trouve rien sur le sujet si ce n’est des projet d’OpenAI mais rien de sorti actuellement.
Le 07/04/2023 à 19h12
SebGF en parle: https://openai.com/blog/chatgpt-plugins
Je ne sais pas je pose la question. Je lis et entend que certains se font aider par une IA en lui posant des questions de manière plus transparente que taper une recherche.
Le 07/04/2023 à 09h22
C’est là que le sujet devient intéressant : ChatGPT ne récite pas du par coeur, il invente un contenu qui a la plus forte probabilité d’être cohérent avec le contexte.
Concernant Bing, il se base aussi sur GPT (comme GitHub Copilot est un générateur de code basé sur GPT aussi), mais il ne me paraît pas pertinent de comparer les outils car je ne pense pas qu’ils se baseront sur le même modèle d’entraînement ni avec les mêmes paramètres. Et leur finalité diffère.
Si la finalité est que l’outil aille sur le Web pour trouver des infos et les sourcer, il s’agit là de l’objectif du plugin Browser développé par OpenAI. Dans ce cas d’usage, si ChatGPT n’a pas la réponse, il va aller chercher sur le Web et la sourcer comme on peut lire un article sur Wikipedia, avec des annotations et des références. Je pense que ce plugin va permettre de résoudre une confusion récurrente vis à vis de cet outil : ce n’est pas un moteur de recherche, et ce n’est pas Wikipedia. C’est juste un robot qui fait la conversation en utilisant les infos qu’il a dans sa bulle périmée de fin 2021.
Edit : en fait ce qui me déçoit dans le traitement de ce sujet par NXI, c’est qu’il y a un effet de loupe sur les dérapages et mauvais usages de cette technologie. Mais au final, j’ai l’impression que personne ne comprend réellement comment elle fonctionne ni sa finalité et la tonalité majoritairement négative sur ce site biaise la compréhension. Il faudrait une explication réellement neutre du fonctionnement.
Le 07/04/2023 à 09h41
Ce que j’ai indiqué qui n’est ni privé, ni confidentiel, dans mon commentaire et en lien dans la FAQ (faut lire, elle est pas compliquée… et elle dit même de ne pas donner d’infos sensibles à l’outil), ce sont les inputs envoyés à ChatGPT.
Ils sont revus, lus, traités, analysés, et réinjectés dans l’entraînement du modèle et peuvent donc être retournés lors d’un prompt.
L’outil contient des données personnelles dans son modèle car il a bouffé des tonnes de contenu sur le Web. Donc forcément toute information publique affichant une donnée personnelle (permettant de directement ou indirectement identifier conformément à la définition du RGPD) est intégrée dans l’outil. Faut voir ça comme l’indexation du Web par un moteur de recherche pour simplifier violemment. Sauf qu’au lieu de se servir de cet “index” (que les experts en IA lâchent leurs couteaux, je vulgarise en me basant sur ma faible compétence technique sur le sujet) pour ressortir de l’information, il s’en sert pour apprendre à causer.
Le robot Gmail, je sais pas c’est quoi.
Le 07/04/2023 à 20h04
C’est d’ailleurs un gros problème aujourd’hui, car il existe parfois des méthodes pour retrouver les données confidentielles ayant servi à entrainer un modèle de machine learning à partir des couples input/output du modèle.
Le 07/04/2023 à 09h51
L’un des tout premiers moyen analytiques, utilisé par Google en contrepartie de gmail gratuit.
Les correspondances y sont intégralement lues par ce “robot”.
En 20ans tout le monde l’a oublié, ou presque.
Le 07/04/2023 à 09h55
la question à se poser : est-ce que les avocats vont utiliser ChatGPT pour faire leur plaidoiries ? ^^
Le 07/04/2023 à 10h04
Et pannnnn !!!!
Un dispositif qui coute des millions de dollar (voir milliard) qui fait de la délinquance relevant du droit au respect de la vie privé, et de la liberté d’expression (qui a ses contraintes : divulgation sans autorisation, allégations mensongères, etc.). Je grossis le trait mais c’est bien de cela qu’il s’agit.
Quelque part… c’est beau.
Nous en sommes donc au point ou l’on s’intéresse plus aux dégâts sur l’individu (et droits fondamentaux de ceux-ci) qu’au droit d’auteur. Niiice!!!
Le 07/04/2023 à 10h04
Et pannnnn !!!!
Un dispositif qui coute des millions de dollar (voir milliard) qui fait de la délinquance relevant du droit au respect de la vie privé, et de la liberté d’expression (qui a ses contraintes : divulgation sans autorisation, allégations mensongères, etc.). Je grossis le trait mais c’est bien de cela qu’il s’agit.
Quelque part… c’est beau.
Nous en sommes donc au point ou l’on s’intéresse plus aux dégâts sur l’individu (et droits fondamentaux de ceux-ci) qu’au droit d’auteur. Niiice!!!
Le 07/04/2023 à 11h27
Et elle est où “l’Intelligence”, là ?!
Le 07/04/2023 à 12h38
L’ia va nous offre la possibilité de faire évoluer notre espèce, c’est indéniable et c’était prévu depuis pas mal d’années. Et si ça continue comme ça elle devra aussi trouver une solution pour ce que nous allons devenir.
C’est vraiment, con.
Le 07/04/2023 à 15h16
J’ai été voir en lien le blog de David Libeau…
ChatGPT peut parfois dire n’importe quoi, de manière crédible, mais ce n’est pas volontaire.
David Libeau lui, dit souvent n’importe quoi, n’est pas crédible, mais ça semble volontaire…
Le 07/04/2023 à 16h42
La question est quelle est la finalité de ton travail ?
Tout le monde voit bien l’intérêt de l’IA pour accélérer la production (de code, texte, …) mais la question en suspens c’est à quel coût ?
Prenons un exemple : si tu travails sur un projet Open Source c’est gagnant-gagnant. Tu avances plus rapidement et la communauté bénéficie ta production et l’IA s’améliore, et à son tour fait bénéficier de ton travail ses clients/utilisateurs.
Maintenant prenons un autre exemple :
tu travailles sur un projet hautement concurrentiel. L’IA te fait gagner un temps fou pour sortir un nouveau produit ou une nouvelle fonctionnalité avant tes concurrents. ==> tu y gagnes mais le revers de la médaille c’est que tes concurrents pourraient récupérer ton travail au travers de l’IA rapidement et “gratuitement”. et c’est bien là où se situe les interrogations aujourd’hui autour de l’IA.
quel est l’usage des données transmises à l’IA, est-elle en mesure de respecter les droits sur la propriété ? …
Il y a plein de sujets autour de l’IA qui méritent d’être traité pour autant cela ne remet pas en cause l’utilité de celle-ci.
Le 07/04/2023 à 16h49
En lisant la suite du fil de LeBrief d’aujourd’hui :
Next INpact
C’est un exemple parmi tant d’autres.
Le 07/04/2023 à 17h24
C’est un peu pareil pour tous les outils qui manipulent des données de personnes non ?
Je ne suis pas sur Facebook, pourtant j’imagine que des gens ont parlé de moi, ou ont posté des photos où je suis présent.
(avec le delta du “modèle de langage” mais je suppose que Facebook se sert des données fournies pour ses besoins aussi)
Le 07/04/2023 à 18h02
“j’ai ouvert un compte sur OpenAI parce que ChatGPT ca avait l’air trop cool, et j’ai posté des informations personnelles. ouin ! ouin ! Mes informations personnelles ont été collectées par OpenAI et sont réutilisées pour Dieu sait quoi !”.
J’hésite entre deux acronymes: GDPR et PEBCAK.
Le 07/04/2023 à 18h15
Moi, je n’ai pas ouvert un compte sur OpenAI parce qu’ils me demandaient des données personnelles sans m’indiquer ce qu’ils allaient en faire conformément au RGPD.
J’ai donc porté plainte auprès de la CNIL pour non respect de l’article 13 du RGPD. Ça va, j’ai le droit ?
Le 07/04/2023 à 22h17
Tu es dis trop et pas assez :-) Les habitués te connaissent peut-être, mais je n’ai aucune idée de qui tu es ou ce que tu fais. Amicalement :-)
Le 07/04/2023 à 22h42
Ici puis là et je lui ai répondu favorablement.
Sinon, justement, je ne suis personne, juste un lecteur d’ici. J’avais déjà annoncé ici avant ces commentaires que j’avais porté plainte contre openAI auprès de la CNIL. Mais je ne l’ai pas fait sur Twitter (je n’ai pas de compte) et ça n’a pour l’instant pas été repris par la presse.
Le 08/04/2023 à 07h21
Même si tu l’avais postée sur Mastodon ça serait passé inaperçu dans la presse. Typiquement l’Informé rappelle régulièrement être “présent sur Mastodon” (en gros depuis que Twitter ait été en carafe en novembre dernier), mais y’a pour ainsi dire aucune interaction. Même chose pour Marc.
Bref, si c’est pas sur Twitter, ça n’existe pas. Moi ça me va de pas exister
Le 08/04/2023 à 06h44
Surtout que comme d’hab, les US avancent 10x plus vite en se foutant des lois, une fois le trucs au point, des excuses, une petite amande non significative et c’est fini
Résultat: une avance technologique dans le domaine pour les deux prochaines decenies. Avec des couillons qui tentent de rattraper leur retard avec les mains ligotées dans le dos.
Le 09/04/2023 à 13h55
Un employé a trouvé un moyen de décupler sa productivité grâce à un nouveau type d’outil. Si ça sent le roussi, à priori, ce n’est pas pour lui, du moins pas immédiatement si son boss n’est pas trop con.
Mais c’est sûr qu’à terme ces outils auront un impact significatif sur l’emploi dans l’informatique. Ça risque d’arriver vite.
Le 10/04/2023 à 08h36
Produire en une journée le travail de 5 jours, alors que le procédé n’est qu’en test et pas optimisé, ça veut dire que la masse salariale peut être divisée par 5, car je ne pense pas que le prix de vente du produit sera divisé par 5.
Et ça n’est qu’un début, les journées.hommes pourraient se diviser par 10 en optimisant certainement.
Le 10/04/2023 à 07h37
Perso j’y vois surtout les helpdesk de niveau 1 qui risquent de se réduire avec une présence humain limitée pour traiter les cas que le bot n’aura pas su faire. Un outil de ce genre est capable de produire un chatbot bien plus intelligent que les actuels qui marchent à coup de “if if if if” et lâchent rapidement l’affaire.
Un peu au même titre que l’observabilité et l’automatisation du monitoring couplées à de l’auto-remédiation réduit la nécessité d’avoir une cellule d’exploit en HNO (avec un robot qui déclenche l’astreinte en cas de pépin, etc).