Deux plaintes ont été adressées à la CNIL au sujet de ChatGPT

Deux plaintes ont été adressées à la CNIL au sujet de ChatGPT

Deux plaintes ont été adressées à la CNIL au sujet de ChatGPT

Deux plaintes ont été déposées en France contre ChatGPT auprès de la Commission nationale de l’informatique et des libertés (CNIL), révèle L'Informé.

Me Zoé Vilain, avocate et cofondatrice de Janus International, une association qui veut sensibiliser aux enjeux du numérique et promouvoir le droit à la vie privée, a en effet « constaté lors de la création de mon compte dédié, que Open AI ne me demandait ni d’accepter les conditions générales d’utilisation ni une quelconque politique de confidentialité ».

Elle a donc demandé à Open AI, début février, de lui envoyer toutes les informations la concernant, et réclamé des explications sur les « finalités » de ses traitements, en vain, comme elle l'explique dans sa plainte à la CNIL :

« soit Open AI refuse de donner droit à ma demande d’accès à mes données personnelles, ce qui constitue une violation du RGPD, soit Open AI ne serait pas en mesure de m’identifier alors même que j’ai un compte sur son site, et cela constituerait une violation encore plus grave du droit des données personnelles »

« Je me suis rendu compte que l’organisme en cause avait collecté certaines de mes données personnelles sans m’en avoir informé », déplore de son côté David Libeau, développeur et membre de l’association Exodus Privacy & Open Knowledge France.

Interrogé à son sujet, ChatGPT lui a en effet attribué, à tort, des manifestations en ligne en 2018 contre la directive sur le droit d’auteur ou encore la création de l’association la Quadrature du Net.

Ce pourquoi, précise-t-il sur son blog, il a lui aussi porté plainte contre ChatGPT pour « manque de transparence (car les personnes ne sont pas informées que leur nom peut être enregistré dans le modèle de langage), le défaut de loyauté (car les informations générées par ChatGPT sont incorrectes) et l’absence apparente de base légale dans la politique de protection des données de ChatGPT ».

Commentaires (43)


Je trouve ça risible qu’une partie de la plainte vienne du faite que ce que chatGBT génère n’est pas toujours vrai. C’est ne pas comprendre ce qu’est cet outils…. Un baratineur


Comme j’avais dit dans un précédent commentaire, la deuxième va être intéressante pour savoir si un outil de génération de contenu avec une donnée personnelle dedans peut être assimilé à un traitement de données personnelles. La première c’est un recours plutôt classique qui n’a de lien avec ChatGPT que parce que OpenAI n’a pas répondu dans le délai d’un mois, elle n’est pas en lien direct avec l’outil à priori.



Accessoirement, le prompt donné à GPT pour lui faire produire le contenu est indispensable pour comprendre le contexte.



Dans le cas présent je viens de tester sur un nouveau prompt :




Who is David Libeau ?
I’m sorry, but I couldn’t find any information on a person named David Libeau. It’s possible that he is a private individual who does not have a significant online presence, or that the name is misspelled or incomplete. If you have any additional information about who David Libeau is or what he is known for, I would be happy to try and help you further.




La conversation avec l’outil est indispensable pour savoir s’il est simplement parti dans un délire imaginaire ou bien si le prompt l’a orienté. C’est la raison pour laquelle je suis dubitatif quant à la pertinence de la plainte car c’est similaire à rechercher un nom et prénom dans un moteur de recherche et se plaindre auprès de ce dernier que le résultat n’a rien à voir.



Sinon effectivement, je pense que les 3 lignes affichées sur chaque nouvelle page sont ignorées par une majorité des utilisateurs.




May occasionally generate incorrect information
May occasionally produce harmful instructions or biased content
Limited knowledge of world and events after 2021



SebGF

Comme j’avais dit dans un précédent commentaire, la deuxième va être intéressante pour savoir si un outil de génération de contenu avec une donnée personnelle dedans peut être assimilé à un traitement de données personnelles. La première c’est un recours plutôt classique qui n’a de lien avec ChatGPT que parce que OpenAI n’a pas répondu dans le délai d’un mois, elle n’est pas en lien direct avec l’outil à priori.



Accessoirement, le prompt donné à GPT pour lui faire produire le contenu est indispensable pour comprendre le contexte.



Dans le cas présent je viens de tester sur un nouveau prompt :




Who is David Libeau ?
I’m sorry, but I couldn’t find any information on a person named David Libeau. It’s possible that he is a private individual who does not have a significant online presence, or that the name is misspelled or incomplete. If you have any additional information about who David Libeau is or what he is known for, I would be happy to try and help you further.




La conversation avec l’outil est indispensable pour savoir s’il est simplement parti dans un délire imaginaire ou bien si le prompt l’a orienté. C’est la raison pour laquelle je suis dubitatif quant à la pertinence de la plainte car c’est similaire à rechercher un nom et prénom dans un moteur de recherche et se plaindre auprès de ce dernier que le résultat n’a rien à voir.



Sinon effectivement, je pense que les 3 lignes affichées sur chaque nouvelle page sont ignorées par une majorité des utilisateurs.




May occasionally generate incorrect information
May occasionally produce harmful instructions or biased content
Limited knowledge of world and events after 2021



Ah oui la limitation qu’ils indiquent est pourtant bien présente. Mais bon il y a bien des idiots pour se plaindre que la fameuse colle ne permet pas vraiment de se coller au plafond comme dans la pub…


Bon courage pour l’Europe pour avoir sa propre version de Chat GPT avec ces empêcheurs d’innover en rond, armés de la meilleure usine à gaz inapplicable jamais inventée.


snif j’ai plein de projet avec esp32, j’avance à une vitesse de ouf grâce à GPT, je vais devoir retourner sur les forum avec des questions ou personne ne réponds :eeek2:



au doigts mouillé, j’ai fait en une 1 journée le projet prévue pour une semaine.


J’avoue que j’ai beaucoup de Python à faire en ce moment, et que n’étant pas dev ça me fait gagner un temps fou ^^


tu cotise bien aux assedic, j’espère parce que ça sent le roussi pour ton job si ton chef arrive à lire ça.


Espérons que ces 2 plaintes à la Cnil aboutissent à un peu plus de transparence de la part des concepteurs. Transparence nécessaire puisque personne n’est capable de dire si ChatGPT traite des données personnelles et s’il les conserve en base de données.



Le machin (j’ai bien écrit “le machin”, pas “la machine”) est capable de faire des choses bluffantes comme faire des anachronismes ou inventer des choses irréalistes, avec une expression moyenne et une tendance inexorable à tourner en rond après quelques interactions. Ça n’a rien d’un service grand public, mais il faut nourrir le truc pour qu’il fonctionne seulement un peu mieux.



Il faut cadrer ces prototypes juridiquement et obliger ses concepteurs à faire des études d’impact, mais il n’y aura que l’effondrement de cette bulle financière pour avoir un effet, en mettant un arrêt total à ces abus (les recherches sur l’IA continueront un peu plus lentement et sereinement, sans bullshit).



Deux plaintes ont été adressées à la CNIL au sujet de ChatGPT




Je vais faire comme Jacques Dutronc :
Et moi , et moi, et moi ?


En lisant le titre je me suis tout de suite demandé si ta plainte était l’une des deux :)


Tu envoies une demande de droit d’accès pour savoir où ça en est ? :D


SebGF

Tu envoies une demande de droit d’accès pour savoir où ça en est ? :D


:mdr:



Le problème n’est pas du côté de la CNIL qui n’a pas communiqué sur ces 2 plaintes a priori, en particulier elle n’a pas dû communiquer le nom des 2 plaignants cités.



Le problème est plutôt que le rédacteur de la brève n’a pas communiqué avec le rédacteur en chef qui a toutes les informations utiles et a préféré lire l’ancien rédacteur en chef dans son nouveau média.



À moins que ça soit parce que je n’ai pas communiqué sur Twitter (et ce n’est pas près d’arriver).



Je taquine, hein.



Idem haha.

:inpactitude:


Porter plainte contre chatgpt parce qu’il raconte des bobards, c’est comme porter plainte contre un compagnon de bistrot parce qu’il racontre des bobards après avoir trop picolé, car la conversation est privée entre le bot et la personne.



https://actu.fr/ile-de-france/paris_75056/pourquoi-le-developpeur-david-libeau-a-porte-plainte-contre-chat-gpt_58738350.html



On voit bien qu’il a orienté la conversation privée afin d’aboutir à ce que chatgpt raconte des mensonges à son propos.


Les conversations avec ChatGPT ne sont pas privées. Elles peuvent être analysées par OpenAI et réinjectées dans le modèle pour son entraînement.



https://help.openai.com/en/articles/6783457-what-is-chatgpt


SebGF

Les conversations avec ChatGPT ne sont pas privées. Elles peuvent être analysées par OpenAI et réinjectées dans le modèle pour son entraînement.



https://help.openai.com/en/articles/6783457-what-is-chatgpt


Quelle différence entre ChatGPT et les robots Gmail ?



Si ce n’est pas “privé”, ou confidentiel, alors pourquoi on s’offusque dans la presse que des employés de ces entreprises ont parfois accès à des informations personnelles ?



J’ai parfois du mal à suivre. Je suis un lapin de 3 semaines en matière d’IA mais beaucoup de commentaires me laissent sceptiques, pour ne pas dire dubitatif.


Tu vas un peu vite.



Il a d’abord fait sortir son nom en évoquant un compteur de signatures en ligne qu’il avait mis en place.
C’était un passage obligé pour savoir si son nom était connu de chatGPT.



Ensuite, il lui a juste demandé “Qu’a-t-il fait d’autre de connu ?” ce qui est une question parfaitement neutre pour savoir si chatGPT savait d’autres choses de lui.



Et c’est là que le bonimenteur artificiel a dérapé.



Comme je n’utilise pas chatGPT directement chez openAI tant que je ne sais pas ce qu’ils font des données personnelles, je me suis inscrit pour utiliser le mode conversationnel de Bing qui si j’ai bien compris s’appuie sur les technos de openAI.



J’ai essayé de lui faire sortir mon nom (en espérant qu’il utilise mon profil LinkedIn pour cela).



Je n’ai pas réussi. Je ne sais pas si c’est parce qu’ils n’utilisent pas les données de LinkedIn parce qu’elle sont personnelles ou qu’ils filtrent après.
En utilisant les mêmes mots sur le moteur de recherche Bing, je ne ressors pas non plus mon profil LinkedIn. On se demande pourquoi Microsoft a racheté ce site ! :D
Par compte, Google ressort mon profil dans les premières réponses.



Donc, je n’ai pas pu demander des comptes à Microsoft sur le traitement de mes données personnelles dans ce cadre.


fred42

Tu vas un peu vite.



Il a d’abord fait sortir son nom en évoquant un compteur de signatures en ligne qu’il avait mis en place.
C’était un passage obligé pour savoir si son nom était connu de chatGPT.



Ensuite, il lui a juste demandé “Qu’a-t-il fait d’autre de connu ?” ce qui est une question parfaitement neutre pour savoir si chatGPT savait d’autres choses de lui.



Et c’est là que le bonimenteur artificiel a dérapé.



Comme je n’utilise pas chatGPT directement chez openAI tant que je ne sais pas ce qu’ils font des données personnelles, je me suis inscrit pour utiliser le mode conversationnel de Bing qui si j’ai bien compris s’appuie sur les technos de openAI.



J’ai essayé de lui faire sortir mon nom (en espérant qu’il utilise mon profil LinkedIn pour cela).



Je n’ai pas réussi. Je ne sais pas si c’est parce qu’ils n’utilisent pas les données de LinkedIn parce qu’elle sont personnelles ou qu’ils filtrent après.
En utilisant les mêmes mots sur le moteur de recherche Bing, je ne ressors pas non plus mon profil LinkedIn. On se demande pourquoi Microsoft a racheté ce site ! :D
Par compte, Google ressort mon profil dans les premières réponses.



Donc, je n’ai pas pu demander des comptes à Microsoft sur le traitement de mes données personnelles dans ce cadre.


Pour avoir accès aux infos sur linkedin, il faut un compte. Entrainer un bot avec un compte va probablement à l’encontre des CGU, et je doute que l’entreprise derrière linkedin accepte de se faire pomper les données.



Je disais “privée” dans le sens où un autre utilisateur ne vas pas voir l’intégralité de la conversation (peut-être une partie via l’utilisation pour apprentissage, je sais pas trop)


Gamble

Pour avoir accès aux infos sur linkedin, il faut un compte. Entrainer un bot avec un compte va probablement à l’encontre des CGU, et je doute que l’entreprise derrière linkedin accepte de se faire pomper les données.



Je disais “privée” dans le sens où un autre utilisateur ne vas pas voir l’intégralité de la conversation (peut-être une partie via l’utilisation pour apprentissage, je sais pas trop)



(reply:2128506:sanscrit) Avec le plugin Browser ?




Vous êtes au courant que c’est Microsoft ? Le même qui a accru sa participation dans OpenAI à coup de milliards.




SebGF a dit:


Edit : en fait ce qui me déçoit dans le traitement de ce sujet par NXI, c’est qu’il y a un effet de loupe sur les dérapages et mauvais usages de cette technologie. Mais au final, j’ai l’impression que personne ne comprend réellement comment elle fonctionne ni sa finalité et la tonalité majoritairement négative sur ce site biaise la compréhension. Il faudrait une explication réellement neutre du fonctionnement.




+1


Xanatos


(reply:2128506:sanscrit) Avec le plugin Browser ?




Vous êtes au courant que c’est Microsoft ? Le même qui a accru sa participation dans OpenAI à coup de milliards.




SebGF a dit:


Edit : en fait ce qui me déçoit dans le traitement de ce sujet par NXI, c’est qu’il y a un effet de loupe sur les dérapages et mauvais usages de cette technologie. Mais au final, j’ai l’impression que personne ne comprend réellement comment elle fonctionne ni sa finalité et la tonalité majoritairement négative sur ce site biaise la compréhension. Il faudrait une explication réellement neutre du fonctionnement.




+1


De quel plugin tu parles ? Je trouve rien sur le sujet si ce n’est des projet d’OpenAI mais rien de sorti actuellement.


eglyn

De quel plugin tu parles ? Je trouve rien sur le sujet si ce n’est des projet d’OpenAI mais rien de sorti actuellement.


SebGF en parle: https://openai.com/blog/chatgpt-plugins
Je ne sais pas je pose la question. Je lis et entend que certains se font aider par une IA en lui posant des questions de manière plus transparente que taper une recherche.


fred42

Tu vas un peu vite.



Il a d’abord fait sortir son nom en évoquant un compteur de signatures en ligne qu’il avait mis en place.
C’était un passage obligé pour savoir si son nom était connu de chatGPT.



Ensuite, il lui a juste demandé “Qu’a-t-il fait d’autre de connu ?” ce qui est une question parfaitement neutre pour savoir si chatGPT savait d’autres choses de lui.



Et c’est là que le bonimenteur artificiel a dérapé.



Comme je n’utilise pas chatGPT directement chez openAI tant que je ne sais pas ce qu’ils font des données personnelles, je me suis inscrit pour utiliser le mode conversationnel de Bing qui si j’ai bien compris s’appuie sur les technos de openAI.



J’ai essayé de lui faire sortir mon nom (en espérant qu’il utilise mon profil LinkedIn pour cela).



Je n’ai pas réussi. Je ne sais pas si c’est parce qu’ils n’utilisent pas les données de LinkedIn parce qu’elle sont personnelles ou qu’ils filtrent après.
En utilisant les mêmes mots sur le moteur de recherche Bing, je ne ressors pas non plus mon profil LinkedIn. On se demande pourquoi Microsoft a racheté ce site ! :D
Par compte, Google ressort mon profil dans les premières réponses.



Donc, je n’ai pas pu demander des comptes à Microsoft sur le traitement de mes données personnelles dans ce cadre.


C’est là que le sujet devient intéressant : ChatGPT ne récite pas du par coeur, il invente un contenu qui a la plus forte probabilité d’être cohérent avec le contexte.



Concernant Bing, il se base aussi sur GPT (comme GitHub Copilot est un générateur de code basé sur GPT aussi), mais il ne me paraît pas pertinent de comparer les outils car je ne pense pas qu’ils se baseront sur le même modèle d’entraînement ni avec les mêmes paramètres. Et leur finalité diffère.



Si la finalité est que l’outil aille sur le Web pour trouver des infos et les sourcer, il s’agit là de l’objectif du plugin Browser développé par OpenAI. Dans ce cas d’usage, si ChatGPT n’a pas la réponse, il va aller chercher sur le Web et la sourcer comme on peut lire un article sur Wikipedia, avec des annotations et des références. Je pense que ce plugin va permettre de résoudre une confusion récurrente vis à vis de cet outil : ce n’est pas un moteur de recherche, et ce n’est pas Wikipedia. C’est juste un robot qui fait la conversation en utilisant les infos qu’il a dans sa bulle périmée de fin 2021.



Edit : en fait ce qui me déçoit dans le traitement de ce sujet par NXI, c’est qu’il y a un effet de loupe sur les dérapages et mauvais usages de cette technologie. Mais au final, j’ai l’impression que personne ne comprend réellement comment elle fonctionne ni sa finalité et la tonalité majoritairement négative sur ce site biaise la compréhension. Il faudrait une explication réellement neutre du fonctionnement.



(reply:2128550:consommateurnumérique)




Ce que j’ai indiqué qui n’est ni privé, ni confidentiel, dans mon commentaire et en lien dans la FAQ (faut lire, elle est pas compliquée… et elle dit même de ne pas donner d’infos sensibles à l’outil), ce sont les inputs envoyés à ChatGPT.



Ils sont revus, lus, traités, analysés, et réinjectés dans l’entraînement du modèle et peuvent donc être retournés lors d’un prompt.



L’outil contient des données personnelles dans son modèle car il a bouffé des tonnes de contenu sur le Web. Donc forcément toute information publique affichant une donnée personnelle (permettant de directement ou indirectement identifier conformément à la définition du RGPD) est intégrée dans l’outil. Faut voir ça comme l’indexation du Web par un moteur de recherche pour simplifier violemment. Sauf qu’au lieu de se servir de cet “index” (que les experts en IA lâchent leurs couteaux, je vulgarise en me basant sur ma faible compétence technique sur le sujet) pour ressortir de l’information, il s’en sert pour apprendre à causer.



Le robot Gmail, je sais pas c’est quoi.


C’est d’ailleurs un gros problème aujourd’hui, car il existe parfois des méthodes pour retrouver les données confidentielles ayant servi à entrainer un modèle de machine learning à partir des couples input/output du modèle.



SebGF a dit:


Le robot Gmail, je sais pas c’est quoi.




L’un des tout premiers moyen analytiques, utilisé par Google en contrepartie de gmail gratuit.
Les correspondances y sont intégralement lues par ce “robot”.
En 20ans tout le monde l’a oublié, ou presque.


la question à se poser : est-ce que les avocats vont utiliser ChatGPT pour faire leur plaidoiries ? ^^



(quote:0000000:L’article) manque de transparence (car les personnes ne sont pas informées que leur nom peut être enregistré dans le modèle de langage), le défaut de loyauté (car les informations générées par ChatGPT sont incorrectes) et l’absence apparente de base légale dans la politique de protection des données de ChatGPT




Et pannnnn !!!!



Un dispositif qui coute des millions de dollar (voir milliard) qui fait de la délinquance relevant du droit au respect de la vie privé, et de la liberté d’expression (qui a ses contraintes : divulgation sans autorisation, allégations mensongères, etc.). Je grossis le trait mais c’est bien de cela qu’il s’agit.



Quelque part… c’est beau.



Nous en sommes donc au point ou l’on s’intéresse plus aux dégâts sur l’individu (et droits fondamentaux de ceux-ci) qu’au droit d’auteur. Niiice!!!



(quote:1:L’article) manque de transparence (car les personnes ne sont pas informées que leur nom peut être enregistré dans le modèle de langage), le défaut de loyauté (car les informations générées par ChatGPT sont incorrectes) et l’absence apparente de base légale dans la politique de protection des données de ChatGPT




Et pannnnn !!!!



Un dispositif qui coute des millions de dollar (voir milliard) qui fait de la délinquance relevant du droit au respect de la vie privé, et de la liberté d’expression (qui a ses contraintes : divulgation sans autorisation, allégations mensongères, etc.). Je grossis le trait mais c’est bien de cela qu’il s’agit.



Quelque part… c’est beau.



Nous en sommes donc au point ou l’on s’intéresse plus aux dégâts sur l’individu (et droits fondamentaux de ceux-ci) qu’au droit d’auteur. Niiice!!!


Et elle est où “l’Intelligence”, là ?!


L’ia va nous offre la possibilité de faire évoluer notre espèce, c’est indéniable et c’était prévu depuis pas mal d’années. Et si ça continue comme ça elle devra aussi trouver une solution pour ce que nous allons devenir.



C’est vraiment, con.


J’ai été voir en lien le blog de David Libeau…
ChatGPT peut parfois dire n’importe quoi, de manière crédible, mais ce n’est pas volontaire.
David Libeau lui, dit souvent n’importe quoi, n’est pas crédible, mais ça semble volontaire…



sanscrit a dit:


snif j’ai plein de projet avec esp32, j’avance à une vitesse de ouf grâce à GPT, je vais devoir retourner sur les forum avec des questions ou personne ne réponds :eeek2:



au doigts mouillé, j’ai fait en une 1 journée le projet prévue pour une semaine.




La question est quelle est la finalité de ton travail ?
Tout le monde voit bien l’intérêt de l’IA pour accélérer la production (de code, texte, …) mais la question en suspens c’est à quel coût ?
Prenons un exemple : si tu travails sur un projet Open Source c’est gagnant-gagnant. Tu avances plus rapidement et la communauté bénéficie ta production et l’IA s’améliore, et à son tour fait bénéficier de ton travail ses clients/utilisateurs.



Maintenant prenons un autre exemple :
tu travailles sur un projet hautement concurrentiel. L’IA te fait gagner un temps fou pour sortir un nouveau produit ou une nouvelle fonctionnalité avant tes concurrents. ==> tu y gagnes mais le revers de la médaille c’est que tes concurrents pourraient récupérer ton travail au travers de l’IA rapidement et “gratuitement”. et c’est bien là où se situe les interrogations aujourd’hui autour de l’IA.
quel est l’usage des données transmises à l’IA, est-elle en mesure de respecter les droits sur la propriété ? …



Il y a plein de sujets autour de l’IA qui méritent d’être traité pour autant cela ne remet pas en cause l’utilité de celle-ci.


En lisant la suite du fil de LeBrief d’aujourd’hui :



https://www.nextinpact.com/lebrief/71424/des-employes-samsung-diffusent-documents-internes-via-chatgpt



C’est un exemple parmi tant d’autres.



(car les personnes ne sont pas informées que leur nom peut être enregistré dans le modèle de langage)




C’est un peu pareil pour tous les outils qui manipulent des données de personnes non ?
Je ne suis pas sur Facebook, pourtant j’imagine que des gens ont parlé de moi, ou ont posté des photos où je suis présent.
(avec le delta du “modèle de langage” mais je suppose que Facebook se sert des données fournies pour ses besoins aussi)


“j’ai ouvert un compte sur OpenAI parce que ChatGPT ca avait l’air trop cool, et j’ai posté des informations personnelles. ouin ! ouin ! Mes informations personnelles ont été collectées par OpenAI et sont réutilisées pour Dieu sait quoi !”.



J’hésite entre deux acronymes: GDPR et PEBCAK. :roll:


Moi, je n’ai pas ouvert un compte sur OpenAI parce qu’ils me demandaient des données personnelles sans m’indiquer ce qu’ils allaient en faire conformément au RGPD.



J’ai donc porté plainte auprès de la CNIL pour non respect de l’article 13 du RGPD. Ça va, j’ai le droit ?



fred42 a dit:


:mdr:



Le problème n’est pas du côté de la CNIL qui n’a pas communiqué sur ces 2 plaintes a priori, en particulier elle n’a pas dû communiquer le nom des 2 plaignants cités.



Le problème est plutôt que le rédacteur de la brève n’a pas communiqué avec le rédacteur en chef qui a toutes les informations utiles et a préféré lire l’ancien rédacteur en chef dans son nouveau média.



À moins que ça soit parce que je n’ai pas communiqué sur Twitter (et ce n’est pas près d’arriver).



Je taquine, hein.




Tu es dis trop et pas assez :-) Les habitués te connaissent peut-être, mais je n’ai aucune idée de qui tu es ou ce que tu fais. Amicalement :-)


Ici puis et je lui ai répondu favorablement.



Sinon, justement, je ne suis personne, juste un lecteur d’ici. J’avais déjà annoncé ici avant ces commentaires que j’avais porté plainte contre openAI auprès de la CNIL. Mais je ne l’ai pas fait sur Twitter (je n’ai pas de compte) et ça n’a pour l’instant pas été repris par la presse.


fred42

Ici puis et je lui ai répondu favorablement.



Sinon, justement, je ne suis personne, juste un lecteur d’ici. J’avais déjà annoncé ici avant ces commentaires que j’avais porté plainte contre openAI auprès de la CNIL. Mais je ne l’ai pas fait sur Twitter (je n’ai pas de compte) et ça n’a pour l’instant pas été repris par la presse.


Même si tu l’avais postée sur Mastodon ça serait passé inaperçu dans la presse. Typiquement l’Informé rappelle régulièrement être “présent sur Mastodon” (en gros depuis que Twitter ait été en carafe en novembre dernier), mais y’a pour ainsi dire aucune interaction. Même chose pour Marc.



Bref, si c’est pas sur Twitter, ça n’existe pas. Moi ça me va de pas exister :D



Schismatrice a dit:


Bon courage pour l’Europe pour avoir sa propre version de Chat GPT avec ces empêcheurs d’innover en rond, armés de la meilleure usine à gaz inapplicable jamais inventée.




Surtout que comme d’hab, les US avancent 10x plus vite en se foutant des lois, une fois le trucs au point, des excuses, une petite amande non significative et c’est fini
Résultat: une avance technologique dans le domaine pour les deux prochaines decenies. Avec des couillons qui tentent de rattraper leur retard avec les mains ligotées dans le dos.



brupala a dit:




Un employé a trouvé un moyen de décupler sa productivité grâce à un nouveau type d’outil. Si ça sent le roussi, à priori, ce n’est pas pour lui, du moins pas immédiatement si son boss n’est pas trop con.



Mais c’est sûr qu’à terme ces outils auront un impact significatif sur l’emploi dans l’informatique. Ça risque d’arriver vite.


Produire en une journée le travail de 5 jours, alors que le procédé n’est qu’en test et pas optimisé, ça veut dire que la masse salariale peut être divisée par 5, car je ne pense pas que le prix de vente du produit sera divisé par 5.
Et ça n’est qu’un début, les journées.hommes pourraient se diviser par 10 en optimisant certainement.



wagaf a dit:


Mais c’est sûr qu’à terme ces outils auront un impact significatif sur l’emploi dans l’informatique. Ça risque d’arriver vite.




Perso j’y vois surtout les helpdesk de niveau 1 qui risquent de se réduire avec une présence humain limitée pour traiter les cas que le bot n’aura pas su faire. Un outil de ce genre est capable de produire un chatbot bien plus intelligent que les actuels qui marchent à coup de “if if if if” et lâchent rapidement l’affaire.



Un peu au même titre que l’observabilité et l’automatisation du monitoring couplées à de l’auto-remédiation réduit la nécessité d’avoir une cellule d’exploit en HNO (avec un robot qui déclenche l’astreinte en cas de pépin, etc).


Fermer