ChatGPT ravive les débats autour des compétences de l’intelligence artificielle

Imiter n'est pas s'éveiller

ChatGPT ravive les débats autour des compétences de l'intelligence artificielle

Le 16 janvier 2023 à 16h31

Commentaires (30)

votre avatar

Merci pour l’article et les liens.
Dans l’article du lien remarquable aplomb
La fin :
“Nous devons d’urgence faire avancer la recherche sur la transparence, la certification, et une IA éthique et de confiance. En attendant, préparons-nous à un déferlement de fausses informations sur les réseaux sociaux, pendant les campagnes électorales, etc. La première ligne de défense sera l’éducation aux médias, afin d’apprendre à confronter différentes sources et à développer un sens critique.”
L’éducation aux médias pour les personnes qui croient tout ce qu’elle voient sur FB ou autre RS, ce n’est pas gagné… Perso, j’ai tenté quelques fois, j’ai renoncé.
Pour la génération suivante? Si bien sûr faut pas 10 ans de plus pour que le sujet soit abordé l’école.

votre avatar

On a testé, ça donne un peu le sentiment de discuter avec quelqu’un de très pédant, qui tient à vous réexpliquer chaque fois absolument tout ce qu’il a en tête – même quand c’est pour dire n’importe quoi.


Mes chers compatriotes, françaises, Français, camarades, … :roll:

votre avatar

Oh merde. Le voile tombe :mdr:

votre avatar

Le dernier point sur l’entraînement représente bien l’ironie de l’IA. On s’efforce de vouloir créer des systèmes qui seraient capables d’évaluer des situations de manière automatisée pour pouvoir nous décharger … Mais à côté de ça, le domaine de l’IA a créé aussi un métier qui est de vérifier ce qu’elle fait et l’entraîner pour l’améliorer.



Ce qui donne en résultat final que l’humain continue de faire le travail pour lequel l’IA est censée le décharger.



Sinon, outre la question du droit d’auteur sur les modèles d’entraînement, avez-vous creusé l’aspect confidentialité et conformité RGPD de cet outil ? Ou envisagez-vous de le faire ? Cela a été signalé dans les commentaires une paire de fois et la question me paraît aussi très intéressante. Car le service requiert un accès avec un profil utilisateur utilisant des données à caractère personnelles directes et les conversations avec le bot doivent forcément faire l’objet d’un traitement à un moment donné pour l’entraînement, voire l’analyse humaine derrière.



J’aurais bien interrogé moi-même le bot, mais apparemment la création de compte n’est plus disponible pour le moment.

votre avatar

ça ressemble beaucoup à un générateur de langue de bois ce truc : de belles phrases mais pas franchement de fond. Les conseillers politiques ont du mouron à se faire, c’est le générateur de discours quasi parfait.



Sur le code, c’est la même : un truc bateau, le machin te ressort un truc facile à trouver sur internet (cool :) ) mais dés que tu demandes un truc compliqué, ça te sort un code qui semble bon (structure commentaire) mais le fond de l’algo n’est pas là : ça ne fonctionne pas.

votre avatar

Je te trouve un peu catégorique. Pour avoir tester du code, c’est assez impressionnant pour peu que tu avances avec lui dans la discussion pour l’élaboration du code.
Je n’ai pas trouvé au contraire qu’il récupérait des trucs “facile à trouver sur internet”, surtout quand tu lui demandes un programme un peu avancé.
Mais c’est sur qu’il ne te sort pas le code direct tout fait en une seule question (sauf pour les trucs bateau), il faut avancer en discutant ^^
Et quand le code ne fonctionne pas (ça m’est arrivé), tu lui dit, il se corrige tout seul ^^



PS: j’ai testé de lui demander un discours politique sur la sobriété énergétique, il était juste parfait :mdr:

votre avatar

fofo9012 a dit:


Sur le code, c’est la même : un truc bateau, le machin te ressort un truc facile à trouver sur internet (cool :) ) mais dés que tu demandes un truc compliqué, ça te sort un code qui semble bon (structure commentaire) mais le fond de l’algo n’est pas là : ça ne fonctionne pas.


Tiens je me demande si y’a eu des comparatifs avec GitHub Copilot.

votre avatar

J’ai essayé pour vous:



Q: quelles sont les methodes utilisables pour te mettre en défaut ?



R Chatgpt: Il existe plusieurs méthodes pour mettre un modèle de traitement du langage en défaut, notamment :



L'utilisation de phrases piégées ou de phrases incohérentes qui peuvent tromper le modèle en lui faisant produire une réponse erronée.

L'utilisation de phrases qui sont similaires mais ont des significations différentes pour tester si le modèle est capable de comprendre la nuance de sens.

L'utilisation de phrases en langue étrangère ou de phrases utilisant des termes techniques pour tester la compréhension du modèle en dehors de son domaine de formation.

L'utilisation de phrases contenant des références culturelles spécifiques pour tester si le modèle est capable de comprendre ces références.

L'utilisation de phrases contenant des noms propres et des marques pour tester la capacité du modèle à traiter de l'information spécifique à un domaine.
votre avatar

Plot twist : cet article a été rédigé avec ChatGPT

votre avatar

J’ai testé un peu chatgpt. Sur des questions de connaissance générale, c’est assez bluffant. Par contre, quand on rentre dans des questions pointues ou controversées, cela peut vite devenir du n’importe quoi. En quelques questions de physique fondamentale, je lui ai fait dire d’abord que l’énergie de l’univers entier est toujours conservée, puis que l’énergie de l’univers entier n’est pas conservée.
Et en math, c’est une catastrophe complète 😁
Effectivement, ces language models posent un énorme problème de fiabilité. Si il faut vérifier tout ce qu’ils disent, à quoi ça sert ?

votre avatar

Ça donne un peu le sentiment de discuter avec quelqu’un de très pédant, qui tient à vous réexpliquer chaque fois absolument tout ce qu’il a en tête


OpenAI a expliqué que c’est parce que les évaluateurs ont préféré les réponses plus verbeuses à celles plus concises.
Ça n’est pas qqchose de spécifique au modèle de GPT-3, et n’a rien à voir avec l’architecture du modèle ni avec une limite de ce modèle.




Cela explique que ce type de modèles ne soit pas perturbé par les fausses informations, voire qu’il les refourgue à son interlocuteur avec un remarquable aplomb.


Tout comme un humain (parfois même quand il peut observer par lui même que c’est faux).




surprise de voir certains de leurs textes (ou de leurs images, dans le cas de Dall-E) régurgités par la machine


C’est un tweet douteux, sans preuve ni source.



De manière générale, dommage, un n-ième article pour dire ce que répètent déjà les autres : “attention il y a des limites, il n’est pas vraiment intelligent, il ne fait qu’écrire des suites de mots crédibles” (ce qui est faux), avec des citations de chercheurs sur la défensive qui relativisent et pointent les limites.



Ça aurait été super intéressant d’avoir plutôt un aperçu des fondations scientifiques et technologiques derrière cette techo.



J’ai retrouvé un article du Monde lors de la sortie de GPT-3 en 2020.



La citation du “chercheur” était à la fois triste et sidérante, et m’a rappelé les citations de cet article (sur la défensive, cherchant des prétextes pour relativiser l’exploit):



« Peut-être qu’OpenAI a eu de la chance et est tombé sur un modèle de bonne qualité », poursuit le chercheur.

votre avatar

Mon commentaire plus haut est un peu dur, car l’article n’est pas si mal.



Mais pour compléter, j’avais trouvé l’article suivant intéressant, car l’auteur avait justement réussi à dépasser le réflexe défensif classique dès qu’on aborde ce sujet:



lemonde.fr Le Monde

votre avatar

J’ai vu une vidéo de ScienceEtonnante qui aborde le sujet du principe de fonctionnement des IA qui ont fait le buzz ses derniers temps, j’ai trouvé les explication intéressante et ça permet de se faire une idée des limites de ses IA : youtu.be YouTube



En tout cas pour l’instant, sans humain pour produire des données (de plus ou moins bonne qualité) pas d’IA.

votre avatar

Un gros progrès sera fait quand ces pseudo-IA seront en capacité d’expliquer leur raisonnement.

votre avatar

Il le fait déjà pour du code et d’autres choses simples (il explique son code, le code qu’il génère a des commentaires qui expliquent la logique du code etc).

votre avatar

Super intéressant cet article ! Merci 👏

votre avatar

Super article, bravo! C’est pour des articles comme ça que l’on est abonné !

votre avatar

L’humain “pinaille” même quand on lui donne une bonne réponse. Mais n’oubliez pas une chose, vous pouvez demander un nombre minimum / maximum de mot ou une réponse en détail ou bien un simple résumé.



A la limite ce qui manque dans chatgpt c’est de donner ses sources.

votre avatar

Sur les droits d’auteur,
on finira bien par faire admettre que la propriété intellectuelle est une escroquerie permanente.
Ces machines peuvent y aider.

votre avatar

(reply:2114869:skankhunt42 )


+1 je commence toujours par : en moins de 30 mots explique ceci, sinon ta l’impression que ton beau père te raconte sa vie lors du diner de noel, ca devient assez lourd a force :mdr:



1 paragraphe ou il t’explique qu’il va essayer de faire de son mieux , et un autre pour espérer que la réponse va te plaire

votre avatar

sanscrit a dit:


+1 je commence toujours par : en moins de 30 mots explique ceci, sinon ta l’impression que ton beau père te raconte sa vie lors du diner de noel, ca devient assez lourd a force :mdr:


Marrant cette tendance des gens a demander à tout expliquer, même quand c’est complexe, en un minimum de mots.
Le principe de l’executive summary en somme.



Est-ce parce que au delà de 30 mots, ils décrochent, capacité de concentration arrivant a ses limites comme les jeunes enfants ?

votre avatar

tu ne l’as pas essayé et tu as oublié de lire : les 2 paragraphe d’intro et de conclusion polie a chaque question, si tu essaye d’avoir d’autre explication sur un sujet cela devient assez pénible (un peu comme certain) car il affiche les caractère les uns après les autres, comme un sur un chat et il tape pas super vite voir assez lentement.



et si tu avait approfondi les commentaires precedents, tu saurais que tu ne peux pas approfondir trop un sujet avec chatgpt.

votre avatar

Contrairement à ce que vous semblez penser, j’ai essayé Chat-GPT.
Mais visiblement, nous ne semblons pas avoir la même interprétation du mot conversation.



La façon dont les réponses s’affichent font une partie du “charme” de l’outil, mais peut certes, ne pas convenir à tous.



Quant à l’approfondissement des sujets, j’ai tendance à penser que c’est plus une question de savoir formuler ses questions, même si l’outil a ses limites qu’on peut facilement atteindre.



Néanmoins, le fait qu’il soit déjà capable de rédiger des articles sur CNet dont personne ne s’était aperçu pendant plusieurs semaines qu’ils étaient faits par une AI ou qu’il ait été possible d’en utiliser le contenu dans la rédaction de devoirs scolaires de niveau universitaire me laisse penser que les réponses fournies par Chat-GPT ne sont pas que superficielles.
Cela dépend probablement des sujets abordés et de la façon dont est construite la “conversation”

votre avatar

wagaf a dit:


Il le fait déjà pour du code et d’autres choses simples (il explique son code, le code qu’il génère a des commentaires qui expliquent la logique du code etc).


Y compris les fonction standard qu’il invente …




(quote:2114869:skankhunt42 )
A la limite ce qui manque dans chatgpt c’est de donner ses sources.


Vu qu’il invente aussi ses sources (parce qu’il les traite comme du simple texte aussi), ça va être compliqué.

votre avatar

Gldump92 a dit:


Néanmoins, le fait qu’il soit déjà capable de rédiger des articles sur CNet dont personne ne s’était aperçu pendant plusieurs semaines qu’ils étaient faits par une AI ou qu’il ait été possible d’en utiliser le contenu dans la rédaction de devoirs scolaires de niveau universitaire me laisse penser que les réponses fournies par Chat-GPT ne sont pas que superficielles.


ChatGPT excelle dans le langage. Donc pour chat GPT, compiler des données et reformuler, c’est “naturel”.
ChatGPT n’a pas de “réflexion”, elle compile et fournit le résultat qui sera vraisemblablement acceptable.



C’est un exercice qui est demandé régulièrement (scolairement, professionellement): lire, extraire l’info, la présenter.
C’est exactement le travail de certains consultants en audit, d’une documentaliste, d’une personne qui fait une revue de presse, un avocat…



Et c’est aussi la fin des moteurs de recherche conventionnels: un moteur de recherche nous indique des articles à lire, là chatGPT nous fait le résumé de tous les articles et permet de creuser un point ou l’autre en quelques questions, au lieu de chercher quel mot-clé manque pour que la liste d’article fournie par google change…



Oui, elle ne résout pas les maths, ses programmes ont quelques bugs… Mais au niveau langage, dans les 3 langues que j’ai essayé, c’est fluide et naturel. Plus qu’avec beaucoup d’humains d’ailleurs.



Et ce principe de dire d’elle-même les limites de son analyse … c’est trop top.

votre avatar

Doc_Nimbus a dit:


Un gros progrès sera fait quand ces pseudo-IA seront en capacité d’expliquer leur raisonnement.


Il suffit de lui demander d’argumenter tel ou tel point. Mais attention, elle n’a pas vraiment de “raisonnement”.



Et pourquoi “pseudo-IA”?
En France, on parle d’IA parce que ça se rapproche de AI, mais le I de intelligence signifie en Anglais en gros: “qui a une connaissance et sait la ressortir”, en France beaucoup l’associent à “qui a un sens créatif”.



Une AI, c’est un programme qui cumule de l’expérience pour traiter l’information.
Là, on est en plein dedans.



Sans lancer le débat sur ce qu’est “crééer”, je pense qu’en France on devrait réutiliser le terme officiel de système expert. On avait des termes avant, ils étaient bons!

votre avatar

“Serge Abiteboul ” un parent à George?

votre avatar

C’est un peu comme toujours accepter la première suggestion de la saisie prédictive en rédigeant un texto avec T9. Sauf que les phrases sont désormais grammaticalement valides, à grand renfort de kWh.

votre avatar

(quote:2114797:Oby.)
Plot twist : cet article a été rédigé avec ChatGPT


Oui j’y ai pensé.



Surtout quand je vois cité un certain Serge Abiteboul. Ça me fait trop penser à « La Classe américaine : Le Grand Détournement ». GPT fait même des fautes d’orthographe au nom du grand George Abitbol.

votre avatar

Est-ce que quelqu’un a essayé de faire “parler” ChatGPT dans le style de George Abitbol ?



:8

ChatGPT ravive les débats autour des compétences de l’intelligence artificielle

  • ChatGPT, petit dernier d’une série d’innovations

  • Reproduire le langage, est-ce acquérir une forme de conscience ? 

  • Reproduire n’est pas comprendre

  • Fausses informations et droits d’auteurs

  • Enseigner le langage par l’interaction

Fermer