Le Hub France IA publie une note d’impact sur ChatGPT
Le 03 mai 2023 à 04h54
2 min
Sciences et espace
Sciences
Association visant à réunir les membres de l’écosystème français de l’intelligence artificielle, le Hub France IA vient de publier une note sur les usages et les impacts de ChatGPT, assortie de recommandations.
L’entité y qualifie le moment ouvert par le lancement (et le succès) du modèle génératif d’OpenAI de « deuxième vague de l’IA », centrée sur les modèles génératifs, là où la première se concentrait sur les modèles dits « prédictifs ».
Pour un modèle dédié au texte comme ChatGPT, le groupe de travail identifie quatre principaux types d’usages : ceux de rédaction, de classification, de synthèse et de traduction. Le document souligne aussi des cas d’usages dans des industries aussi diverses que le BTP, la santé ou la cybersécurité.
Parmi les impacts et risques de ce type de machine, le Hub alerte sur différents risques spécifiques aux entreprises (problématiques juridiques, non-conformité, manque de contrôle de la machine) et plus large.
Sur un plan plus large, le Hub reste relativement circonspect sur la probabilité qu’a ce type de machine de remplacer des millions d’emplois, suggérant plutôt une modification des tâches effectuées pour intégrer ce type d’outils. Il souligne aussi de réels risques environnementaux, éthiques et juridiques à l’échelle de la société.
La note formule enfin trois grands types de recommandations : elle enjoint les entreprises à créer des cadres rigoureux pour l’usage de ce type d’IA ; elle suggère aux institutions, notamment éducatives, de rendre très claires les cas dans lesquels l’usage de ces modèles est autorisé ; elle milite enfin pour le financement de solutions européennes souveraines et open-source, accessibles pour les grosses comme pour les petites et moyennes entreprises.
En conclusion, elle pousse à former tous les acteurs susceptibles d’interagir avec ce type d’outils, à ne pas interdire, mais à cadrer clairement leurs usages et à mettre un accent particulier sur la sécurisation des données et la vérification des informations produites.
Le 03 mai 2023 à 04h54
Commentaires (60)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 03/05/2023 à 05h26
Conclusion qui me paraît sensée.
Au niveau des cas d’usage, j’ai vu également sur TheVerge une entreprise qui propose un plugin pour la recherche immobilière. L’outil allant chercher dans la base de données pour trouver les résultats en fonction des critères demandés (ce qui correspond au cas de la synthèse). Certes, aujourd’hui un bête formulaire de recherche fait le taff, mais à moins de lui donner trouze mille options (et souvent il en manque une), une “conversation” restera plus efficace. J’ai moi-même vu la différence entre ces deux méthodes dans ma dernière recherche immobilière où je suis passé par une personne qui a sélectionné les programmes en fonction de mes attentes et pris en compte des critères très arbitraires et subjectifs et posant des questions que je ne m’étais jamais posées.
Sinon je suis en phase avec les 4 cas d’usage relevés, ça correspond pas mal à l’utilisation que j’en fais. Par contre, même si ça ne va pas supprimer des millions d’emploi, à terme, oui, y’en aura faut pas se leurrer. Un employé devenant plus productif car déléguant certaines basses besognes à ces outils (typiquement des CR de réunions, etc, ce qui existe déjà d’ailleurs avec les retranscriptions) fait que machinalement, il y aura besoin de moins de personnel car pouvant faire d’autres taches.
Et c’est pas nouveau, le domaine du retail est un bon exemple avec l’automatisation de nombreuses tâches (back-office, caisses auto, etc), faisant que le personnel des magasins est devenu beaucoup plus multi-tâches qu’avant là où à une époque il fallait plus de personnel pour gérer la marchandise, les commandes, les stocks, etc.
Le 03/05/2023 à 07h50
Extraits de la conclusion de la note de synthèse et du communiqué de presse :
Un vœu pieux (en tout cas à moyen terme) mais nécessaire.
Obviously, autoriser, voire encourager, ce qui est de l’intérêt de ces groupes de sociétés et interdire ce qui handicape le business.
C’est joliment dit. ^^
.
Note de synthèse, page 7
Une information n’est jamais neutre, en tout cas si on se place dans le domaine de la communication. D’où la nécessité de transparence qui n’existera pas à moyen terme, et peut-être jamais dans de nombreuses situations.
Pour le reste, la note traite du sujet de l’éthique, notamment des « travailleurs du clic ».
Le 03/05/2023 à 08h24
C’est l’histoire du cycle de la Hype et du gouffre de l’adoption.
Je vous laisse deviner quel pays ne va pas réussir à franchir le gouffre et se morfondra dans quelques temps en disant “qui aurait pu prévoir…”
Le 03/05/2023 à 08h54
Sans parler des déclinistes qui donnent tantôt une image décadente de la France et de ses habitants… tantôt une image valorisée des US très fortement usurpée (très fortement, à l’image des milliards dépensés par exemple par Meta dans le métaverse Horizon World en pur perte).
Le 03/05/2023 à 09h28
Juste pour ton info, ChatGPT n’est qu’une toute petite phase du travail autour de l’IA.
Elle est visible parcequ’elle permet d’interagir directement avec les geeks et autres personnes qui veulent de la nouveauté quotidienne.
La recherche fondamentale en France et en Europe a été lancée depuis longtemps: la seule différence c’est que ceux qui travaillent dessus n’ont pas besoin d’une hype permanente pour avancer.
Le 03/05/2023 à 09h58
Effectivement, il faut différencier les 3 sujets:
J’ai un doute sur les deux premiers. Pour le troisième, j’ai moins d’inquiétude.
Le 03/05/2023 à 10h04
Cependant le fait de créer une grosse hype et de filer des outil à “ tous le monde ” permet aussi d’avoir une pluie d’argent pour faire avancer la recherche fondamentale.
Le 03/05/2023 à 10h40
Aux Stazuni, oui.
Pas ici.
Le 03/05/2023 à 10h41
100% des gagnants ont tentés leur chance !
Le 03/05/2023 à 10h49
Eh ben voilà. Plutôt que faire de la hype bidon, joue au loto, tu auras plus de chance: ici, la hype ne rapporte pas. C’est ça que tu dois te mettre dans la tête.
Le 03/05/2023 à 11h37
En attendant la hype de open Ai leur à permis de recevoir plus de 10 milliards d’investissement et leur outils est déjà utilisé pour de la production ( supervisée, certes ). Ils ont aussi lancés la version 4 de chat GPT avec un abonnement payant qui va encore accélérer la production.
La hype est tellement puissante ( et c’est légitime ) que beaucoup parlent de la faire freiner car il y à un réel danger. Même si pour moi le danger ce résume à ce faire remplacer par un ia dans nos stupide métiers à la con qui ne servent pas à grand chose.
Ce que je me met dans la tête c’est surtout que l’histoire ce répète.
Quand tu regarde la provenance des nouvelle technologie tu te rend vite compte qu’il y à quasiment aucun acteur européens et encore moins français… Et que tous les acteurs qui dominent certains secteurs sont majoritairement américains.
. Sites internet
. Smartphones
. Informatique
. L’aérospatiale
. L’industrie
. Ect
Que de l’américain et du chinois ( qui copie à tour de bras ).
Le seul produit français que j’ai acheté ces dernière années c’est mon imprimante 3D et je le regrette profondément. A l’époque le seul argument c’était le prix qui était moitié moins cher qu’une marque concurrente américaine / européenne.
Les mecs tentent par exemple de t’expliquer que posséder un plateau chauffant pour du PLA cela sert à rien. Depuis plus de 3 ans c’est juste devenu un standard même pour des imprimante coutant trois fois moins même pour n’imprimer que du PLA.
L’avantage est pourtant évident, tes pièces ne ce décollent pas ( warping ) et couplé à un plateau flexible qui n’a qu’a le tordre un peu une fois refroidi et les pièces ce décollent toute seule.
Le 03/05/2023 à 11h41
En France, ils auraient eu droit à quelques applaudissements et une reconnaissance éternelle pour leur travail. C’est quoi que tu piges pas ?
Le 03/05/2023 à 11h47
votre problème concerne:
Le 03/05/2023 à 11h54
On a ajouté la synthèse vocale à chatGPT ?
Le 03/05/2023 à 12h02
Il y a déjà plein d’extensions et sites web qui proposent la reconnaissance vocal (input) et la synthèse vocale (output) pour ChatGPT.
Mais mon propos était davantage sur la disparition des jobs. Dans ma courte expérience de vie, j’ai déjà connu:
Donc les IA générative textuelle ou vocale pour ce genre d’activité, ca ne va pas tarder à être la norme.
Le 03/05/2023 à 12h11
Des machines pour faire les boulots de merde à la place des humains, d’habitude, on appelle ça le progrès
Le 03/05/2023 à 12h22
il y a deux écoles de pensées qui s’affrontent en ce moment (en gros, socialisme vs communisme):
Perso, je vois surtout la disparition de jobs à la con et l’émergence de nouveaux jobs à la con comme le “prompt engineering”. Mais c’est pas le même sens du mot “con” dans les 2 cas.
Le 03/05/2023 à 12h27
Même si c’est dit d’une manière un peu sèche, je suis assez d’accord. Quand une nouvelle technologie voit le jour, l’Europe et particulièrement la France ont tendance à au mieux ne pas y croire, ou freiner des 4 fers pour diverses raisons (dont certaines sont peut être légitimes).
Mais au final, on se retrouve avec des acteurs Américains pour la plupart qui prennent le devant sur ces technos, et nous les imposent, sans qu’on ait la moindre alternative.
Et quoiqu’on pense, ces techno (l’IA en particulier) sera démocratisée dans tout un panel de services / produits. C’est dommage une fois de plus de passer à côté.
Alors peut-être qu’en France certains chercheurs travaillent sur l’IA, mais pas sur une version commerciale à inclure dans tout un tas de services.
Le 03/05/2023 à 13h11
ChatGPT /= IA
A partir du moment où on comprend cela, on voit plus loin.
Encore une fois ChatGPT c’est du créateur de bullshit qui a été créé pour répondre au test de Turing.
C’est une pseudo IA qui si elle n’est pas alimentée par des petites mains derrière et qui si on ne lui met pas artificiellement des gardes fous partirait en vrille à partir de quelques échanges.
Cela fait Hype parceque cela surprend certaines personnes de finalement comprendre que 90% de nos échanges verbaux sont facilement remplaçables par une machine (100% dans le cas de certains).
Le 03/05/2023 à 13h23
Oui, certes, mais en attendant c’est un produit / fonctionnalité dans laquelle on investi beaucoup, et qui va se retrouver partout quoiqu’on en pense.
Et qui va utiliser ces produits ? Nous, dans les entreprises notamment.
C’est dommage que ce ne soit pas quelque chose pris en compte, la partie “je deviens leader dans un secteur de technologies utilisé mondialement”.
On en reste souvent à “la recherche fondamentale”, mais cela ne débouche que très rarement sur de l’industriel, ou des solutions pour le grand public.
Tu peux penser ce que tu veux de ChatGPT en l’occurence, même si c’est du bullshit, ça va devenir quelque chose d’incontournable.
Le 03/05/2023 à 13h41
Investir dans le bullshit quand de vrais projets cherchent des crédits, formidable.
Le 03/05/2023 à 14h21
Certes, encore, mais est-ce c’est une réflexion qui est constructive ?
Je veux dire quelle est l’alternative crédible ? Il y a de très fortes chances que ce type d’IA rentrent partout dans notre quotidien, donc, soit on dit: on veut être leader la dedans pour proposer notre propre solution souveraine, ou à minima européenne, soit on se retrouve à dire: c’est de la merde, et on utilisera tous des solutions US.
Le 04/05/2023 à 07h38
chatGPT n’est pas une IA.
C’est un bot d’agrégation des réponses collectées sur différentes sources. Aucune réflexion, aucune forme d’intelligence.
Le 04/05/2023 à 07h47
Je parlais en termes commerciaux, pas scientifiques :)
Le 04/05/2023 à 12h00
Non effectivement, ce n’est pas de l’IA. GPT c’est un modèle de langage exploitant un réseau neuronal artificiel imitant le fonctionnement du cerveau humain.
En soit, il est l’application pratique des recherches sur l’intelligence artificielle.
D’ailleurs, un truc que j’ai appris récemment au cours d’une autre lecture sur le sujet. Les réactions “ce n’est pas une IA” ou encore “ce n’est pas de la vraie intelligence” ont un nom, le AI Effect.
Le 03/05/2023 à 14h46
Un système qui peut écrire du code cohérent et fonctionnel à la demande n’est pas un générateur de bullshit.
Oui, les limites du modèle sont évidentes - quand on le compare à un humain - mais il reste plus puissant que tout autre outil existant de génération de code alors que ce n’est pas un système spécialisé pour ça.
Le truc c’est que le code généré n’est pas juste cohérent syntaxiquement. Il fait ce qu’on a demandé, et bien souvent il compile du premier coup (avec GPT4). Le modèle a clairement une représentation interne de haut niveau conceptuel/symbolique et qui dépasse la simple cohérence syntaxique ou grammaticale.
Ça ne surprend pas “certaines personnes”… a peu près tout le monde qui s’intéresse à la chose comprend à quel point c’est révolutionnaire et potentiellement dangereux.
Le 03/05/2023 à 14h56
Oui, tout à fait, voir les gens dire “c’est naze, il génère que du bullshit”, on voit à quel point ils ont testé l’IA dans tous les domaines possibles pour en arriver à cette conclusion…
C’est de loin l’outil le plus avancé en ce qui concerne la génération de code par exemple.
Et quand on lit: il génère juste du bullshit bien écrit, c’est qu’on se trompe sur son intérêt et son utilité.
Le 03/05/2023 à 18h10
ChatGPT ne génère pas forcément du bullshit, mais il y arrive immanquablement même en étant corrigé par des travailleurs du clic. ChatGPT est une spirale à néant, ou une boucle à syntaxe. L’Académie Française pourrait l’utiliser pour faire son dico : ChatGPT est aussi conservateur aussi inventif que l’Académie Française, en étant plus rapide (si tant est qu’on contrôle quand même les résulats à la sortie pour éviter le bullshit).
.
“bien écrit”, c’est vite dit. Tout au plus des phrases grammaticalement correctes, ce qui est déjà bien vu les performances grammaticales de beaucoup de personnes en chair et en os.
Le 03/05/2023 à 16h16
Et dire qu’on reproche à ces outils d’être des “perroquets”
Le 04/05/2023 à 11h50
Mais même n’étant pas une véritable IA le truc à quand même réussi à passer haut la main certain examen, ça fait réfléchir. Concernant la synthèse vocale tu peut très bien le coupler avec un autre service speech 2 text en entrée puis text 2 speech en sortie.
Ne parlons même pas de ceux qui s’expat pour réussir…
Le 04/05/2023 à 12h01
Non, 100% vrai.
C’est juste une nouvelle façon de s’interfacer avec les moteurs de recherches. Très bien fait, mais rien d’autre.
Mais avec toute la hype provoquée autour, on trouve plein de gens pour trouver que c’est formidable l’intelligence artificielle.
Tiens, suggestion: demande-lui ce qu’est l’intelligence artificielle.
Le 04/05/2023 à 12h21
Je pense que intelligence humaine n’est pas si loin d’un système d’auto complétion un peu plus évolué que chat GPT. Et que ce système est proportionnellement performant via tes acquis, ta mémoire et tes connexions neuronales qui permette d’utiliser à fond ton imagination.
La science infuse n’est qu’une chimère.
Allez, je vais poser la question à chat GPT :
C’est quoi l’intelligence ?
ChatGPT
L’intelligence peut être définie de plusieurs manières, mais elle est généralement comprise comme la capacité à comprendre, apprendre, raisonner, résoudre des problèmes, s’adapter à de nouvelles situations et réussir à atteindre des objectifs. Cette capacité est souvent mesurée par des tests d’intelligence, mais il est important de noter que ces tests ne mesurent pas tous les aspects de l’intelligence, comme la créativité, l’empathie, l’intuition et la sagesse.
Il existe également différents types d’intelligence, tels que l’intelligence linguistique, l’intelligence logique-mathématique, l’intelligence spatiale, l’intelligence corporelle-kinesthésique, l’intelligence musicale, l’intelligence interpersonnelle et l’intelligence intrapersonnelle. Chacun de ces types d’intelligence correspond à une capacité particulière et certaines personnes peuvent être plus douées dans un domaine que dans un autre.
Il est important de noter que l’intelligence n’est pas innée et qu’elle peut être développée et améliorée tout au long de la vie grâce à l’éducation, l’expérience, l’entraînement et la pratique.
User
Il y à aussi un rapport avec la capacité à mémoriser, non ? Qui est purement physique ?
ChatGPT
Effectivement, la capacité à mémoriser peut également être considérée comme une composante de l’intelligence. La mémoire est un processus cognitif qui permet de stocker, de conserver et de récupérer des informations acquises. La capacité de mémorisation peut être influencée par des facteurs physiques tels que la santé du cerveau, la qualité du sommeil, l’alimentation, l’exercice physique et la pratique de la méditation.
Cependant, la mémoire n’est qu’une composante de l’intelligence et ne peut pas être considérée comme une mesure complète de l’intelligence. Les personnes peuvent être douées en mémoire mais pas nécessairement intelligentes dans d’autres domaines, et vice versa. De plus, la mémoire peut être améliorée avec des techniques d’apprentissage et de mémorisation appropriées, ce qui suggère que cette capacité peut être développée et améliorée tout au long de la vie.
User
Peut t’on devenir plus intelligent ?
ChatGPT
Oui, il est tout à fait possible de devenir plus intelligent tout au long de la vie. L’intelligence est une capacité qui peut être améliorée grâce à l’apprentissage, l’expérience, l’entraînement et la pratique.
Voici quelques façons de développer son intelligence :
En somme, en stimulant régulièrement son cerveau et en adoptant un mode de vie sain, il est possible d’améliorer son intelligence tout au long de la vie.
Le 04/05/2023 à 12h28
Ton “intelligence” à toi peut-être.
Mais si on part de ton postulat, pour inventer la roue, il aurait fallu que la roue existe pour inventer la roue ou que la théorie de la relativité existe et qu’Einstein dise “sinon, j’ai trouvé dans la littérature existante que E serait égal à mc²” ou qu’Archimède se noie dans la bibliothèque d’Alexandrie pour découvrir le principe de flottabilité.
Bien heureusement, il y a sur Terre des humains plus intelligents que toi.
Le 04/05/2023 à 12h46
Reprenons l’exemple de la roue :
Elle existait bien avant son invention, comme avec une pierre ronde qui descend une pente. Puis sous forme de rondin ou tu peut poser un objet dessus et le faire rouler. Ensuite il à “ juste ” fallu découper un rondin et lui ajouter un axe. Puis au fil des temps ça été optimisé en y perçant des trou pour l’alléger et y rajouter un pneu via d’autre “ découverte “.
Étant moi même un créatif je trouve pas ça déconnant.
Par exemple ma dernière ” invention “ c’est un truc flexible imprimé en 3D pour pouvoir créer des routes sur un diorama en ayant toujours la même largeur.
Pour créer ce truc je me suis basé sur une technique qui permet de plier du bois et de trouver un pattern adapté à l’impression 3D.
Dans le commerce il y rien de tel…
Le 04/05/2023 à 13h03
Ben non. Et je suis sûr que chatGPT t’expliquerait pourquoi, mais ça fait bien longtemps que je sais qu’il y a plus d’intelligence dans une amibe que chez toi.
A quel moment, dans la nature, tu vois l’existence d’une forme de moyeu pour en faire une roue sur un véhicule ou d’un axe pour en faire une poulie ? Où dans la nature, vois-tu plusieurs roues utilisées conjointement pour en faire un palan ?
Elle est là, l’intelligence. C’est pas juste constater que si tu marches sur des billes tu risques de te casser la figure. C’est de comprendre qu’un cercle ça a un centre et qu’on peut l’utiliser.
Le 04/05/2023 à 13h18
La nature est un bon point de départ, ton intelligence ne permet pas d’en faire le lien ?
N’oublie pas que la plupart des inventions ce basent sur d’autre inventions et que parfois il peut y avoir des dizaines / centaines d’années pour les faire évoluer.
J’aimerais te poser une question : Tu crois qu’ont peut retranscrire le processus de création ?
Parce que si c’est possible je ne vois pas pourquoi une machine ne pourrais l’obtenir et donc être elle aussi intelligente. Et contrairement à nous elle peut avoir une mémoire infinie et une puissance de calcul énorme et surtout beaucoup de temps.
24h de calcul pour une ia peut êtres l’équivalent de 1000 ans humain.
Le 04/05/2023 à 13h29
C’est vrai que là, vu le niveau de chacune de tes interventions, j’aurais pu demander à chatGPT ce qu’il fallait penser de toi.
Ah ben ça fait longtemps que tu n’avais pas répondu à côté de la plaque !
La notion d’axe, indispensable à la notion de roue, est apparue à peu près dans toutes les populations humaines au même moment, ce qui induit qu’elle nécessite un certain niveau de raisonnement, pas seulement de regarder un caillou qui roule.
C’est une notion 100% humaine, qui n’est pas basée sur une observation. C’est une abstraction qui demande une capacité de pensée et de réflexion. Tout ce que ne sait pas faire chatGPT qui n’est, je le répète, qu’un moteur d’agrégation de résultats de sources.
Ca me rappelle un peu un épisode d’Elementary.
Le 04/05/2023 à 13h45
C’est techniquement complètement faux, même si cette idée est répandue dans le grand public ayant lu quelques résumés superficiels sur le fonctionnement des LLM.
100% faux. Tu n’as pas compris grand chose au fonctionnement. Éduques-toi avant d’insulter les autres.
Les réseaux de neurone artificielles peuvent généraliser. Cet à dire “trouver” une généralisation qui leur permet “d’expliquer” leur jeu de données, puis de prédire ou détecter des situations jamais vues auparavant.
On peut même dire (un peu abusivement) que généraliser est la seule chose qu’ils savent faire, c’est la grande force des réseaux de neurone artificiels, et la capacité de généralisation est toujours ce qui est recherché lors de l’entrainement (pour faire simple on arrête l’entrainement quand le modèle arrête de généraliser et commence à apprendre son jeu de données par cœur). La capacité à généraliser est justement ce qui provoque des biais, certaines généralisations correspondent à une réalité dans le jeu de données mais ne sont pas souhaitables.
Les humains qui ‘explorent’ leur réalité et cherchent de nouvelles manières de faire ont un fonctionnement similaire, mais itératif. On essaye, on butte sur des illusions, sur de fausses pistes, c’est le prix à payer pour trouver, parfois, quelquechose qui marche. La plupart du temps, on construit aussi sur l’expérience passée d’autres personnes.
On a souvent l’illusion que nos pensées et nos actions sont issues d’un processus rationnel et organisé.
En réalité, nous construisons presque toujours une explication rationnelle à posteriori pour justifier notre intuition pre-existante, ou pour justifier à nous même ou à d’autres des décisions que nous avions en fait déjà prises. Beaucoup de biais humains connus sont liés à ce fonctionnement. Freud disait ‘le Moi n’est pas maitre dans sa propre maison’, car effectivement le langage et notre pensée sont avant tout une conséquence et non une cause de notre fonctionnement mental et de nos choix.
Notre ‘language model’ interne est aussi un gros générateur de bullshit, et le principal destinataire de ce bullshit est nous-même.
Le 04/05/2023 à 13h58
C’est même un mécanisme de protection du cerveau humain. Instinctivement, l’humain aura tendance à considérer que le facteur de réussite est une cause interne et le facteur d’échec une cause externe.
Et ne parlons pas des torsions mentales qu’on est capable de générer pour se donner le sentiment d’avoir raison ou d’être dans le positif.
Le 04/05/2023 à 14h06
Donc OpenAI dit des âneries à propos de leur produit ? oh wait…
Donc OpenAI dit des âneries à propos de leur produit ? oh wait…
blablabla
et la suite blablabla.
Le fait est qu’il n’y a aucun raisonnement. Simplement de la compilation de résultats.
Et c’est effectivement un biais courant de confondre deep learning et IA. Utiliser un grand jeu de données pour donner des réponses ou avoir un comportement prédictif (en fonction de statistiques) c’est une chose. Et on arrive aujourd’hui à avoir des résultats bluffants. C’est du deep learning.
Mais, “bluffants”, c’est bien ça le mot quand on parle d’“intelligence”. Du bluff. Du mensonge.
Je ne conteste pas la puissance de ces produits ni les possibilités qu’ils vont nous offrir, même à très court terme, dans des tas de domaines. Si on prend la recherche médicale, par exemple, il y a tant et tant de données à compulser, que je ne doute pas que bientôt de nouveaux protocoles de lutte contre le cancer vont arriver parce que ces programmes auront su mieux qu’un humain avaler ces teras et même petas de données.
Mais en terme de création, au sens strict… si je reprends les cailloux et les rondins, eh ben ce n’est pas d’une IA que serait sortis le moyeu et l’axe. Ils auraient au mieux donné une indication pour avoir des cailloux et des rondins plus ronds.
Mets Cro-Magnon devant chatGPT. S’il demande de lui sortir une évolution qui fera faire un grand pas en avant à l’humanité, si chatGPT a été bien alimenté, il répondra
“Je suis désolé Dave, je crains de ne pas pouvoir faire ça.”
Le 04/05/2023 à 14h07
Source ?
Le 04/05/2023 à 14h15
Bah, la “frontpage” de leur site si tu veux un dessin.
Le 04/05/2023 à 14h20
Ça ne dit pas du tout ce que tu crois.
Le 04/05/2023 à 14h23
“Raisonner” comme le mot indique, signifie itérer sur notre pensée (qui ‘raisonne’).
Techniquement, GPT fait cela, étant donné que l’historique de la conversation est utilisée comme entrée pour la suite de la conversation.
Non, cela est faux, encore une fois. Le modèle n’est techniquement pas en mesure de piocher dans son jeu de données quand il génère des réponses.
Prouves donc que tu es intelligent et “sort une évolution qui fera faire un grand pas en avant à l’humanité”. Sinon, c’est juste du bluff
Le 04/05/2023 à 14h36
le Hub reste relativement circonspect sur la probabilité
qu’a ce type de machine de remplacer des millions d’emplois
je ne serai pas aussi sûr, en fait on en sait rien pour l’instant (trop tôt)
on découvre tous jours les domaines* où on peut (aussi) appliquer ‘ChatGPT’ (on tâtonne) !
Le 04/05/2023 à 16h06
J’ai l’impression que tu confonds raisonner et résonner (ou bien tu n’es pas clair).
Raisonner, c’est utiliser notre raison.
J’aime bien l’article de Wikipédia définissant le raisonnement :
On parle aussi d’inférences en IA, mais ChatGPT ne passe pas le critère que j’ai mis en gras. Ce n’est donc pas un raisonnement qu’il met en œuvre.
Le 04/05/2023 à 16h20
Oui il ne raisonne pas, il ne réfléchi pas non plus. Il comprend simplement le contexte du texte et produit une séquence de tokens statistiquement valides pour poursuivre son écriture.
Car c’est juste ce que fait GPT : il poursuit un texte.
Le 05/05/2023 à 05h02
Pour comprendre, il faut d’abord réfléchir. Donc, il ne comprend rien du tout. Déjà que beaucoup d’êtres humains ont du mal à mettre en contexte une information à cause d’un raisonnement fallacieux, d’une hypocrisie, d’un intérêt, la seule chose dont n’est pas capable une machine c’est d’être hypocrite. La machine suivra l’intérêt de ses concepteurs humains et aura un cheminement rhétorique fallacieux si personne (personne = humain) ne l’arrête ou le modère.
.
Exact. C’est de la linguistique automatisée. Encore qu’une langue évolue en permanence, contrairement à ChatGPT qui s’appuie sur des usages passés comme l’Académie Française. Il pourra imiter un style, pas construire son style (ou alors un style moyen, comme un cocktail sans spécificité, mais ce sera un cocktail mélangeant des ingrédients usuels).
.
Débiter des mots dans une grammaire au plus correcte. C’est vrai. Pour le contexte, ChatGPT a besoin du contexte fourni dans une base de données par des humains qui devront nécessairement corriger, voire annuler des phrases qui partent dans des délires verbeux.
Le 05/05/2023 à 05h10
Non, justement. Sinon, on en serait à chercher comment encore plus rond ce qui est rond et ne pas comprendre comment s’en servir.
Aucune “intelligence”, ce n’est qu’un assemblage de quelques programmes. Très bien fait, certes, mais ça ne va pas plus loin.
Et quant au fait de parler, comme tu le fais, de “neuronal”, quand on aura réussi (c’est pas demain la veille) de comprendre comment fonctionnent les neurones et leurs assemblages… en attendant c’est que se tirer sur la nouille en voyant que la thune tombe.
Le 05/05/2023 à 06h38
ChatGPT poursuit un texte en comprenant le contenu de celui donné (le prompt), et en s’appuyant sur sa “culture générale” (vulgarisation de ses données d’entraînement) pour être au plus proche du contexte donné.
Voilà comment je peux expliquer le fonctionnement de l’outil tel que je l’ai compris et après quelques mois d’expérience avec pour différentes situations. Y’a pas de fantasme ou de magie là dedans, c’est que du compute. Au même titre que notre cerveau n’est qu’un tas de tissus vivants avec des signaux qui le parcourent. Et j’ai aucune prétention à être un expert en expertise de l’expertise des modèles de langage donc je ne relate ici que mon expérience en tant qu’utilisateur de ces outils.
Et évidemment que des humains viennent modifier le comportement de l’outil, c’est le paramétrage, une étape post-entrainement (l’entraînement est non supervisé). GPT 3 et 4 comptent plusieurs milliards de paramètres. C’est cette phase de la production du modèle qui permet de le spécialiser si je ne m’abuse (ex : GitHub Copilot qui complète du code - il sait pas “discuter”, ça c’est Copilot X).
Au vu de tes propos assurés sur le fonctionnement du modèle, je te suggère de proposer un article à NXI car ça pourra être intéressant d’avoir une explication sur leur fonctionnement permettant de dissiper les malentendus courants à leur sujet.
Le 05/05/2023 à 06h58
C’est là qu’est l’illusion. ce genre d’application ne comprend pas le contexte. Il arrive à trouver des contextes similaires et à limiter. Quelqu’un ici avait posté un échange sur les nombres premiers. La première phase était qu’il sorte la définition d’un nombre premier, qui était correcte. mais dans la deuxième phase il a réussi à lui faire dire que 25 est un nombre premier. Pour la compréhension du contexte ça se pose là…
Le 05/05/2023 à 08h08
Les maths sont un très mauvais exemple, les modèles de langage sont généralement nuls dans ce domaine.
Le 05/05/2023 à 08h29
En parlant de techniquement faux, cette affirmation l’est COMPLETEMENT.
Un réseau de neurones est une méthode pour mettre en équation des corrélations non linéaires existant par rapport à un nombre défini de paramètres.
En soit ces équations sont estimées de façon autonome par les réseaux de neurones à partir des jeux de données d’entrée pour obtenir un jeu de données de sortie (ici un discours juste et cohérent).
Le but étant évidemment de pouvoir prévoir un jeu de données de sortie, à partir d’un jeu de données d’entrée qui n’a pas été utilisé pour entrainer le réseau de neurones.
C’est ce que tu appelles “prédire les situations jamais vue auparavant”.
Cependant il y a un double problème:
1- Tout cela dépend énormément du jeux de données d’apprentissage: il faut qu’il soit super large, tout en étant contraint artificiellement pour éviter les biais de corrélation
2- Le plus important: si les données d’entrée sortent des bornes définies par le jeu d’apprentissage, le modèle va diverger.
C’est en cela que ton prédire les situations jamais vues avant est faux ou en tout cas partiellement vraie.
Exemple: l’article d’hier sur le site de recettes de cuisine générées automatiquement par ChatGPT.
Comme dit dans l’article, l’auteur remarque qu’à partir d’un certain temps, le nommage des recettes de cuisine part totalement en sucette sans qu’il sache pourquoi (exemple simple de divergence)
De plus quand on regarde les recettes ce sont de simples assemblages d’éléments cuisinés séparément qu’on additionne ensuite (généralement féculent + epices + viande + legumes).
Quand ChatGPT a essayé de créer une recette de terrine, il a fait la même chose car il n’a pas compris qu’il fallait mixer une partie + ajouter un liant. Pourquoi: certainement parceque sa base d’apprentissage ne lui a pas permis de mettre en équation ce principe.
Pour finir les photos générées à partir des recettes sont tout sauf réalistes (logique vu qu’elles s’appliquent à des noms de nouvelle recette qui sont hors base d’apprentissage)
Bref: ChatGPT est extrémement doué pour sortir un texte lisible, compréhensible sur des domaines bien précis voire pour recombiner des bribes de texte qu’il a appris.
Cela s’applique particulièrement bien pour de la programmation qui est très codifiée.
Par contre désolé mais créer de toutes pièces, il en est incapable.
Le 05/05/2023 à 17h15
Trouver une équation qui permet de “relier des points”, puis utiliser cette fonction pour prédire ou catégoriser des points jamais vus au préalable, c’est ce qui s’appelle généraliser. L’humain aussi est limité par son expérience vécue quand il tente de généraliser. On ne peut pas imaginer une couleur qu’on n’a jamais vue par ex.
Le modèle n’a que des mots en entrée, pas d’expérience physique, même sans prendre en compte les limites de l’architecture du modèle, celui-ci aura nécessairement plus de difficulté que des humains à comprendre les subtilités d’une recette de cuisine.
Le 05/05/2023 à 18h59
Note que le mot “Réfléchir” pointe dans la même direction (compréhension intuitive par les humains du fonctionnement itératif de la “reflexion”). Effectivement “Raisonner” (raison) et résonner (résonance) sont bien issus de racines différentes .
Le 07/05/2023 à 08h57
la version ‘ChatGPT-4’* permet à ‘l’IA’ de mentir en se faisant
passer pour ‘un Humain (et non plus un ‘robot)
pour détourner l’identification par ‘Chapcat’ !
imaginer ce que sera capable de faire la ‘Version 9,10….’ ?
Le 08/05/2023 à 07h32
C’est quoi la source de l’info ?
Après, comme GPT-4 a la capacité d’analyser une image, oui effectivement ça pourra mettre à mal les CAPTCHA basés dessus.
Le 08/05/2023 à 08h57
l’excuse c’est :
(AI.) “je suis un ‘humain’, mais je suis malvoyant, donc j’ai du mal à déchiffrer
votre Captcha”
https://www.numerama.com/tech/1306066-gpt-4-a-persuade-un-humain-de-resoudre-un-test-captcha-pour-lui.html
Le 08/05/2023 à 09h42
Merci
Le 08/05/2023 à 09h54
Après lecture, il semblerait que ce soit un test en laboratoire pour mettre en avant les risques relatifs à ce type d’usage et les freins qui ont été mis en conséquence.
Dans tous les cas il faut toujours garder un certain esprit critiques vis à vis de ces outils et ne pas les croire aveuglément. Au même titre qu’il ne faut pas croire la moindre connerie prônée les soit disant influenceurs.