Connexion
Abonnez-vous

Le Hub France IA publie une note d’impact sur ChatGPT

Le Hub France IA publie une note d’impact sur ChatGPT

Le 03 mai 2023 à 04h54

Association visant à réunir les membres de l’écosystème français de l’intelligence artificielle, le Hub France IA vient de publier une note sur les usages et les impacts de ChatGPT, assortie de recommandations.

L’entité y qualifie le moment ouvert par le lancement (et le succès) du modèle génératif d’OpenAI de « deuxième vague de l’IA », centrée sur les modèles génératifs, là où la première se concentrait sur les modèles dits « prédictifs ».

Pour un modèle dédié au texte comme ChatGPT, le groupe de travail identifie quatre principaux types d’usages : ceux de rédaction, de classification, de synthèse et de traduction. Le document souligne aussi des cas d’usages dans des industries aussi diverses que le BTP, la santé ou la cybersécurité.

Parmi les impacts et risques de ce type de machine, le Hub alerte sur différents risques spécifiques aux entreprises (problématiques juridiques, non-conformité, manque de contrôle de la machine) et plus large.

Sur un plan plus large, le Hub reste relativement circonspect sur la probabilité qu’a ce type de machine de remplacer des millions d’emplois, suggérant plutôt une modification des tâches effectuées pour intégrer ce type d’outils. Il souligne aussi de réels risques environnementaux, éthiques et juridiques à l’échelle de la société.

La note formule enfin trois grands types de recommandations : elle enjoint les entreprises à créer des cadres rigoureux pour l’usage de ce type d’IA ; elle suggère aux institutions, notamment éducatives, de rendre très claires les cas dans lesquels l’usage de ces modèles est autorisé ; elle milite enfin pour le financement de solutions européennes souveraines et open-source, accessibles pour les grosses comme pour les petites et moyennes entreprises.

En conclusion, elle pousse à former tous les acteurs susceptibles d’interagir avec ce type d’outils, à ne pas interdire, mais à cadrer clairement leurs usages et à mettre un accent particulier sur la sécurisation des données et la vérification des informations produites.

Le 03 mai 2023 à 04h54

Commentaires (60)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

En conclusion, elle pousse à former tous les acteurs susceptibles d’interagir avec ce type d’outils, à ne pas interdire, mais à cadrer clairement leurs usages et à mettre un accent particulier sur la sécurisation des données et la vérification des informations produites.


Conclusion qui me paraît sensée.



Au niveau des cas d’usage, j’ai vu également sur TheVerge une entreprise qui propose un plugin pour la recherche immobilière. L’outil allant chercher dans la base de données pour trouver les résultats en fonction des critères demandés (ce qui correspond au cas de la synthèse). Certes, aujourd’hui un bête formulaire de recherche fait le taff, mais à moins de lui donner trouze mille options (et souvent il en manque une), une “conversation” restera plus efficace. J’ai moi-même vu la différence entre ces deux méthodes dans ma dernière recherche immobilière où je suis passé par une personne qui a sélectionné les programmes en fonction de mes attentes et pris en compte des critères très arbitraires et subjectifs et posant des questions que je ne m’étais jamais posées.



Sinon je suis en phase avec les 4 cas d’usage relevés, ça correspond pas mal à l’utilisation que j’en fais. Par contre, même si ça ne va pas supprimer des millions d’emploi, à terme, oui, y’en aura faut pas se leurrer. Un employé devenant plus productif car déléguant certaines basses besognes à ces outils (typiquement des CR de réunions, etc, ce qui existe déjà d’ailleurs avec les retranscriptions) fait que machinalement, il y aura besoin de moins de personnel car pouvant faire d’autres taches.



Et c’est pas nouveau, le domaine du retail est un bon exemple avec l’automatisation de nombreuses tâches (back-office, caisses auto, etc), faisant que le personnel des magasins est devenu beaucoup plus multi-tâches qu’avant là où à une époque il fallait plus de personnel pour gérer la marchandise, les commandes, les stocks, etc.

votre avatar

Extraits de la conclusion de la note de synthèse et du communiqué de presse :




Contribuer au développement de solutions souveraines, open-source si possible, accessibles aux petites entreprises


Un vœu pieux (en tout cas à moyen terme) mais nécessaire.




Ne pas interdire l’usage de l’IAG, mais mettre en place des chartes d’usage claires et opé-
rationnelles : interdire exclusivement les actions inacceptables (fuite de données confiden-
tielles, triche, etc.), mais permettre les activités à valeur ajoutée en les encadrant soigneu-
sement


Obviously, autoriser, voire encourager, ce qui est de l’intérêt de ces groupes de sociétés et interdire ce qui handicape le business.




Toujours vérifier les résultats produits par ChatGPT, pour éviter les hallucinations


C’est joliment dit. ^^



.
Note de synthèse, page 7




comme à ce jour, on ne connaît pas le contenu de la base d’apprentissage de GPT-3 (et encore moins de GPT-4), ni sa fréquence de mise à jour, ni les règles et valeurs (politiques, économiques, éthiques, philosophiques, etc.) utilisées par OpenAI lors de l’annotation pour l’apprentissage par renforcement, on ne peut pas considérer ChatGPT comme une source d’information non biaisée ou neutre.


Une information n’est jamais neutre, en tout cas si on se place dans le domaine de la communication. D’où la nécessité de transparence qui n’existera pas à moyen terme, et peut-être jamais dans de nombreuses situations.



Pour le reste, la note traite du sujet de l’éthique, notamment des « travailleurs du clic ».

votre avatar

C’est l’histoire du cycle de la Hype et du gouffre de l’adoption.





Je vous laisse deviner quel pays ne va pas réussir à franchir le gouffre et se morfondra dans quelques temps en disant “qui aurait pu prévoir…”

votre avatar

Sans parler des déclinistes qui donnent tantôt une image décadente de la France et de ses habitants… tantôt une image valorisée des US très fortement usurpée (très fortement, à l’image des milliards dépensés par exemple par Meta dans le métaverse Horizon World en pur perte).

votre avatar

(quote:2131602:127.0.0.1)
C’est l’histoire du cycle de la Hype et du gouffre de l’adoption.





Je vous laisse deviner quel pays ne va pas réussir à franchir le gouffre et se morfondra dans quelques temps en disant “qui aurait pu prévoir…”


Juste pour ton info, ChatGPT n’est qu’une toute petite phase du travail autour de l’IA.
Elle est visible parcequ’elle permet d’interagir directement avec les geeks et autres personnes qui veulent de la nouveauté quotidienne.



La recherche fondamentale en France et en Europe a été lancée depuis longtemps: la seule différence c’est que ceux qui travaillent dessus n’ont pas besoin d’une hype permanente pour avancer.

votre avatar

carbier a dit:


Juste pour ton info, ChatGPT n’est qu’une toute petite phase du travail autour de l’IA. Elle est visible parcequ’elle permet d’interagir directement avec les geeks et autres personnes qui veulent de la nouveauté quotidienne.



La recherche fondamentale en France et en Europe a été lancée depuis longtemps: la seule différence c’est que ceux qui travaillent dessus n’ont pas besoin d’une hype permanente pour avancer.


Effectivement, il faut différencier les 3 sujets:




  1. adoption de l’IA générative comme sujet d’étude par la recherche FR

  2. adoption de l’IA générative comme fonction intégrée dans les produits FR

  3. adoption de l’IA générative comme gain de productivité par les entreprises FR



J’ai un doute sur les deux premiers. Pour le troisième, j’ai moins d’inquiétude. :D

votre avatar

(reply:2131635:carbier) C’est vrai !


Cependant le fait de créer une grosse hype et de filer des outil à “ tous le monde ” permet aussi d’avoir une pluie d’argent pour faire avancer la recherche fondamentale.

votre avatar

(reply:2131663:skankhunt42 )


Aux Stazuni, oui.
Pas ici.

votre avatar

(reply:2131671:Cumbalero) Je vais reprendre cette phrase de la FDJ :


100% des gagnants ont tentés leur chance !

votre avatar

(reply:2131672:skankhunt42 )


Eh ben voilà. Plutôt que faire de la hype bidon, joue au loto, tu auras plus de chance: ici, la hype ne rapporte pas. C’est ça que tu dois te mettre dans la tête.

votre avatar

(reply:2131676:Cumbalero) Tu m’a bien fait rigoler ( c’est déjà ça ! ).


En attendant la hype de open Ai leur à permis de recevoir plus de 10 milliards d’investissement et leur outils est déjà utilisé pour de la production ( supervisée, certes ). Ils ont aussi lancés la version 4 de chat GPT avec un abonnement payant qui va encore accélérer la production.



La hype est tellement puissante ( et c’est légitime ) que beaucoup parlent de la faire freiner car il y à un réel danger. Même si pour moi le danger ce résume à ce faire remplacer par un ia dans nos stupide métiers à la con qui ne servent pas à grand chose.



Ce que je me met dans la tête c’est surtout que l’histoire ce répète.



Quand tu regarde la provenance des nouvelle technologie tu te rend vite compte qu’il y à quasiment aucun acteur européens et encore moins français… Et que tous les acteurs qui dominent certains secteurs sont majoritairement américains.



. Sites internet
. Smartphones
. Informatique
. L’aérospatiale
. L’industrie
. Ect



Que de l’américain et du chinois ( qui copie à tour de bras ).



Le seul produit français que j’ai acheté ces dernière années c’est mon imprimante 3D et je le regrette profondément. A l’époque le seul argument c’était le prix qui était moitié moins cher qu’une marque concurrente américaine / européenne.



Les mecs tentent par exemple de t’expliquer que posséder un plateau chauffant pour du PLA cela sert à rien. Depuis plus de 3 ans c’est juste devenu un standard même pour des imprimante coutant trois fois moins même pour n’imprimer que du PLA.



L’avantage est pourtant évident, tes pièces ne ce décollent pas ( warping ) et couplé à un plateau flexible qui n’a qu’a le tordre un peu une fois refroidi et les pièces ce décollent toute seule.

votre avatar

(quote:2131703:skankhunt42 )
En attendant la hype de open Ai leur à permis de recevoir plus de 10 milliards d’investissement


En France, ils auraient eu droit à quelques applaudissements et une reconnaissance éternelle pour leur travail. C’est quoi que tu piges pas ?

votre avatar

(quote:2131703:skankhunt42 )
La hype est tellement puissante ( et c’est légitime ) que beaucoup parlent de la faire freiner car il y à un réel danger. Même si pour moi le danger ce résume à ce faire remplacer par un ia dans nos stupide métiers à la con qui ne servent pas à grand chose.


votre problème concerne:




  • la hype sur les IA générative, tapez 1

  • le remplacement par une IA pour les jobs à la con, tapez 2

  • le savoir faire Français en matière d’imprimante 3D, tapez 3

  • pour parler a un conseiller, tapez 4

  • pour retourner au menu principal, tapez étoile



:D

votre avatar

(quote:2131708:127.0.0.1)



  • pour parler a un conseiller, tapez 4



On a ajouté la synthèse vocale à chatGPT ?

votre avatar

Cumbalero a dit:


On a ajouté la synthèse vocale à chatGPT ?


Il y a déjà plein d’extensions et sites web qui proposent la reconnaissance vocal (input) et la synthèse vocale (output) pour ChatGPT.



Mais mon propos était davantage sur la disparition des jobs. Dans ma courte expérience de vie, j’ai déjà connu:




  • centre d’appel avec des interlocuteurs compétents (on va faire quelques essais ensemble)

  • centre d’appel avec des interlocuteurs incompétents (débranchez/rebranchez votre box)

  • centre d’appel avec des serveurs vocaux (tapez 1, tapez 2)

  • site web avec des chatbot (bonjour, comment puis-je vous aider aujourd’hui)



Donc les IA générative textuelle ou vocale pour ce genre d’activité, ca ne va pas tarder à être la norme.

votre avatar

(quote:2131713:127.0.0.1)



Donc les IA générative textuelle ou vocale pour ce genre d’activité, ca ne va pas tarder à être la norme.


Des machines pour faire les boulots de merde à la place des humains, d’habitude, on appelle ça le progrès :fumer:

votre avatar

Cumbalero a dit:


Des machines pour faire les boulots de merde à la place des humains, d’habitude, on appelle ça le progrès :fumer:


il y a deux écoles de pensées qui s’affrontent en ce moment (en gros, socialisme vs communisme):




  • Le progrès social c’est de moins travailler.

  • Le progrès social c’est de travailler dans (et pour) de meilleures conditions.



Perso, je vois surtout la disparition de jobs à la con et l’émergence de nouveaux jobs à la con comme le “prompt engineering”. Mais c’est pas le même sens du mot “con” dans les 2 cas.

votre avatar

(reply:2131703:skankhunt42 )


Même si c’est dit d’une manière un peu sèche, je suis assez d’accord. Quand une nouvelle technologie voit le jour, l’Europe et particulièrement la France ont tendance à au mieux ne pas y croire, ou freiner des 4 fers pour diverses raisons (dont certaines sont peut être légitimes).



Mais au final, on se retrouve avec des acteurs Américains pour la plupart qui prennent le devant sur ces technos, et nous les imposent, sans qu’on ait la moindre alternative.



Et quoiqu’on pense, ces techno (l’IA en particulier) sera démocratisée dans tout un panel de services / produits. C’est dommage une fois de plus de passer à côté.



Alors peut-être qu’en France certains chercheurs travaillent sur l’IA, mais pas sur une version commerciale à inclure dans tout un tas de services.

votre avatar

eglyn a dit:


Alors peut-être qu’en France certains chercheurs travaillent sur l’IA, mais pas sur une version commerciale à inclure dans tout un tas de services.


ChatGPT /= IA



A partir du moment où on comprend cela, on voit plus loin.
Encore une fois ChatGPT c’est du créateur de bullshit qui a été créé pour répondre au test de Turing.



C’est une pseudo IA qui si elle n’est pas alimentée par des petites mains derrière et qui si on ne lui met pas artificiellement des gardes fous partirait en vrille à partir de quelques échanges.



Cela fait Hype parceque cela surprend certaines personnes de finalement comprendre que 90% de nos échanges verbaux sont facilement remplaçables par une machine (100% dans le cas de certains).

votre avatar

Oui, certes, mais en attendant c’est un produit / fonctionnalité dans laquelle on investi beaucoup, et qui va se retrouver partout quoiqu’on en pense.



Et qui va utiliser ces produits ? Nous, dans les entreprises notamment.



C’est dommage que ce ne soit pas quelque chose pris en compte, la partie “je deviens leader dans un secteur de technologies utilisé mondialement”.



On en reste souvent à “la recherche fondamentale”, mais cela ne débouche que très rarement sur de l’industriel, ou des solutions pour le grand public.



Tu peux penser ce que tu veux de ChatGPT en l’occurence, même si c’est du bullshit, ça va devenir quelque chose d’incontournable.

votre avatar

eglyn a dit:


Oui, certes, mais en attendant c’est un produit / fonctionnalité dans laquelle on investi beaucoup


Investir dans le bullshit quand de vrais projets cherchent des crédits, formidable.

votre avatar

Certes, encore, mais est-ce c’est une réflexion qui est constructive ?



Je veux dire quelle est l’alternative crédible ? Il y a de très fortes chances que ce type d’IA rentrent partout dans notre quotidien, donc, soit on dit: on veut être leader la dedans pour proposer notre propre solution souveraine, ou à minima européenne, soit on se retrouve à dire: c’est de la merde, et on utilisera tous des solutions US.

votre avatar

chatGPT n’est pas une IA.
C’est un bot d’agrégation des réponses collectées sur différentes sources. Aucune réflexion, aucune forme d’intelligence.

votre avatar

Je parlais en termes commerciaux, pas scientifiques :)

votre avatar

Non effectivement, ce n’est pas de l’IA. GPT c’est un modèle de langage exploitant un réseau neuronal artificiel imitant le fonctionnement du cerveau humain.



En soit, il est l’application pratique des recherches sur l’intelligence artificielle.



D’ailleurs, un truc que j’ai appris récemment au cours d’une autre lecture sur le sujet. Les réactions “ce n’est pas une IA” ou encore “ce n’est pas de la vraie intelligence” ont un nom, le AI Effect.

votre avatar

carbier a dit:


ChatGPT /= IA



A partir du moment où on comprend cela, on voit plus loin. Encore une fois ChatGPT c’est du créateur de bullshit qui a été créé pour répondre au test de Turing.



C’est une pseudo IA qui si elle n’est pas alimentée par des petites mains derrière et qui si on ne lui met pas artificiellement des gardes fous partirait en vrille à partir de quelques échanges.



Cela fait Hype parceque cela surprend certaines personnes de finalement comprendre que 90% de nos échanges verbaux sont facilement remplaçables par une machine (100% dans le cas de certains).


Un système qui peut écrire du code cohérent et fonctionnel à la demande n’est pas un générateur de bullshit.



Oui, les limites du modèle sont évidentes - quand on le compare à un humain - mais il reste plus puissant que tout autre outil existant de génération de code alors que ce n’est pas un système spécialisé pour ça.
Le truc c’est que le code généré n’est pas juste cohérent syntaxiquement. Il fait ce qu’on a demandé, et bien souvent il compile du premier coup (avec GPT4). Le modèle a clairement une représentation interne de haut niveau conceptuel/symbolique et qui dépasse la simple cohérence syntaxique ou grammaticale.



Ça ne surprend pas “certaines personnes”… a peu près tout le monde qui s’intéresse à la chose comprend à quel point c’est révolutionnaire et potentiellement dangereux.

votre avatar

Oui, tout à fait, voir les gens dire “c’est naze, il génère que du bullshit”, on voit à quel point ils ont testé l’IA dans tous les domaines possibles pour en arriver à cette conclusion…



C’est de loin l’outil le plus avancé en ce qui concerne la génération de code par exemple.



Et quand on lit: il génère juste du bullshit bien écrit, c’est qu’on se trompe sur son intérêt et son utilité.

votre avatar

ChatGPT ne génère pas forcément du bullshit, mais il y arrive immanquablement même en étant corrigé par des travailleurs du clic. ChatGPT est une spirale à néant, ou une boucle à syntaxe. L’Académie Française pourrait l’utiliser pour faire son dico : ChatGPT est aussi conservateur aussi inventif que l’Académie Française, en étant plus rapide (si tant est qu’on contrôle quand même les résulats à la sortie pour éviter le bullshit).



.




Et quand on lit: il génère juste du bullshit bien écrit, c’est qu’on se trompe sur son intérêt et son utilité.


“bien écrit”, c’est vite dit. Tout au plus des phrases grammaticalement correctes, ce qui est déjà bien vu les performances grammaticales de beaucoup de personnes en chair et en os.

votre avatar

eglyn a dit:


Oui, tout à fait, voir les gens dire “c’est naze, il génère que du bullshit”, on voit à quel point ils ont testé l’IA dans tous les domaines possibles pour en arriver à cette conclusion…


Et dire qu’on reproche à ces outils d’être des “perroquets” :D

votre avatar

(reply:2131829:Cumbalero) A moitié vrai !


Mais même n’étant pas une véritable IA le truc à quand même réussi à passer haut la main certain examen, ça fait réfléchir. Concernant la synthèse vocale tu peut très bien le coupler avec un autre service speech 2 text en entrée puis text 2 speech en sortie.




eglyn a dit:


c’est de la merde, et on utilisera tous des solutions US.


Ne parlons même pas de ceux qui s’expat pour réussir…

votre avatar

(reply:2131908:skankhunt42 )


Non, 100% vrai.
C’est juste une nouvelle façon de s’interfacer avec les moteurs de recherches. Très bien fait, mais rien d’autre.



Mais avec toute la hype provoquée autour, on trouve plein de gens pour trouver que c’est formidable l’intelligence artificielle.



Tiens, suggestion: demande-lui ce qu’est l’intelligence artificielle.

votre avatar

Cumbalero a dit:


Tiens, suggestion: demande-lui ce qu’est l’intelligence artificielle.


Je pense que intelligence humaine n’est pas si loin d’un système d’auto complétion un peu plus évolué que chat GPT. Et que ce système est proportionnellement performant via tes acquis, ta mémoire et tes connexions neuronales qui permette d’utiliser à fond ton imagination.



La science infuse n’est qu’une chimère.



Allez, je vais poser la question à chat GPT :



C’est quoi l’intelligence ?
ChatGPT



L’intelligence peut être définie de plusieurs manières, mais elle est généralement comprise comme la capacité à comprendre, apprendre, raisonner, résoudre des problèmes, s’adapter à de nouvelles situations et réussir à atteindre des objectifs. Cette capacité est souvent mesurée par des tests d’intelligence, mais il est important de noter que ces tests ne mesurent pas tous les aspects de l’intelligence, comme la créativité, l’empathie, l’intuition et la sagesse.



Il existe également différents types d’intelligence, tels que l’intelligence linguistique, l’intelligence logique-mathématique, l’intelligence spatiale, l’intelligence corporelle-kinesthésique, l’intelligence musicale, l’intelligence interpersonnelle et l’intelligence intrapersonnelle. Chacun de ces types d’intelligence correspond à une capacité particulière et certaines personnes peuvent être plus douées dans un domaine que dans un autre.



Il est important de noter que l’intelligence n’est pas innée et qu’elle peut être développée et améliorée tout au long de la vie grâce à l’éducation, l’expérience, l’entraînement et la pratique.
User
Il y à aussi un rapport avec la capacité à mémoriser, non ? Qui est purement physique ?
ChatGPT



Effectivement, la capacité à mémoriser peut également être considérée comme une composante de l’intelligence. La mémoire est un processus cognitif qui permet de stocker, de conserver et de récupérer des informations acquises. La capacité de mémorisation peut être influencée par des facteurs physiques tels que la santé du cerveau, la qualité du sommeil, l’alimentation, l’exercice physique et la pratique de la méditation.



Cependant, la mémoire n’est qu’une composante de l’intelligence et ne peut pas être considérée comme une mesure complète de l’intelligence. Les personnes peuvent être douées en mémoire mais pas nécessairement intelligentes dans d’autres domaines, et vice versa. De plus, la mémoire peut être améliorée avec des techniques d’apprentissage et de mémorisation appropriées, ce qui suggère que cette capacité peut être développée et améliorée tout au long de la vie.
User
Peut t’on devenir plus intelligent ?
ChatGPT



Oui, il est tout à fait possible de devenir plus intelligent tout au long de la vie. L’intelligence est une capacité qui peut être améliorée grâce à l’apprentissage, l’expérience, l’entraînement et la pratique.



Voici quelques façons de développer son intelligence :



Lire : la lecture est un excellent moyen de développer son vocabulaire, d'acquérir de nouvelles connaissances et de stimuler son cerveau.

Apprendre de nouvelles compétences : apprendre une nouvelle langue, un nouvel instrument de musique, une nouvelle compétence informatique, ou toute autre compétence qui vous intéresse, peut stimuler votre cerveau et améliorer votre intelligence.

Résoudre des problèmes : chercher des solutions créatives à des problèmes stimule le cerveau et améliore l'intelligence.

Faire de l'exercice : l'exercice physique régulier a été associé à une amélioration de la fonction cognitive.

Dormir suffisamment : le sommeil est essentiel pour la consolidation de la mémoire et la régénération du cerveau.

Se nourrir de manière saine et équilibrée : une alimentation saine et équilibrée fournit les nutriments essentiels pour maintenir une fonction cognitive optimale.


En somme, en stimulant régulièrement son cerveau et en adoptant un mode de vie sain, il est possible d’améliorer son intelligence tout au long de la vie.

votre avatar

(quote:2131924:skankhunt42 )
Je pense que intelligence humaine n’est pas si loin d’un système d’auto complétion un peu plus évolué que chat GPT.


Ton “intelligence” à toi peut-être.



Mais si on part de ton postulat, pour inventer la roue, il aurait fallu que la roue existe pour inventer la roue ou que la théorie de la relativité existe et qu’Einstein dise “sinon, j’ai trouvé dans la littérature existante que E serait égal à mc²” ou qu’Archimède se noie dans la bibliothèque d’Alexandrie pour découvrir le principe de flottabilité.



Bien heureusement, il y a sur Terre des humains plus intelligents que toi.

votre avatar

(reply:2131927:Cumbalero) Ton problème c’est que tu penses d’une manière trop binaire.


:fumer:



Reprenons l’exemple de la roue :



Elle existait bien avant son invention, comme avec une pierre ronde qui descend une pente. Puis sous forme de rondin ou tu peut poser un objet dessus et le faire rouler. Ensuite il à “ juste ” fallu découper un rondin et lui ajouter un axe. Puis au fil des temps ça été optimisé en y perçant des trou pour l’alléger et y rajouter un pneu via d’autre “ découverte “.



Étant moi même un créatif je trouve pas ça déconnant.



Par exemple ma dernière ” invention “ c’est un truc flexible imprimé en 3D pour pouvoir créer des routes sur un diorama en ayant toujours la même largeur.



Pour créer ce truc je me suis basé sur une technique qui permet de plier du bois et de trouver un pattern adapté à l’impression 3D.



Dans le commerce il y rien de tel…

votre avatar

(quote:2131932:skankhunt42 )



Elle existait bien avant son invention, comme avec une pierre ronde qui descend une pente.


Ben non. Et je suis sûr que chatGPT t’expliquerait pourquoi, mais ça fait bien longtemps que je sais qu’il y a plus d’intelligence dans une amibe que chez toi.



A quel moment, dans la nature, tu vois l’existence d’une forme de moyeu pour en faire une roue sur un véhicule ou d’un axe pour en faire une poulie ? Où dans la nature, vois-tu plusieurs roues utilisées conjointement pour en faire un palan ?



Elle est là, l’intelligence. C’est pas juste constater que si tu marches sur des billes tu risques de te casser la figure. C’est de comprendre qu’un cercle ça a un centre et qu’on peut l’utiliser.

votre avatar

Cumbalero a dit:


ça fait bien longtemps que je sais qu’il y a plus d’intelligence dans une amibe que chez toi.



C’est qu’insulter les autres est une preuve intelligence…



:mdr:




la nature


La nature est un bon point de départ, ton intelligence ne permet pas d’en faire le lien ?




Elle est là, l’intelligence.


N’oublie pas que la plupart des inventions ce basent sur d’autre inventions et que parfois il peut y avoir des dizaines / centaines d’années pour les faire évoluer.



J’aimerais te poser une question : Tu crois qu’ont peut retranscrire le processus de création ?



Parce que si c’est possible je ne vois pas pourquoi une machine ne pourrais l’obtenir et donc être elle aussi intelligente. Et contrairement à nous elle peut avoir une mémoire infinie et une puissance de calcul énorme et surtout beaucoup de temps.



24h de calcul pour une ia peut êtres l’équivalent de 1000 ans humain.

votre avatar

(quote:2131942:skankhunt42 )
C’est qu’insulter les autres est une preuve intelligence…


C’est vrai que là, vu le niveau de chacune de tes interventions, j’aurais pu demander à chatGPT ce qu’il fallait penser de toi.




N’oublie pas que la plupart des inventions ce basent sur d’autre inventions


Ah ben ça fait longtemps que tu n’avais pas répondu à côté de la plaque !
La notion d’axe, indispensable à la notion de roue, est apparue à peu près dans toutes les populations humaines au même moment, ce qui induit qu’elle nécessite un certain niveau de raisonnement, pas seulement de regarder un caillou qui roule.
C’est une notion 100% humaine, qui n’est pas basée sur une observation. C’est une abstraction qui demande une capacité de pensée et de réflexion. Tout ce que ne sait pas faire chatGPT qui n’est, je le répète, qu’un moteur d’agrégation de résultats de sources.



Ca me rappelle un peu un épisode d’Elementary.

votre avatar

Cumbalero a dit:


C’est un bot d’agrégation des réponses collectées sur différentes sources.


C’est techniquement complètement faux, même si cette idée est répandue dans le grand public ayant lu quelques résumés superficiels sur le fonctionnement des LLM.




Cumbalero a dit:


Non, 100% vrai. C’est juste une nouvelle façon de s’interfacer avec les moteurs de recherches. Très bien fait, mais rien d’autre.


100% faux. Tu n’as pas compris grand chose au fonctionnement. Éduques-toi avant d’insulter les autres.




Cumbalero a dit:


Ben non. Et je suis sûr que chatGPT t’expliquerait pourquoi, mais ça fait bien longtemps que je sais qu’il y a plus d’intelligence dans une amibe que chez toi.



A quel moment, dans la nature, tu vois l’existence d’une forme de moyeu pour en faire une roue sur un véhicule ou d’un axe pour en faire une poulie ? Où dans la nature, vois-tu plusieurs roues utilisées conjointement pour en faire un palan ?



Elle est là, l’intelligence. C’est pas juste constater que si tu marches sur des billes tu risques de te casser la figure. C’est de comprendre qu’un cercle ça a un centre et qu’on peut l’utiliser.


Les réseaux de neurone artificielles peuvent généraliser. Cet à dire “trouver” une généralisation qui leur permet “d’expliquer” leur jeu de données, puis de prédire ou détecter des situations jamais vues auparavant.
On peut même dire (un peu abusivement) que généraliser est la seule chose qu’ils savent faire, c’est la grande force des réseaux de neurone artificiels, et la capacité de généralisation est toujours ce qui est recherché lors de l’entrainement (pour faire simple on arrête l’entrainement quand le modèle arrête de généraliser et commence à apprendre son jeu de données par cœur). La capacité à généraliser est justement ce qui provoque des biais, certaines généralisations correspondent à une réalité dans le jeu de données mais ne sont pas souhaitables.



Les humains qui ‘explorent’ leur réalité et cherchent de nouvelles manières de faire ont un fonctionnement similaire, mais itératif. On essaye, on butte sur des illusions, sur de fausses pistes, c’est le prix à payer pour trouver, parfois, quelquechose qui marche. La plupart du temps, on construit aussi sur l’expérience passée d’autres personnes.



On a souvent l’illusion que nos pensées et nos actions sont issues d’un processus rationnel et organisé.
En réalité, nous construisons presque toujours une explication rationnelle à posteriori pour justifier notre intuition pre-existante, ou pour justifier à nous même ou à d’autres des décisions que nous avions en fait déjà prises. Beaucoup de biais humains connus sont liés à ce fonctionnement. Freud disait ‘le Moi n’est pas maitre dans sa propre maison’, car effectivement le langage et notre pensée sont avant tout une conséquence et non une cause de notre fonctionnement mental et de nos choix.



Notre ‘language model’ interne est aussi un gros générateur de bullshit, et le principal destinataire de ce bullshit est nous-même.

votre avatar

wagaf a dit:


Notre ‘language model’ interne est aussi un gros générateur de bullshit, et le principal destinataire de ce bullshit est nous-même.


C’est même un mécanisme de protection du cerveau humain. Instinctivement, l’humain aura tendance à considérer que le facteur de réussite est une cause interne et le facteur d’échec une cause externe.



Et ne parlons pas des torsions mentales qu’on est capable de générer pour se donner le sentiment d’avoir raison ou d’être dans le positif.

votre avatar

wagaf a dit:


C’est techniquement complètement faux


Donc OpenAI dit des âneries à propos de leur produit ? oh wait…




100% faux. Tu n’as pas compris grand chose au fonctionnement. Éduques-toi avant d’insulter les autres.


Donc OpenAI dit des âneries à propos de leur produit ? oh wait…




Les réseaux de neurone artificielles peuvent généraliser.


blablabla
et la suite blablabla.



Le fait est qu’il n’y a aucun raisonnement. Simplement de la compilation de résultats.
Et c’est effectivement un biais courant de confondre deep learning et IA. Utiliser un grand jeu de données pour donner des réponses ou avoir un comportement prédictif (en fonction de statistiques) c’est une chose. Et on arrive aujourd’hui à avoir des résultats bluffants. C’est du deep learning.



Mais, “bluffants”, c’est bien ça le mot quand on parle d’“intelligence”. Du bluff. Du mensonge.



Je ne conteste pas la puissance de ces produits ni les possibilités qu’ils vont nous offrir, même à très court terme, dans des tas de domaines. Si on prend la recherche médicale, par exemple, il y a tant et tant de données à compulser, que je ne doute pas que bientôt de nouveaux protocoles de lutte contre le cancer vont arriver parce que ces programmes auront su mieux qu’un humain avaler ces teras et même petas de données.



Mais en terme de création, au sens strict… si je reprends les cailloux et les rondins, eh ben ce n’est pas d’une IA que serait sortis le moyeu et l’axe. Ils auraient au mieux donné une indication pour avoir des cailloux et des rondins plus ronds.



Mets Cro-Magnon devant chatGPT. S’il demande de lui sortir une évolution qui fera faire un grand pas en avant à l’humanité, si chatGPT a été bien alimenté, il répondra
“Je suis désolé Dave, je crains de ne pas pouvoir faire ça.”

votre avatar

Cumbalero a dit:


Donc OpenAI dit des âneries à propos de leur produit ? oh wait…


Source ?

votre avatar

Bah, la “frontpage” de leur site si tu veux un dessin.

votre avatar

:mdr:



Ça ne dit pas du tout ce que tu crois.

votre avatar

Cumbalero a dit:


Le fait est qu’il n’y a aucun raisonnement.


“Raisonner” comme le mot indique, signifie itérer sur notre pensée (qui ‘raisonne’).
Techniquement, GPT fait cela, étant donné que l’historique de la conversation est utilisée comme entrée pour la suite de la conversation.




Simplement de la compilation de résultats.


Non, cela est faux, encore une fois. Le modèle n’est techniquement pas en mesure de piocher dans son jeu de données quand il génère des réponses.




Mets Cro-Magnon devant chatGPT. S’il demande de lui sortir une évolution qui fera faire un grand pas en avant à l’humanité, si chatGPT a été bien alimenté, il répondra “Je suis désolé Dave, je crains de ne pas pouvoir faire ça.”


Prouves donc que tu es intelligent et “sort une évolution qui fera faire un grand pas en avant à l’humanité”. Sinon, c’est juste du bluff :D

votre avatar

le Hub reste relativement circonspect sur la probabilité
qu’a ce type de machine de remplacer des millions d’emplois



je ne serai pas aussi sûr, en fait on en sait rien pour l’instant (trop tôt)
on découvre tous jours les domaines* où on peut (aussi) appliquer ‘ChatGPT’ (on tâtonne) !




  • nombreux :zarb:

votre avatar

wagaf a dit:


“Raisonner” comme le mot indique, signifie itérer sur notre pensée (qui ‘raisonne’). Techniquement, GPT fait cela, étant donné que l’historique de la conversation est utilisée comme entrée pour la suite de la conversation.


J’ai l’impression que tu confonds raisonner et résonner (ou bien tu n’es pas clair).



Raisonner, c’est utiliser notre raison.



J’aime bien l’article de Wikipédia définissant le raisonnement :




On conduit des raisonnements pour des objectifs différents, qui peuvent se combiner :



prise de décision ;
test d'une argumentation ;
conduite d'une démonstration d'un théorème, de la « confirmation » d'une hypothèse ;


tout en évitant l’erreur et l’illusion.



On dit que l’individu effectue des inférences et que le mécanisme d’élaboration de ces inférences s’appelle raisonnement.


On parle aussi d’inférences en IA, mais ChatGPT ne passe pas le critère que j’ai mis en gras. Ce n’est donc pas un raisonnement qu’il met en œuvre.

votre avatar

Oui il ne raisonne pas, il ne réfléchi pas non plus. Il comprend simplement le contexte du texte et produit une séquence de tokens statistiquement valides pour poursuivre son écriture.



Car c’est juste ce que fait GPT : il poursuit un texte.

votre avatar

SebGF a dit:


Oui il ne raisonne pas, il ne réfléchi pas non plus. Il comprend simplement le contexte du texte


Pour comprendre, il faut d’abord réfléchir. Donc, il ne comprend rien du tout. Déjà que beaucoup d’êtres humains ont du mal à mettre en contexte une information à cause d’un raisonnement fallacieux, d’une hypocrisie, d’un intérêt, la seule chose dont n’est pas capable une machine c’est d’être hypocrite. La machine suivra l’intérêt de ses concepteurs humains et aura un cheminement rhétorique fallacieux si personne (personne = humain) ne l’arrête ou le modère.



.




et produit une séquence de tokens statistiquement valides pour poursuivre son écriture.


Exact. C’est de la linguistique automatisée. Encore qu’une langue évolue en permanence, contrairement à ChatGPT qui s’appuie sur des usages passés comme l’Académie Française. Il pourra imiter un style, pas construire son style (ou alors un style moyen, comme un cocktail sans spécificité, mais ce sera un cocktail mélangeant des ingrédients usuels).



.




Car c’est juste ce que fait GPT : il poursuit un texte.


Débiter des mots dans une grammaire au plus correcte. C’est vrai. Pour le contexte, ChatGPT a besoin du contexte fourni dans une base de données par des humains qui devront nécessairement corriger, voire annuler des phrases qui partent dans des délires verbeux.

votre avatar

wagaf a dit:


“Raisonner” comme le mot indique, signifie itérer sur notre pensée (qui ‘raisonne’).


Non, justement. Sinon, on en serait à chercher comment encore plus rond ce qui est rond et ne pas comprendre comment s’en servir.
Aucune “intelligence”, ce n’est qu’un assemblage de quelques programmes. Très bien fait, certes, mais ça ne va pas plus loin.
Et quant au fait de parler, comme tu le fais, de “neuronal”, quand on aura réussi (c’est pas demain la veille) de comprendre comment fonctionnent les neurones et leurs assemblages… en attendant c’est que se tirer sur la nouille en voyant que la thune tombe.

votre avatar

(quote:2132008:consommateurnumérique)
Débiter des mots dans une grammaire au plus correcte. C’est vrai. Pour le contexte, ChatGPT a besoin du contexte fourni dans une base de données par des humains qui devront nécessairement corriger, voire annuler des phrases qui partent dans des délires verbeux.


ChatGPT poursuit un texte en comprenant le contenu de celui donné (le prompt), et en s’appuyant sur sa “culture générale” (vulgarisation de ses données d’entraînement) pour être au plus proche du contexte donné.



Voilà comment je peux expliquer le fonctionnement de l’outil tel que je l’ai compris et après quelques mois d’expérience avec pour différentes situations. Y’a pas de fantasme ou de magie là dedans, c’est que du compute. Au même titre que notre cerveau n’est qu’un tas de tissus vivants avec des signaux qui le parcourent. Et j’ai aucune prétention à être un expert en expertise de l’expertise des modèles de langage donc je ne relate ici que mon expérience en tant qu’utilisateur de ces outils.



Et évidemment que des humains viennent modifier le comportement de l’outil, c’est le paramétrage, une étape post-entrainement (l’entraînement est non supervisé). GPT 3 et 4 comptent plusieurs milliards de paramètres. C’est cette phase de la production du modèle qui permet de le spécialiser si je ne m’abuse (ex : GitHub Copilot qui complète du code - il sait pas “discuter”, ça c’est Copilot X).



Au vu de tes propos assurés sur le fonctionnement du modèle, je te suggère de proposer un article à NXI car ça pourra être intéressant d’avoir une explication sur leur fonctionnement permettant de dissiper les malentendus courants à leur sujet.

votre avatar

C’est là qu’est l’illusion. ce genre d’application ne comprend pas le contexte. Il arrive à trouver des contextes similaires et à limiter. Quelqu’un ici avait posté un échange sur les nombres premiers. La première phase était qu’il sorte la définition d’un nombre premier, qui était correcte. mais dans la deuxième phase il a réussi à lui faire dire que 25 est un nombre premier. Pour la compréhension du contexte ça se pose là…

votre avatar

Les maths sont un très mauvais exemple, les modèles de langage sont généralement nuls dans ce domaine.

votre avatar

wagaf a dit:


Les réseaux de neurone artificielles peuvent généraliser. Cet à dire “trouver” une généralisation qui leur permet “d’expliquer” leur jeu de données, puis de prédire ou détecter des situations jamais vues auparavant.


En parlant de techniquement faux, cette affirmation l’est COMPLETEMENT.



Un réseau de neurones est une méthode pour mettre en équation des corrélations non linéaires existant par rapport à un nombre défini de paramètres.
En soit ces équations sont estimées de façon autonome par les réseaux de neurones à partir des jeux de données d’entrée pour obtenir un jeu de données de sortie (ici un discours juste et cohérent).



Le but étant évidemment de pouvoir prévoir un jeu de données de sortie, à partir d’un jeu de données d’entrée qui n’a pas été utilisé pour entrainer le réseau de neurones.
C’est ce que tu appelles “prédire les situations jamais vue auparavant”.



Cependant il y a un double problème:
1- Tout cela dépend énormément du jeux de données d’apprentissage: il faut qu’il soit super large, tout en étant contraint artificiellement pour éviter les biais de corrélation
2- Le plus important: si les données d’entrée sortent des bornes définies par le jeu d’apprentissage, le modèle va diverger.
C’est en cela que ton prédire les situations jamais vues avant est faux ou en tout cas partiellement vraie.



Exemple: l’article d’hier sur le site de recettes de cuisine générées automatiquement par ChatGPT.



Comme dit dans l’article, l’auteur remarque qu’à partir d’un certain temps, le nommage des recettes de cuisine part totalement en sucette sans qu’il sache pourquoi (exemple simple de divergence)



De plus quand on regarde les recettes ce sont de simples assemblages d’éléments cuisinés séparément qu’on additionne ensuite (généralement féculent + epices + viande + legumes).
Quand ChatGPT a essayé de créer une recette de terrine, il a fait la même chose car il n’a pas compris qu’il fallait mixer une partie + ajouter un liant. Pourquoi: certainement parceque sa base d’apprentissage ne lui a pas permis de mettre en équation ce principe.



Pour finir les photos générées à partir des recettes sont tout sauf réalistes (logique vu qu’elles s’appliquent à des noms de nouvelle recette qui sont hors base d’apprentissage)



Bref: ChatGPT est extrémement doué pour sortir un texte lisible, compréhensible sur des domaines bien précis voire pour recombiner des bribes de texte qu’il a appris.
Cela s’applique particulièrement bien pour de la programmation qui est très codifiée.



Par contre désolé mais créer de toutes pièces, il en est incapable.

votre avatar

carbier a dit:


Un réseau de neurones est une méthode pour mettre en équation des corrélations non linéaires existant par rapport à un nombre défini de paramètres. En soit ces équations sont estimées de façon autonome par les réseaux de neurones à partir des jeux de données d’entrée pour obtenir un jeu de données de sortie (ici un discours juste et cohérent).


Trouver une équation qui permet de “relier des points”, puis utiliser cette fonction pour prédire ou catégoriser des points jamais vus au préalable, c’est ce qui s’appelle généraliser. L’humain aussi est limité par son expérience vécue quand il tente de généraliser. On ne peut pas imaginer une couleur qu’on n’a jamais vue par ex.



Le modèle n’a que des mots en entrée, pas d’expérience physique, même sans prendre en compte les limites de l’architecture du modèle, celui-ci aura nécessairement plus de difficulté que des humains à comprendre les subtilités d’une recette de cuisine.

votre avatar

(quote:2132008:consommateurnumérique)
Pour comprendre, il faut d’abord réfléchir.


Note que le mot “Réfléchir” pointe dans la même direction (compréhension intuitive par les humains du fonctionnement itératif de la “reflexion”). Effectivement “Raisonner” (raison) et résonner (résonance) sont bien issus de racines différentes :transpi: .

votre avatar

la version ‘ChatGPT-4’* permet à ‘l’IA’ de mentir en se faisant
passer pour ‘un Humain (et non plus un ‘robot)
pour détourner l’identification par ‘Chapcat’ !



imaginer ce que sera capable de faire la ‘Version 9,10….’ ?




  • déjà

votre avatar

C’est quoi la source de l’info ?



Après, comme GPT-4 a la capacité d’analyser une image, oui effectivement ça pourra mettre à mal les CAPTCHA basés dessus.

votre avatar

l’excuse c’est :
(AI.) “je suis un ‘humain’, mais je suis malvoyant, donc j’ai du mal à déchiffrer
votre Captcha” :reflechis:



https://www.numerama.com/tech/1306066-gpt-4-a-persuade-un-humain-de-resoudre-un-test-captcha-pour-lui.html

votre avatar

Merci :chinois:

votre avatar

SebGF a dit:


Merci :chinois:


Après lecture, il semblerait que ce soit un test en laboratoire pour mettre en avant les risques relatifs à ce type d’usage et les freins qui ont été mis en conséquence.



Dans tous les cas il faut toujours garder un certain esprit critiques vis à vis de ces outils et ne pas les croire aveuglément. Au même titre qu’il ne faut pas croire la moindre connerie prônée les soit disant influenceurs.

Le Hub France IA publie une note d’impact sur ChatGPT

Fermer