Le ministre délégué à la Transition du numérique se prononce contre l'interdiction de ChatGPT

Le ministre délégué à la Transition du numérique se prononce contre l’interdiction de ChatGPT

Le ministre délégué à la Transition du numérique se prononce contre l'interdiction de ChatGPT

Jean-Noël Barrot, ministre délégué chargé de la Transition du numérique, explique à La Tribune que la France n'interdirait pas ChatGPT : 

« On a vu se succéder une vague de technolâtrie, où on voulait nous faire croire que ChatGPT allait résoudre tous les problèmes du monde, puis une vague de technophobie où il faudrait imposer un moratoire, voire interdire ChatGPT. Aucune des deux postures n'est la bonne. La technologie n'est ni bonne ni mauvaise en soi, elle est toujours au service de l'Homme. [...] Mais comme tout outil technologique, elle présente un certain nombre de risques qu'il faut pouvoir maîtriser. »

Il précise que la France devrait « pouvoir maîtriser cette technologie plutôt que d'en subir des versions qui viendraient de puissances avec qui nous ne partageons pas toutes nos valeurs », et renvoie à la stratégie nationale qui a permis l'émergence des 3IA (instituts interdisciplinaires sur l'intelligence artificielle, cf notre article) : 

« La France a une carte à jouer. Parmi les géants numériques qui ont lancé certains des modèles d'IA, on retrouve souvent des Français à leur tête. Meta a installé en France un de ses principaux laboratoires de recherche en IA en Europe. Ce sont nos doctorants qui peuplent aujourd'hui les laboratoires de Meta. Il n'y a aucune raison que nous ne puissions pas développer à notre tour des modèles en France, avec des startups comme Dust. »

Jean-Noël Barrot rappelle en outre avoir saisi le comité national d'éthique du numérique, qui devrait rendre d'ici « quelques mois » une version actualisée de l'avis qu'il avait déjà émis en 2021 sur les chatbots, et que l'Union européenne travaille également à un projet de règlement sur l'IA : « je ne vais pas rentrer dans le détail, mais l'UE va fixer les usages pour lesquels l'IA va être interdite, par exemple la surveillance ».

Commentaires (53)


Ce qui manque à ChatGPT c’est le non affichage de source mais sa puissance c’est de pouvoir synthétiser n’importe quel sujet avec un nombre de source gigantesque qui de prime abord peut être parfois contradictoire mais éjecte toute forme d’émotion qui est devenu le cancer de notre monde surtout sur des sujet assez complexe et d’éviter de noyer le poisson.



On pourrais par exemple utiliser chatGPT pour tenter de comprendre pourquoi ce genre de technologie ne ce développe pas dans notre pays alors que d’après ce mec c’est des français qui sont sois disant à la tête de géants numériques qui ont lancés certains modèles d’ia.



Taxe trop élevée pour les entreprises ? Mentalité du pays du à son système scolaire ?



Nous aurions une réponse très précise sans entendre des conneries du genre “ oui les américains dominent mais chaque jours il y à des fusillade dans les écoles “.



(quote:2128748:skankhunt42 )
Ce qui manque à ChatGPT c’est le non affichage de source mais sa puissance c’est de pouvoir synthétiser n’importe quel sujet avec un nombre de source gigantesque qui de prime abord peut être parfois contradictoire mais éjecte toute forme d’émotion qui est devenu le cancer de notre monde surtout sur des sujet assez complexe et d’éviter de noyer le poisson.




Non ce n’est pas une vrai synthèse. Il n’y a pas de compréhension dans ce qu’il produit et quand il n’a pas de données sur la question posée il invente. Encore une fois c’est un outils qui génère du texte donnant une cohérence probabiliste la plus élevée possible pour un lecteur humain. La véracité dans tout ça ne rentre pas en ligne de compte.
Cela me rappelle un échange que quelqu’un avait posté ici sur les nombres premiers. La machine sort la définition pas l’utilisateur arrive à lui faire dire que 25 est un nombre premier….


Ces trucs là c’est juste des générateurs de bullshit sur base d’infos existantes pour tenter de rendre les textes qu’ils sortent crédibles mais avec strictement aucune réflexion au sens strict ni aucune garantie de véracité (un peu comme un diplômé de l’ENA ou de science po quoi :D ), perso j’ai du mal à y voir un intérêt en dehors de la prouesse technique mais je perçois par contre bien les dangers potentiels de laisser ces machins générer des conneries que certains vont prendre au sérieux


Certainement que la France a une carte à jouer dans la biométrie, l’IA et la reconnaissance faciale. C’est évident. On connaît la chanson. Paris 2024



(reply:2128752:the_frogkiller) Sauf que…




Cette cohérence probabiliste la plus élevée possible pour un humain à été entrainée via des données qui elle existe belle et bien.



Au final ce n’est qu’une question d’affinage du modèle et de configuration.



Et plus le temps passe plus il est difficile pour un humain de suivre la chose surtout si cela commence à toucher d’autre domaine.



Pour reprendre mon exemple, même en ne lisant que des synthèse il faudrait probablement lire des dizaines milliers de pages avant de pouvoir avoir une réponse à cette question et dans pas mal de cas il y à même pas de traduction en français ou en anglais.




Guinnness a dit:


un peu comme un diplômé de l’ENA ou de science po quoi :D




Sacré économie d’argent de passer de ce genre de mec à une ia.




perso j’ai du mal à y voir un intérêt




L’intérêt est juste gigantesque et nous sommes à un tournant de notre civilisation.



(reply:2128759:skankhunt42 )




C’est le modèle en lui même qui pose problème dans ce que les gens en pense et pas juste un affinage de paramétrage. Il ne sais pas dire qu’il n’a pas d’informations ou que l’on ne peut pas trancher. Dans ses cas là il invente. C’est quand même un gros problème sauf si c’est un modèle qui mime la plupart des hommes politiques :D



(reply:2128771:the_frogkiller) Cela ne fait que refléter le “ chaos humain”.




Le délire est en mode beta ouvert au grand publique pour le lol et est ultra HARDCORE puissant et peut te tuer 25 fois avant que tu touche le sol. La popularité à “ cassé le game ” et tout le monde tente de faire de la récupération, même ici.



Délire qui est déja obsolète avec la version 4 pas disponible gratuitement pour le grand publique à peine trois mois après l’ouverture de la version 3.



Tu te rend compte ?



Et n’oublie pas aussi que chat gpt n’est qu’un “ mode ” d’open AI qui lui peut recevoir des paramètre supplémentaire dans le prompt, un peu comme les générateur d’images.



Suffira donc d’ajouter “ ne pas inventer + forcer source ” et le tour est joué.



J’espère que ces prochaines années il va justement exposer un peu plus les politiciens car j’en ai personnellement ras le cul de cette caste qui ne sert pas à grand chose et qui contrôlent plus ou moins les médias.



Guinnness a dit:


mais avec strictement aucune réflexion au sens strict ni aucune garantie de véracité (un peu comme un diplômé de l’ENA ou de science po quoi :D )




Tu joues pas aux fléchettes toi ? parce que là en fait, t’as visé dans le mille et pas qu’un peu :D


Il fut un temps où je fréquentais pas mal les pubs Irlandais, du coup les fléchettes je me démerdais pas mal :D (le problème étant qu’avec l’habitude tu fini par ne bien viser qu’après plusieurs pintes :D )



(quote:2128748:skankhunt42 )
Ce qui manque à ChatGPT c’est le non affichage de source




À chaque demande j’ai une ligne tout en bas avec 3-4 sources de comment il a décider de répondre, je ne vois pas trop ce que tu veux dire par là.


Sa position est scandaleuse !



On l’interroge pour savoir s’il faut interdire ChatGPT comme en Italie.



Et ChatGPD a été interdit en Italie pour non respect du RGPD qui est le même en France et en Italie que je sache.



Il répond à côté puisqu’il ignore le RGPD dans sa réponse en disant que l’IA, comme la langue d’Ésope, est à la fois la meilleure et la pire des choses.



Sa réponse à la question aurait dû être : “c’est à la CNIL qui est une autorité administrative indépendante de se prononcer. L’exécutif ne doit pas interférer avec sa décision.”



Mais bon, on a que ce que l’on mérite. Le reste de l’interview est édifiant ! il ne parle que d’argent, de financement et jamais de technologie. En bon HEC, il n’y connaît probablement rien. C’est un financier et c’est tout.
Je ne suis pas sûr que le numérique français n’ait besoin que d’argent.


ça t’étonne ? :keskidit:


Pluzun.



Même si à titre perso ça me ferait chier que ChatGPT soit bloqué en France, à un moment il reste impératif de respecter les règles en vigueur.


En gros, on a les tronches qui connaissent le taf, elle bossent pour des boites US.



L’utilisation, l’entrainement, la programmation des algo et la programmation des outils de restit c’est autre chose.



@skankhunt42 : y’a une différence entre la programmation des algo de base (OpenAI etc ..) et les programmations d’outils (ChatGPT3, 4, ..) pour moi.



Vous parlez pas de la même partie programmation à mon sens.


Comme d’habitude, effet d’annonce, coup de comm, pas de réflexion sur le respect du droit (bon, c’est normal pour ce gouvernement), ni sur l’utilité, les implications éthiques ou pratiques comme l’impact sur les concours et examens, l’apprentissage des collégiens, lycéens et étudiants. Pourtant, les sujets ne manquent pas, mais rien ne vaut une bonne oukaze plutôt que de réfléchir au-delà de son propre reflet de communiquant semble dire le gentil Jean-Noël.


Bonjour,
J’ai enseigné l’informatique pendant 20 ans du lycée à l’Université en passant par les Prépas.
j’ai trouvé assez surprenant que ChatGPT, qualifié de “perroquet approximatif inventif avec un peu d’aléatoire” par Laurence Devillers, experte en IA, soit capable de programmer correctement dans cinq langages différents un algorithme donné, par exemple sortie d’un labyrinthe, avec des contraintes imposées : labyrinthe 2D, loyal, noms de variables en français, méthode de sortie imposée, par exemple par la main gauche, avec ou sans récursivité…
Il est impossible que l’IA ait récupéré dans ses stocks de data CES codes précis.
A la fin l’IA explique le sens des variables, des boucles etc.
Qu’est ce qui se passe ? Comment est-ce possible ?
J’ai posé cette question à Laurence Devillers sur Twitter, je n’ai rien compris à sa réponse, à côté de la plaque.
Qu’en pensez-vous ?


Bah, quand je fais une recherche sur les mots clés “labyrinthe algorithme contraintes”, j’arrive déjà à plein de page qui traite du sujet. Donc, j’imagine que c’est un sujet d’étude assez fort répandu et, ce, dans de nombreuses parties du monde. Donc, la “documentation” doit certainement être assez fournie pour que le système puisse générer des réponses concordantes à la requête. En tout cas, c’est ce que je crois.


La plupart des explications que j’ai pu trouver disent que “GPT ne sait que générer une suite probabilistique de mots”, mais personne pour expliquer en quoi c’est différent d’un raisonnement abstrait.



Pour mieux expliquer ce qui me dérange dans la démarche, considérons un CPU: on peut dire que c’est juste un composant électronique qui permet de faire des opérations logiques simple. Pourtant, un ordinateur est capable de prévoir la météo ou de faire de la reconnaissance de caractères. Des choses qu’on ne pourrait pas intuitivement dériver de la simple logique booléenne.



De la même manière, j’ai trouvé beaucoup d’explications de ce que GPT faisait, mais pas ce qui permettait d’affirmer que ce n’est pas une brique élémentaire du raisonnement abstrait.


KooKiz

La plupart des explications que j’ai pu trouver disent que “GPT ne sait que générer une suite probabilistique de mots”, mais personne pour expliquer en quoi c’est différent d’un raisonnement abstrait.



Pour mieux expliquer ce qui me dérange dans la démarche, considérons un CPU: on peut dire que c’est juste un composant électronique qui permet de faire des opérations logiques simple. Pourtant, un ordinateur est capable de prévoir la météo ou de faire de la reconnaissance de caractères. Des choses qu’on ne pourrait pas intuitivement dériver de la simple logique booléenne.



De la même manière, j’ai trouvé beaucoup d’explications de ce que GPT faisait, mais pas ce qui permettait d’affirmer que ce n’est pas une brique élémentaire du raisonnement abstrait.


En faite, c’est une des raisons pourquoi je détestes parler d’“intelligence artificielle”. On veut forcement se comparer à elle et prouver qu’on lui est supérieur.


ChatGPT fonctionne très bien avec du développement sur plein de langages différents, ceux qui crient au générateur de bullshit ne l’ont sans doute pas utiliser…



Je ne comprends pas cette levée de bouclier un peu partout en Europe, c’est outil qu’il faut juste savoir utiliser… On aime bien interdire en Europe rapidement les nouvelles technos, plutôt que de s’en emparer…
Et encore, si à côté il y avait un développement d’une IA dans ce style qui respecterait les règles qu’apparemment ChatGPT ne respecte pas, mais je n’en ai pas entendu parler…



(reply:2128805:the_Grim_Reaper) En gros nous avons deux humains d’accord mais l’un des deux ce force à ne pas être d’accord pour tenter d’avoir raison. C’est justement ce que fera l’ia, trancher entre ces deux humains.



(reply:2128814:skywalker413) J’en penses que l’humain commence à bug avec ce genre de technologie. N’oublie pas que la programmation est un truc très structuré ce qui permet de facilement comprendre un truc si t’a assez de mémoire et d’abstraction, ce que possède cette “ ia “.




Pour un mec d’un très très haut niveau chat j’ai pété est surement un perroquet amélioré, ainsi que pour un gros low tout jaloux. Difficile de trancher car question de point de vue.



Si j’ai capté à peu près comment ça marche, l’ia ne stock pas ces codes précis mais le processus de création et y applique une certaine logique après avoir analysé des milliards de ligne de code.



La encore un codeur débutant pourra dire ” c’est fou “ la ou un codeur expérimenter dira ” c’est un truc de low “. Moi je dirais plutôt que généralement la programmation, c’est un truc de low.



Question de point de vue.



(reply:2128819:skankhunt42 )




Je couperai les humains en deux perso à la place de l’IA, ça résoudrait le problème, mais ça fait un peut trop T800 / T1000 / T-X / …



eglyn a dit:


ChatGPT fonctionne très bien avec du développement sur plein de langages différents, ceux qui crient au générateur de bullshit ne l’ont sans doute pas utiliser…



Je ne comprends pas cette levée de bouclier un peu partout en Europe, c’est outil qu’il faut juste savoir utiliser… On aime bien interdire en Europe rapidement les nouvelles technos, plutôt que de s’en emparer… Et encore, si à côté il y avait un développement d’une IA dans ce style qui respecterait les règles qu’apparemment ChatGPT ne respecte pas, mais je n’en ai pas entendu parler…




Tu as raison, en Europe on préfère réfléchir avant d’agir: cela peut être vu comme un défaut (ou pas).



Aux US c’est on tire dans le tas et après on essaie de colmater les dégâts collatéraux: cela peut être vu comme un atout (ou pas).



Concernant le codage avec ChatGPT pour rappel tout code fourni va partir dans sa base d’apprentissage, soit un énorme magma dont personne ne connait l’ampleur, ni l’utilisation.
Si des entreprises veulent s’en servir grand bien leur fasse, mais qu’elles ne viennent pas crier au loup plus tard.



Ce que je trouve fascinant c’est que dans cette société où tout doit être immédiat, le simple fait de se poser pour réfléchir, comprendre et anticiper peut paraitre comme une anomalie anachronique.



PS: du coup, comme dit plus haut, on a les politiciens qu’on mérite…


Oui, mais le revers c’est qu’on va se retrouver en Europe avec rien niveau IA, un peu comme avec les GAFAM :/



Et au final, on sait très bien que ces technologies vont être utilisées (y a qu’à voir les investissements de Microsoft), on va juste perdre notre temps en combats juridiques et rien développer à côté.



KooKiz a dit:


Pour mieux expliquer ce qui me dérange dans la démarche, considérons un CPU: on peut dire que c’est juste un composant électronique qui permet de faire des opérations logiques simple. Pourtant, un ordinateur est capable de prévoir la météo ou de faire de la reconnaissance de caractères. Des choses qu’on ne pourrait pas intuitivement dériver de la simple logique booléenne.




Un ordinateur n’est pas doté d’intelligence et n’est pas capable de prévoir quoi que ce soit.
La prévision météo n’est pas magique: c’est la résolution de calculs issues d’équations non fermées posées par l’homme pour décrire la mécanique des fluides.
Dans ce cas précis, l’ordinateur n’a ni trouvé les équations, ni trouvé les algorithmes permettant d’améliorer les prévisions.
Dans ce cas précis, l’ordinateur n’est qu’une calculatrice géante permettant de faire très rapidement des calculs.




De la même manière, j’ai trouvé beaucoup d’explications de ce que GPT faisait, mais pas ce qui permettait d’affirmer que ce n’est pas une brique élémentaire du raisonnement abstrait.




Ce que tu trouves “abstrait” c’est un algorithme permettant de statistiquement pouvoir fournir une réponse cohérente par rapport à des problèmes simples qui ont été rentrées dans sa base d’apprentissage.
Ce qui en fait un générateur de bullshit c’est que cette non intelligence artificielle est incapable de faire de l’abstraction: c’est à dire créer des schémas réflexions à partir de données déjà présentes dans sa base mais non directement corrélées avec la question qui lui est posée.



eglyn a dit:


Oui, mais le revers c’est qu’on va se retrouver en Europe avec rien niveau IA, un peu comme avec les GAFAM :/



Et au final, on sait très bien que ces technologies vont être utilisées (y a qu’à voir les investissements de Microsoft), on va juste perdre notre temps en combats juridiques et rien développer à côté.




Pas forcément: Tesla et surtout la conception de la recherche par Musk en sont le parfait exemple.



Musk c’est l’archétype de ce que je disais: on avance tout droit, on ne se pose pas de question, on va vite et on corrige les échecs au fur et à mesure qu’ils arrivent.
Tesla a donc fait cela pour son “autopilot” en partant bien en avance par rapport aux autres constructeurs.
Mercedes de son côté a préféré prendre son temps avant de lancer ses essais grandeur nature: prendre le temps d’analyser, de comprendre avant de rouler.



Résultat



Comme quoi La Fontaine avec la fable du lièvre et de la tortue est encore furieusement d’actualité au XXIe siècle.



eglyn a dit:


Je ne comprends pas cette levée de bouclier un peu partout en Europe




Le problème c’est pas chatGPT mais midjourney en fait.



Le truc arrive à te pondre une fake image en quelques minutes la ou sur photoshop il faudrait au moins deux bonnes heures pour faire la même chose en ayant de bonne images sources.



C’est que des outils qui peuvent être bien utilisés, ou pas.



carbier a dit:


Ce qui en fait un générateur de bullshit c’est que cette non intelligence artificielle est incapable de faire de l’abstraction: c’est à dire créer des schémas réflexions à partir de données déjà présentes dans sa base mais non directement corrélées avec la question qui lui est posée.




Tu n’as pas du beaucoup l’utiliser, notamment GPT-4.
Il est clair qu’il est capable de travailler sur la base d’une “abstraction” et pas juste d’une suite de mots ou de lettres, et peut faire des corrélations inattendues. Ce qui est logique puisque c’est ce que permet la structure même d’un modèle “profond”, et ce qui est recherché lors de l’entrainement.



On peut parler d’une forme d’intelligence à mon avis, même s’il elle n’est pas comparable à une intelligence humaine,




Concernant le codage avec ChatGPT pour rappel tout code fourni va partir dans sa base d’apprentissage




Ce n’est pas le cas quand on passe par l’API (qui permet d’accéder à GPT-4), seulement quand on utilise un “produit final” tel que ChatGPT. Mais c’est un sujet auquel il faut faire attention bien sûr.



« On a vu se succéder une vague de technolâtrie, où on voulait nous faire croire que ChatGPT allait résoudre tous les problèmes du monde, puis une vague de technophobie où il faudrait imposer un moratoire, voire interdire ChatGPT. Aucune des deux postures n’est la bonne. La technologie n’est ni bonne ni mauvaise en soi, elle est toujours au service de l’Homme. […] Mais comme tout outil technologique, elle présente un certain nombre de risques qu’il faut pouvoir maîtriser. »




La fameuse voie médiane du “et en même temps…”



carbier a dit:


La prévision météo n’est pas magique: c’est la résolution de calculs issues d’équations non fermées posées par l’homme pour décrire la mécanique des fluides.
Dans ce cas précis, l’ordinateur n’a ni trouvé les équations, ni trouvé les algorithmes permettant d’améliorer les prévisions.




https://www.polytechnique-insights.com/tribunes/digital/lia-un-nouvel-allie-pour-les-meteorologues/



Comme pour le jeu de Go, les IA permettent d’éviter les solutions de type “brute-force” en trouvant des corrélations complexes entre un grand nombre de variables, et sont utiles même pour les prévisions météo.



wagaf a dit:


https://www.polytechnique-insights.com/tribunes/digital/lia-un-nouvel-allie-pour-les-meteorologues/



Comme pour le jeu de Go, les IA permettent d’éviter les solutions de type “brute-force” en trouvant des corrélations complexes entre un grand nombre de variables, et sont utiles même pour les prévisions météo.




Je l’ai déjà dit dans une news précédente: ce n’est pas une IA



C’est super vendeur d’utiliser le terme IA pour tout et n’importe quoi, et surtout cela permet d’éviter de rentrer dans des détails trop techniques. L’IA c’est magique et ça résout tous les problèmes comme dans les séries télés.




wagaf a dit:


Tu n’as pas du beaucoup l’utiliser, notamment GPT-4. Il est clair qu’il est capable de travailler sur la base d’une “abstraction” et pas juste d’une suite de mots ou de lettres, et peut faire des corrélations inattendues.




Ben oui les corrélations sont inattendues car GPT-4 ne connait pas le principe du sophisme et que tant que ce n’est pas rentré dans sa base d’apprentissage c’est la seule chose qu’il peut faire.
Ce n’est donc pas des abstractions mais du bullshit enrobé dans de jolis mots.
Certes pas mal d’humains font la même chose, mais même s’ils ne sont pas artificiels, sont-ils intelligents ?



(reply:2128889:skankhunt42 )




C’est ce que je pense aussi, la réticence vient surtout de l’utilisation qu’on fait de ces ia (j’aime bien le terme de non intelligence artificielle que quelqu’un a donné plus haut).
Il va falloir un apprentissage des humains à cet outil afin de s’en servir pour ce pour quoi il est fait : un formidable outil de synthèse mais qui ne dispense en aucun cas de l’interprétation humaine de la réponse donnée à une problématique qui doit être posée de la manière la plus neutre possible pour ne pas guider ladite réponse et risquer de créer un biais.



carbier a dit:


Ben oui les corrélations sont inattendues car GPT-4 ne connait pas le principe du sophisme et que tant que ce n’est pas rentré dans sa base d’apprentissage c’est la seule chose qu’il peut faire. Ce n’est donc pas des abstractions mais du bullshit enrobé dans de jolis mots.




Encore une fois, tu semble ne pas avoir utilisé GPT-4.



Si c’était “juste” du sophisme, le code ne serait pas correct, ou les modifications apportées ne seraient pas pertinentes.
Le fait qu’il soit capable d’interpréter une demande de modification précise et complexe en language naturel et de l’appliquer correctement en modifiant un code existant démontre une forme d’intelligence. Nier ça relève du déni à mon avis.



(quote:2128759:skankhunt42 )
L’intérêt est juste gigantesque et nous sommes à un tournant de notre civilisation.




Si ça avait quoi que ce soit de commun avec ce que les fantasmes de certains imaginent que c’est, à savoir une véritable intelligence autonome douée de capacité de réflexion propre, je pourrais éventuellement être d’accord avec toi, et encore ce serait même encore plus dangereux dans ce cas là (pour le parallèle à 2 balles parceque je vient de le refaire il n’y a pas longtemps on pourrait tomber sur un cas comme celui des robots pensants de Mécaniste de Fallout 4 auxquels leur maitre a demandé d’aider les humains par tous les moyens et qui en ont déduit que la meilleure façon d’aider la race humaine était de l’exterminer le plus rapidement possible puisque toute autre forme d’aide ne ferait que reculer l’inévitable et donc prolonger leurs souffrances)



Maintenant en prenant en compte ce que c’est réellement, à savoir un “simple” agrégateur de données avec la capacité de les mettre en forme de façon élégante (ce qui est déjà une belle performance technique là dessus je suis d’accord), désolé mais j’ai beau chercher j’ai du mal à voir l’intérêt d’un truc qui déblatère potentiellement n’importe quoi de façon péremptoire, surtout avec le biais vicieux qui lui est implémenté de chercher à tout prix à répondre dans le sens de ce qu’attend le questionneur quand bien même ce serait totalement à coté de la plaque, en l’état c’est aussi pernicieux que les algorithmes de tri/affichage des réseaux sociaux et autres qui enferment les gens dans leur bulle en leur donnant “à bouffer” ce dont ils sont le plus friand pour les garder le plus longtemps possible en ligne et monétiser leurs profils.



wagaf a dit:


Le fait qu’il soit capable d’interpréter une demande de modification précise et complexe en language naturel et de l’appliquer correctement en modifiant un code existant démontre une forme d’intelligence. Nier ça relève du déni à mon avis.




Et portant, une machine n’a jamais été capable de faire autre chose que des calculs, ce que tu appelle réflexion c’est “simplement” des algorithmes d’analyses statistiques très complexes qui tournent et rien d’autre.



Pour ce qui est de générer du code informatique dans n’importe quel langage pour moi ce serait au contraire étonnant que ça n’en soit pas capable vu comment ça fonctionne : un langage informatique n’est par essence qu’un ensemble de règles et conventions strictes à respecter à la lettre du coup on lui rentre un organigramme fonctionnel de ce qu’on veux, on nourrit le bouzin avec la structure du(des) langage(s) dans lequel(lesquels) on veux le résultat et ça fait “juste” de la transposition à la manière d’un linguiste qui fait ses traductions, sauf que contrairement à un “langage humain” il n’a pas à prendre en compte de contextes pour “ajuster” le sens des mots et autres subtilités.



Par contre je trouve absolument fascinant que ce soit capable de tenir une conversation à peu près cohérente, même si c’est pour raconter des conneries, dans un langage humain largement plus complexe de par les multiples possibilités d’interprétation selon le contexte qu’un langage informatique (après ces subtilités ça reste des règles supplémentaires qu’il y a également moyen de “modéliser” et d’apprendre à un algorithme mais ça reste une sacrée performance)



Après et pour reprendre une phrase de Carbier c’est vrai qu’il y a aussi pas mal d’humain qui n’ont pas beaucoup plus de capacité de réflexion qu’un ChatGPT et cie, peut être même moins pour certains



Guinnness a dit:


Et portant, une machine n’a jamais été capable de faire autre chose que des calculs, ce que tu appelle réflexion c’est “simplement” des algorithmes d’analyses statistiques très complexes qui tournent et rien d’autre.




Oui, mais dire cela ne mène a rien.
Car on peut aussi dire que le cerveau ne fait rien d’autre que des réactions électro-chimiques (qui peuvent être modélisées et reproduites par des simulations)..
Au final tout est basé sur la matière, donc est potentiellement simulable ou reproductible.



Cette illusion voire cette superstition que notre cerveau serait tellement exceptionnel ou magique qu’il serait impossible de reproduire son fonctionnement est la base de beaucoup de ces réactions de déni.
Ce que fait GPT n’est pas magique. Mais notre cerveau non plus n’est pas magique (désolé). Même si, bien sûr, les modèles de languages sont limités de nombreuses manières.




ça fait “juste” de la transposition à la manière d’un linguiste qui fait ses traductions, sauf que contrairement à un “langage humain” il n’a pas à prendre en compte de contextes pour “ajuster” le sens des mots et autres subtilités.




Non, ce n’est pas “juste” une traduction.. il génère ou modifie à la demande du code complexe d’une manière qui démontre une forme de compréhension à plus haut niveau de la demande en language naturel et du code.



Guinnness a dit:


Maintenant en prenant en compte ce que c’est réellement, à savoir un “simple” agrégateur de données avec la capacité de les mettre en forme de façon élégante




Ceci n’a pas grand chose a voir avec la réalité.



wagaf a dit:


il génère ou modifie à la demande du code complexe d’une manière qui démontre une forme de compréhension à plus haut niveau de la demande en language naturel et du code.




“une forme de compréhension”, carrément. Tu aurais dû t’arrêter avant d’écrire ça. C’est la 2de fois que je lis cette exagération de ta part. Je veux bien qu’on ait des illusions à propos du cerveau humain, mais mesure les mots que tu emploies. En tout cas, perso, je ne nourris pas du tout le même fantasme que toi à propos de l’IA et surtout de ChatGPT.



wagaf a dit:


Non, ce n’est pas “juste” une traduction.. il génère ou modifie à la demande du code complexe d’une manière qui démontre une forme de compréhension à plus haut niveau de la demande en language naturel et du code.




Hier sur FranceInfo, une chercheuse dans le domaine de l’IA a plutôt bien vulgarisé le fonctionnement de GPT (vu de ma fenêtre et de ma compréhension du sujet). Elle disait que le système de “raisonne pas”, et je pense que c’est là toute la subtilité du débat. L’outil comprend ce qu’on lui demande car le résultat proposé est souvent cohérent avec le contexte, mais il ne réfléchit pas pour autant. C’est, je pense, la plus grosse confusion faite dans le débat.



L’interview faisait suite à l’information au sujet de Fedha, une présentatrice virtuelle générée par IA qui a tenu son premier journal dans Kuwait News. J’ai pas réussi à retrouver la transcription. Les questions tournaient évidemment autour de la disparition de tâches à faible valeur ajoutée (la chercheuse a utilisé comme analogie les allumeurs de réverbères, métier disparu) au profit de l’IA. Elle a d’ailleurs précisé que son utilisation dans le journalisme date de bien plus longtemps que la hype actuelle. Des journaux s’en sont servi pour trier les informations des élections présidentielles par exemple, avec relecture et validation humaine derrière. Tout comme elle serait aussi utilisée pour remplacer les correcteurs ou la mise en forme.



wagaf a dit:


Oui, mais dire cela ne mène a rien. Car on peut aussi dire que le cerveau ne fait rien d’autre que des réactions électro-chimiques (qui peuvent être modélisées et reproduites par des simulations).. Au final tout est basé sur la matière, donc est potentiellement simulable ou reproductible.




Notre cerveau sera potentiellement simulable à partir du moment où son fonctionnement sera compris, ce qui n’est pas le cas actuellement.
Une fois le fonctionnement compris, l’humain pourra alors potentiellement le transcrire sous forme d’algorithme (la encore ce n’est pas gagné.
Une fois cela fait on aura alors potentiellement une vraie IA, mais pour l’instant on en est très, très, mais alors très loin.




Cette illusion voire cette superstition que notre cerveau serait tellement exceptionnel ou magique qu’il serait impossible de reproduire son fonctionnement est la base de beaucoup de ces réactions de déni. Ce que fait GPT n’est pas magique. Mais notre cerveau non plus n’est pas magique (désolé). Même si, bien sûr, les modèles de languages sont limités de nombreuses manières.




Le seul déni que je vois c’est toi qui fait de l’anthropomorphisme sur quelques algorithmes complexes.



Guinnness a dit:


Après et pour reprendre une phrase de Carbier c’est vrai qu’il y a aussi pas mal d’humain qui n’ont pas beaucoup plus de capacité de réflexion qu’un ChatGPT et cie, peut être même moins pour certains




Voila !



Tu sais si on faisait la liste de ce que font les travailleurs français à leur travail, quasiment l’intégralité pourrais ce faire remplacer par cette “ ia “.



Dans pas mal de domaine le phénomène de fermeture est juste énorme.



Demain tu pourra pondre le logiciel ultime pour ne plus programmer et remplacer ça par des clics qu’un singe pourra utiliser, si tu le gardes pour toi alors les autres boites continueront à pisser du code ( pour rien ).



Pour être un ” créatif “ je peut te certifier que la plupart de mes découverte ne sont que rarement du à hasard, tu cherche d’abord une alternative commerciale qu’ensuite tu va copier ou adapter selon ton besoin.



Puis tu tâtonne jusqu’à finir par arriver à ce que tu veut, vraiment. Une fois que t’a réussi tu peut partager à la communauté qui leur permettra à leur tour de gagner du temps.



On sur estime beaucoup l’intelligence humaine en fait et je pense que le plus grand pouvoir de l’humain c’est pas son intelligence mais sa mémoire.



En terme de mémoire et rapidité de traitement l’ia nous surpasse.



carbier a dit:


l’humain pourra alors potentiellement le transcrire sous forme d’algorithme




Je pense que c’est l’ia qui le fera.



GPT5 le fils de GPT4.



(quote:2129024:skankhunt42 )
Demain tu pourra pondre le logiciel ultime pour ne plus programmer et remplacer ça par des clics qu’un singe pourra utiliser, si tu le gardes pour toi alors les autres boites continueront à pisser du code ( pour rien ).




En 1981, on nous disait déjà qu’une solution existait pour ne plus écrire de programmes informatique. Le logiciel en question s’appelait en toute simplicité https://en.wikipedia.org/wiki/The_Last_One_(software">The Last One. 42 ans plus tard, on n’a jamais écrit autant de programmes que ce soi-disant dernier programme !




On sur estime beaucoup l’intelligence humaine en fait et je pense que le plus grand pouvoir de l’humain c’est pas son intelligence mais sa mémoire.




Ça dépend des humains.



(quote:2129024:skankhunt42 )
On sur estime beaucoup l’intelligence humaine en fait et je pense que le plus grand pouvoir de l’humain c’est pas son intelligence mais sa mémoire.




Un grand pouvoir implique de grandes responsabilités …
:D –>[]



fred42 a dit:


En 1981, on nous disait déjà qu’une solution existait pour ne plus écrire de programmes informatique. Le logiciel en question s’appelait en toute simplicité https://en.wikipedia.org/wiki/The_Last_One_(software">The Last One. 42 ans plus tard, on n’a jamais écrit autant de programmes que ce soi-disant dernier programme !




Ce qui serais “ marrant ” ça serais de comparer le nombre de “ programme ” crées et de comparer ça avec le nombre de postes disponible sur le marché.



Regarde ce qu’il ce passe avec le web, maintenant tu peut monter un site relativement beau et fonctionnel sans aucune ligne de code, que des clics. Cela rentre en concurrence direct avec ceux qui font du copier coller et qui changent quelques lignes de code.



L’argent est à prendre en compte dans ce genre de discutions, comme je le disais précédemment, l’ouverture est un énorme paramètre.



Après l’automatisation / robotisation à mis des gens sur le carreau depuis 1981. Avant t’avais un mec par machine qui tentais de faire le mieux possible alors que maintenant tu peut avoir un mec pour 10 machine, qui ne fera qu’appuyer sur un bouton pour charger un modèle et en quelques minutes / heures le résultat sera parfait.



(reply:2129030:Thorgalix_21) Way !




Et que fait l’humain ? Il ce reproduit sans réfléchir et détruit la planète. Forcément un jours l’ia finira par répondre qu’il faut réguler les humains.



(quote:2129025:skankhunt42 )
Je pense que c’est l’ia qui le fera.




Tu penses mal




(quote:2129024:skankhunt42 )
On sur estime beaucoup l’intelligence humaine en fait et je pense que le plus grand pouvoir de l’humain c’est pas son intelligence mais sa mémoire.




Cela fait bien longtemps que des robots peuvent reproduire les taches répétitives des hommes.
Simplement parceque dans ces taches, il n’est nullement demandé à l’humain de faire preuve d’initiatives mais de suivre des actions prédéfinies.



Ce n’est pas pour autant que ces robots sont des humains artificiels.



Quant à surestimer l’intelligence humaine: cela dépend ce que tu entends par “intelligence”: tu peux avoir un humain avec un QI de 50 et l’autre avec un QI de 150.
Le premier serait impressionné et ne pourrait pas tenir une conversation tel q’un ChatGPT
Le second comprendrait que la conversation d’un ChatGPT ne pourra dévier au dela de son champ d’apprentissage.



Ce sont 2 humains et pourtant la notion d’intelligence n’est pas perçue de la même manière par ces 2 personnes.



(quote:2129024:skankhunt42 )
On sur estime beaucoup l’intelligence humaine en fait et je pense que le plus grand pouvoir de l’humain c’est pas son intelligence mais sa mémoire.



En terme de mémoire et rapidité de traitement l’ia nous surpasse.



fred42 a dit:


Ça dépend des humains.




En effet, perso j’ai quasiment pas de mémoire, par contre je pense avoir une très bonne logique (j’ai plutôt tendance à retrouver/redémontrer quelque chose plutôt que de le retenir).



carbier a dit:


Notre cerveau sera potentiellement simulable à partir du moment où son fonctionnement sera compris, ce qui n’est pas le cas actuellement. Une fois le fonctionnement compris, l’humain pourra alors potentiellement le transcrire sous forme d’algorithme (la encore ce n’est pas gagné. Une fois cela fait on aura alors potentiellement une vraie IA, mais pour l’instant on en est très, très, mais alors très loin.




Il reste certainement beaucoup de choses à apprendre du cerveau.
Mais ce n’est pas binaire : “on ne comprend absolument rien” vs “on a tout compris”.



Il est reconnu par ex. que les réseaux de neurones convolutifs (CNN) utilisés pour la reconnaissance et la génération d’image représentent un modèle plutôt fidèle de certaines parties du cerveau destinées à la vision.




Le seul déni que je vois c’est toi qui fait de l’anthropomorphisme sur quelques algorithmes complexes.




Relis mes commentaires, à aucun moment je ne suggère que ces IA ont une intelligence humaine ou qui s’en approche.



Ton commentaire suggère que l’intelligence ne pourrait-être qu’humaine, et que toute tentative de discuter d’un autre type d’intelligence serait nécessairement de l’anthropomorphisme.



Pourtant, la vie montre tout un dégradé de niveau et de types d’intelligences différentes, entre le traitement très simple de divers signaux chimiques par les virus et les bactéries jusqu’aux mammifères et humains, en passant par les plantes, poulpes etc.



On peut très bien accepter l’idée que ces IA font preuve d’une forme d’intelligence sans remettre en cause l’incroyable intelligence humaine.



SebGF a dit:


Elle disait que le système de “raisonne pas”, et je pense que c’est là toute la subtilité du débat. L’outil comprend ce qu’on lui demande car le résultat proposé est souvent cohérent avec le contexte, mais il ne réfléchit pas pour autant. C’est, je pense, la plus grosse confusion faite dans le débat.




:chinois: Le problème est que ces IA ont un fonctionnement assez différent de notre cerveau, or nous avons l’habitude de projeter notre propre fonctionnement sur les autres entités intelligentes, ce qui marche plutôt bien pour la plupart des autres animaux mais pas pour les IA.



Les mots auxquels nous sommes habitués pour parler de l’intelligence (raisonner, réfléchir, comprendre etc.) peuvent être ré-utilisés pour les IA mais n’auront jamais exactement le même sens que pour des humains.



fred42 a dit:


Le logiciel en question s’appelait en toute simplicité https://en.wikipedia.org/wiki/The_Last_One_(software">The Last One. 42 ans plus tard




Ben tiens !


:D



Je l’ai remarqué en l’écrivant.


Fermer