Connexion Abonnez-vous

Des chercheurs européens demandent à Ursula von der Leyen de rétracter des propos sur l’AGI

sources ?

Des chercheurs européens demandent à Ursula von der Leyen de rétracter des propos sur l’AGI

Plus de 70 chercheurs et chercheuses européens ont signé une lettre ouverte adressée à la présidente de la Commission européenne pour lui demander de revenir sur ses propos prédisant que l'IA serait capable d'égaler le raisonnement humain l'an prochain. Ils lui reprochent de ne s'appuyer que sur des déclarations de marketing prononcées par des CEO d'entreprises d'IA.

Le 19 novembre 2025 à 09h00

« Nous, experts en intelligence artificielle et ses conséquences sociales, sommes profondément préoccupés par votre déclaration non scientifique et inexacte selon laquelle l'IA se rapproche du raisonnement humain », expliquent plusieurs dizaines de chercheuses et chercheurs à la présidente de la Commission européenne, Ursula von der Leyen, dans une lettre ouverte [PDF].

Ils réagissent aux propos que la dirigeante a tenus en mai dernier lors de la Conférence annuelle sur le budget de l'UE 2025. En effet, Ursula von der Leyen affirmait, entre autres que, « quand le budget actuel a été négocié, nous pensions que l'IA ne se rapprocherait du raisonnement humain que vers 2050. Aujourd'hui, nous nous attendons à ce que cela se produise déjà l'année prochaine ».

Pas de sources précises de la Commission

Le chercheur Kris Shrishak, qui travaille au sein de l'ONG irlandaise Irish Council for Civil Liberties, avait questionné début juillet la Commission à propos de documents sources sur lesquelles se basait sa présidente pour affirmer une telle chose.

Les services d'Ursula von der Leyen lui ont répondu [PDF] en octobre « que la Commission ne détient aucun document qui correspondrait à la description donnée dans votre demande », tout en affirmant que cette déclaration s'appuyait « sur les connaissances professionnelles des services de la Commission et sur l'analyse documentaire de la littérature scientifique ».

Mais en référence, ils citaient trois responsables d'entreprises d'IA : Dario Amodei (CEO d'Anthropic), Jensen Huang (CEO de NVIDIA), Sam Altman (CEO d'OpenAI). Les services de la Commission ajoutaient aussi le billet de blog du chercheur franco-marocain Yoshua Bengio publié en octobre 2024.

« Affirmations marketing motivées par l'appât du gain »

Pour les chercheurs, « il s'agit là d'affirmations marketing motivées par l'appât du gain et l'idéologie plutôt que par des preuves empiriques et formelles. En bref, les déclarations de ces CEO du secteur technologique concernant la "superintelligence" et l' "AGI" sont manifestement liées à leurs impératifs financiers et non à une science rigoureuse ».

Selon eux, une telle reprise par la présidente de la Commission saperait « la crédibilité de l'Europe en tant que source fiable et digne de confiance de connaissances scientifiques. Cela est particulièrement vrai dans le contexte actuel d'une importante bulle spéculative alimentée par un engouement injustifié pour l'IA ».

Kris Shrishak a enfoncé le clou dans un article publié sur Tech avec la chercheuse Abeba Birhane, en affirmant que « ces spéculations ne sont pas que des mots ». Ainsi, ils expliquent que « le plan "Continent IA" de la Commission intègre ces spéculations idéologiques dans ses politiques. Dans ce plan, la Commission affirme que "la prochaine génération de modèles d'IA de pointe devrait permettre une avancée considérable en matière de capacités, vers l'intelligence artificielle générale" ». Et ils assènent que « la Commission européenne a accepté sans réserve l'utilité de l'IA, en particulier de l'IA générative ».

Commentaires (82)

votre avatar
Des spécialistes de la Com' ont suffisamment fait de lobbying auprès de la Commission pour que le perroquet officiel répète le discours prévu.
Rien de nouveau sous le soleil, comme si la science et l'efficacité était les valeurs cardinales des personnages là haut...
votre avatar
Il faut bien comprendre que pour beaucoup le "raisonnement" humain correspond a être capable de soutenir une conversation sans faute de grammaire sur des sujets multiples.

Pour un scientifique, le raisonnement est un principe de réflexion qui permet à un humain de résoudre de nouveaux problèmes à partir de ses connaissances antérieures.

Dans le 1er cas l'IA générative peut faire illusion, dans le second elle est TRES TRES loin du compte malgré toutes les annonces marketing des commerciaux en quête de financement.

Le génie des commerciaux ayant été d'appeler cela INTELLIGENCE artificielle.
Or cette IA est à la vraie intelligence que ce l'Autopilot de Tesla est à la vraie conduite autonome: un mensonge commercial basé sur la mauvaise utilisation d'un substantif.
votre avatar
Il faut bien comprendre que pour beaucoup le "raisonnement" humain correspond a être capable de soutenir une conversation sans faute de grammaire sur des sujets multiples.
Sébastien Delogu et Louis Boyard en pls :D
votre avatar
Le génie des commerciaux ayant été d'appeler cela INTELLIGENCE artificielle.
Le terme vient d'un des pionniers du domaine (ceci dit, il me semble avoir lu il y a qql années qu'il regrettait d'avoir choisi ce terme).
votre avatar
Goudron... plumes....
votre avatar
Je resterais tout de même plus prudent dans mes affirmations même concernant le cas 2...
Pour ceux qui écoutent le travail de Monsieur Phi, les avancées ne sont pas non-plus à prendre à la légère (évolution exponentielle).

A un moment donné il serait bon de se poser collectivement, savoir ce que l'on veut vraiment a long terme, sur les plans sociaux, environnementaux etc...
votre avatar
En quoi l'avis de Monsieur Phi sur le sujet est-il pertinent ? Ce n'est pas un spécialiste du domaine, juste une personne intéressée par le domaine. Mais absolument pas un expert reconnu par ses pairs.

Des personnes beaucoup plus compétentes que lui dans le domaine ont déjà donné leur avis sur le sujet. Ne serait-ce que dernièrement Yann Le Cun (qui a fait beaucoup parler de lui suite à son départ de Meta).

Les évolutions actuelles ne sont pas du tout exponentielles, en tout cas, pas en terme de résultats obtenus (par contre, en terme de nombres de neurones, consommation énergétique, etc. oui !)
votre avatar
Quelles avancées ?
Le B.A. BA du raisonnement c'est d'être en capacité de déterminer la véracité d'un fait ou pas (ou d'expliquer pourquoi ce fait re rapproche de la vérité).
Pour l'instant l'IA est incapable de faire cela seul: c'est l'homme qui trie en amont les bases de connaissance pour éviter que l'IA ne dise que la Terre est plate.

Il existe des recherches sur le sujet, mais pour l'instant c'est juste pour trier les sources pas pour comprendre pourquoi une source est mauvaise ou pas.
votre avatar
Ce n'est pas un bon exemple : on ne sait pas que la terre est ronde grâce à notre vraie de vraie intelligence ou notre raisonnement, mais parce qu’on nous l'a expliqué quand on était petit.
Un humain intoxiqué par de mauvaises sources peut aussi dire beaucoup de conneries. Et ça arrive même à des humains intelligents.

Des IA génératives aujourd'hui résolvent des problèmes de raisonnement mathématique de niveau avancé dont la majorité des humains seraient incapables de comprendre l’énoncé :
arstechnica.com Ars Technica

Les LLMs sont encore loin des humains sur beaucoup d'aspects, mais il y a bien une forme de raisonnement, même superficiel.
votre avatar
Ou tu le sais parce que la distance à laquelle tu peux voir varie en fonction de ton altitude ?
votre avatar
Les LLMs ne "résolvent" pas des problèmes, ils proposent la solution statistiquement la plus probable
votre avatar
ils proposent la solution une réponse statistiquement la plus probable
:cap:

(ok ok, je chipote ^^)
votre avatar
La solution plus probable, peut-être, mais à quel niveau d'abstraction ? Il est probable qu'un mathématicien donnera la bonne réponse à un problème mathématique.

S'il le modèle parvient à la bonne solution alors que celle-ci n'est pas triviale, nécessite plusieurs étapes, et n'est pas disponible dans les données d'entrainement, c'est qu'il résout bien le problème.
votre avatar
@wagaf Ce n'est pas du raisonnement. Pas plus qu'une photocopieuse ne peut faire preuve de de raison en dupliquant une page d'un bouquin de mathématiques.
votre avatar
Les problèmes des Olympiades internationales de mathématiques sont inédits et complexes, reconnus pour leur difficulté.
Il est probable que les LLMs s'appuient plus que les humains sur leurs connaissances, mais résoudre ces problèmes nécessite bien plus que de recopier des bouquins de mathématique.

On peut ne pas tomber dans le marketing et le hype des vendeurs de LLMs, reconnaitre leurs limites, mais aussi reconnaitre leurs accomplissements.
votre avatar
Ouaip, mais en attendant, GPT5 reste incapable de multiplier entre eux deux entiers à 4 chiffres, même en mode "réflexion prolongée". Pas que l'algèbre soit, en soi, un point particulièrement saillant du raisonnement et de l'intelligence, m'enfin être capable de poser une multiplication, c'est niveau CE2 (on lui demande pas de faire du calcul mental de surdoué, juste de poser une multiplication en ligne).
votre avatar
Ouaip, mais en attendant, GPT5 reste incapable de multiplier entre eux deux entiers à 4 chiffres
En fait, je n'arrive pas à comprendre pourquoi on veut impérativement faire faire des maths à un modèle de langage. On sait depuis des années qu'ils ne sont pas bons dans le domaine par eux même...

À chaque fois que je vois ça, je repense à tous ces projets d'entreprise qui prennent un logiciel pour lui faire faire autre chose que ce pourquoi il a été conçu et se plaindre ensuite qu'il est inadapté.
votre avatar
En fait, je n'arrive pas à comprendre pourquoi on veut impérativement faire faire des maths à un modèle de langage. On sait depuis des années qu'ils ne sont pas bons dans le domaine par eux même...
On veut tester les modèles. Les maths, c'est super simple à tester. La réponse est binaire, elle est vrai ou fausse. Elle n'est pas partiellement vraie ou partiellement fausse, ou incomplète, etc.

Au delà de ça, il faut voir derrière les maths. Les maths, c'est aussi un moyen simple de tester les bases de la logique élémentaire dont on se sert tous les jours sans même s'en rendre compte.

Quand on demande à quelqu'un de faire une synthèse d'un texte par exemple, cette personne va user de logique (consciemment ou non). Comme on s'attend à ce que les LLM nous singent, on s'attend à ce qu'ils aient un minimum de logique.

Toutes personnes comprenant un tant soit peu les LLM sait que ce n'est pas le cas. Mais les LLM sont une avancée technique qui a une particularité par rapport à toutes les avancées précédentes : elle est utilisable par tout le monde, sans connaissance. Et c'est ça le véritable danger.

Car autant quand il y a eu le cloud, le nosql, la blockchain et j'en passe, c'était des solutions techniques à mettre en oeuvre par des techniciens. Les LLM ne sont pas réservés aux techniciens...
À chaque fois que je vois ça, je repense à tous ces projets d'entreprise qui prennent un logiciel pour lui faire faire autre chose que ce pourquoi il a été conçu et se plaindre ensuite qu'il est inadapté.
Excel ^^
votre avatar
Le calcul, c'est quand même le niveau zéro des maths. Il n'y a pas vraiment de logique (au sens raisonnement) dans le processus.

Excel, par contre est bien un outil adapté pour le calcul ! :langue:
votre avatar
Alors, si, le calcul, il y a une logique ;) On n'y prête plus attention en général pour les opérations "simples" comme une addition ou une multiplication. Fait une division par contre, et là, la logique réapparait clairement.

Excel est adapté car on l'a programmé pour faire les calculs. Un LLM est sensé "apprendre" (avec de gros guillemets hein !) et donc devrait faire les calculs comme nous (en posant l'addition) et non en utilisant des circuits spécifiques (cas des processeurs actuels).

Poser l'opération, c'est justement faire ressortir la logique sous-jacente ;)
votre avatar
Poser l'opération, c'est justement faire ressortir la logique sous-jacente ;)
C'est là où je ne vois pas l'intérêt de demander à un LLM d'exécuter le calcul. Excel c'est un outil programmé pour faire du calcul, il est conçu pour. Un LLM, c'est un modèle de machine learning pour prédire des suites de mots dans un contexte et avec des instructions données.

À mon sens de mec qui n'a jamais été copain avec les maths et qui est d'une nullité absolue dans le domaine (donc peut être que je me plante), ce qu'il faut demander au LLM c'est de poser l'opération justement, pas de l'exécuter. Lui demander d'écrire un script pour réaliser le calcul doit permettre de montrer qu'il "connait" la logique.
Toutes personnes comprenant un tant soit peu les LLM sait que ce n'est pas le cas. Mais les LLM sont une avancée technique qui a une particularité par rapport à toutes les avancées précédentes : elle est utilisable par tout le monde, sans connaissance. Et c'est ça le véritable danger.
Les outils technologiques sont déjà utilisés sans aucune connaissance par tout le monde.

C'est le même danger qu'on a depuis la généralisation de l'informatique, l'arrivée des terminaux mobiles et l'hyper-connexion des gens. L'utilisateur lamba croit depuis des années que c'est de la magie qui sait tout faire à grand renfort de cliché du nerd hollywoodien qui roule sa tête sur le clavier pour hacker les chinois de la CIA.

Dans la réalité, l'internaute lambda bouffe du foin pendant qu'il doomscroll ce que l'algorithme d'un média social lui dit de doomscroller.
votre avatar
Le but n'est pas vraiment d'utiliser le modèle pour faire des calculs. On sait bien que ça n'a aucun sens, que même s'il était performant dans ce domaine, ce serait au prix d'une puissance de calcul absolument débile (genre des milliards de multiplications et de divisions et de matrices et de trucs et de bidules sur des nombres à virgule flottante pour... arriver au résultat d'une seule multiplication de deux entiers). Il va de soi qu'en pratique, quand on a besoin d'une telle multiplication, il est infiniment plus simple et cohérent d'utiliser calc.exe

L'idée, c'est surtout de constater que le modèle ne raisonne pas réellement (sinon il se rendrait compte qu'il ne sait pas faire), n'est pas doué de logique formelle ne serait-ce que de niveau école primaire (sinon il saurait faire), que ça reste un modèle de langage et qu'aussi impressionnant que ça puisse être dans son aptitude à donner des réponses souvent (au moins approximativement) valables à des questions d'une diversité absolument folle, ça reste extrêmement différent d'un modèle doué de véritables cognitions.
votre avatar
Un LLM, c'est un modèle de machine learning pour prédire des suites de mots dans un contexte et avec des instructions données.
Parce que tu as compris ce qu'était un LLM. Contrairement à la grande majorité de ceux qui les utilisent ;)
Les outils technologiques sont déjà utilisés sans aucune connaissance par tout le monde
Alors oui et non. Les outils technologiques sont utilisés parce que d'autres ont passé du temps pour les intégrer dans des solutions plus user friendly.

Les utilisateurs finaux ne savent pas si la techno derrière un site web est sur le cloud ou un hébergement classique, si le site marchant utilise un SGBD classique ou du NoSQL, etc.

Là, la profonde différence que je vois avec les LLM, c'est que tout le monde peut l'utiliser directement. Il suffit juste d'avoir une interface pour le prompt.

Autrement dit, ce n'est pas juste un joujou à destination "d'initiés". Tout le monde peut le faire. Véritablement tout le monde.
votre avatar
Il y a juste un algo à suivre. :D
votre avatar
en fait même pas : Excel fait de nombreuses erreurs de calcul même sur de simples additions.

"0,0001" n'est pas stockable par Excel !
=(43,1-43,2)+1 renvoie 0.899999...

Il utilise des "floats" au format IEEE754 (mantisse / exposant), Microsoft a rustiné depuis des années en hardcodant l'affichage des résultats "si 0.9999999997 afficher 1" pour que ça ne se voit pas trop. (il ont commencés avec Office 95 ou 97),

Ce qui est effarant, c'est de voir des comptables utiliser Excel, et chercher où sont passer les centimes qui manquent :mdr2:
J'ai déjà du expliquer qu'un résultat comptable de SAP était bon, et que c'était le tableur Excel de "contrôle" qui se "trompait", malgré ses formules justes (c'est pas simple à expliquer)

Heureusement Microsoft a reconnu depuis quelques années le problème, et c'est plus simple quand Microsoft lui même explique qu'Excel n'est pas prévu pour faire des calculs !
https://learn.microsoft.com/fr-fr/office/troubleshoot/excel/floating-point-arithmetic-inaccurate-result

à noter Javascript fait pareil, impossible d'avoir un résultat juste, tous les calculs sont fait sur des "Number" qui sont de vulgaires flottants soumis a des approximations.
Vous pouvez testez facilement en appuyant sur F12 puis dans l'onglet console saisir :
"43.1-43.2" par exemple :D
ou
"0.0001+1-1" : javascript fait comme Excel "0.0001" est hardcodé pour s'afficher sans erreur mais pas son calcul :D )

Ce n'est pas trop grave dans la majorité des cas : dés que tu agrèges les résultats l'erreur passe inaperçue, par contre si tu drill-down une aggregation, et fait la somme des détails avec un papier/crayon (ou la calculatrice windows, qui s'en sort mieux qu'Excel je crois) tu retrouves les incohérences
votre avatar
peut-être simplement pour montrer que ce n'est pas une IAG ;)
votre avatar
Montrer que quelque chose n'est pas un quelque chose alors que ce quelque chose n'a pas de définition concrète (comme le terme "intelligence", d'ailleurs) me paraît bien hasardeux tout de même.

La définition d'IAG selon Microsoft et OpenAI est basée sur les revenus générés par le produit. Remarque, c'est peut-être là la seule chose réellement vérifiable et mesurable.
votre avatar
En fait, je n'arrive pas à comprendre pourquoi on veut impérativement faire faire des maths à un modèle de langage.
Il répond à wagaf qui tente de nous faire prendre des vessies pour des lanternes avec un problème de maths difficile "résolu" par un LLM, alors qu'il existe des milliers de pages avec ce problème et sa solution en ligne. Bref, le LLM a recraché une solution qui existe déjà parce qu'il l'a apprise. Il n'a pas résolu le problème au sens de construire un enchaînement logique pour parvenir à une solution qu'il ne connaîtrait pas au préalable. Je trouve au contraire la réponse de Liam très pertinente, et toutes les réponses dans le style le sont dès lors qu'il s'agit de répondre à des affirmations sans aucun fondement sur une supposée IA tellement supérieure à nous alors que les LLM accumulent les conneries sur des choses ultra basiques parce qu'ils ne comprennent absolument rien.
votre avatar
Je ne suis pas un grand fan des positions tranchées à coup de X a raison et Y a tort. C'est plus de la théologie que de l'étude scientifique de mon point de vue.

L'expérimentation me semble l'approche la plus pertinente pour évaluer les capacités de l'outil versus l'argument d'autorité.
votre avatar
Tout à fait, le problème étant qu'on ne peut pas écarter un argument comme celui de Liam au motif que l'IA n'est pas faite pour ça. Quand on prétend qu'un LLM est "PhD-level", bah non, un PhD il sait faire quelques calculs simples, pas le LLM, et ça suffit à invalider le propos bullshit du VRP OpenAI/Anthropic/Google.

On peut faire quelques trucs bien avec les LLM, et beaucoup de choses intéressantes avec l'IA en général (qui est rendue quasi invisible actuellement par la hype des LLM et le fait que la majorité des IA soient des outils en backend qu'on ne voit pas directement), c'est pas pour autant qu'il faut adopter sans réflexion (n'est-ce pas Mme VDL !) les positions de l'industrie des LLM.
votre avatar
Les entreprises de la Tech sont là pour vendre leur came. Le plus idiot dans l'histoire n'est pas de dire que leurs modèles de langage sont des divinités, mais d'y croire.

On voit ce genre de chose couramment en entreprise où les commerciaux parviennent à bullshiter le métier et derrière l'IT se retrouve avec un énième bousin coûteux souscrit sous le manteau à maintenir.
votre avatar
Les entreprises de la Tech sont là pour vendre leur came. Le plus idiot dans l'histoire n'est pas de dire que leurs modèles de langage sont des divinités, mais d'y croire.
On n'est pas obligés de laisser dire non plus, ni de démonter quelqu'un qui fait un argument sensé (contre exemple invalidant une affirmation) parce qu'il enfonce des portes ouvertes (pour toi, pas pour tout le monde, la nuance est là).

Et ça engage bien plus le monde et la société que juste des margoulins commerciaux qui survendent un produit qui tient à peine debout.
votre avatar
Oui bien t'as écouté les cours de physique au collège, et tu sais que ça a été prouvé avec un simple baton 200ans avant JC... Erastophène a même pu calculer la circonférence de la terre en mesurant les ombres à différents endroit du globe.
votre avatar
Bien sûr, mais ce n'est pas la question.

On ne demande pas aux modèles de donner la bonne réponse une fois toutes les milliards mais la grande majorité des fois.

Or, la plupart des humains ne trouveraient pas par eux même que la terre est ronde si on ne leur avait pas dit ou montré. Ça a pris des millénaires pour que les premiers humains arrivent à cette conclusion, puis encore des millénaires pour que ça devienne un consensus.
votre avatar
Le jour où les politiques de tout poils comprendront autre chose qu'un graphique de sondage électoral :craint:
votre avatar
"Nous, experts en intelligence artificielle et ses conséquences sociales..."
C'est quoi le cursus universitaire pour acquérir cette double compétence ?
votre avatar
Pour les conséquences sociales de l’IA ?
Sociologie, CSCW, anthropologie, psychologie, il y a de nombreux cursus permettant d’y accéder.
votre avatar
Pour les conséquences sociales de l’IA ?
non pour la double compétence: "intelligence artificielle et ses conséquences sociales"
votre avatar
La phrase ne dis pas qu'ils sont les deux. Il peut très bien y avoir des experts en IA d'une part et des experts en sociologie appliquées à l'IA d'autre part.
On peut également être expert d'un domaine sans en avoir un diplôme (et ne pas être un expert malgré un diplôme).
votre avatar
La phrase ne dis pas qu'ils sont les deux.
Ah... c'est deux types d'expertises pour deux groupes disjoints d'experts.
Donc des "experts en intelligence artificielle" ET des "experts en conséquences sociales".

Heu... "experts en conséquences sociales" c'est quoi le cursus ? militant politique ??
votre avatar
Sociologue, chercheur en éthique du numérique ou chercheur en responsabilité sociale de l'intelligence artificielle, pour ne citer que les titres des signataires de la pétition. Et évidemment sans compter ceux qui ont étudié le sujet de la responsabilité sociale comme partie de leurs études sur l'IA mais pour lesquels cela ne figure pas dans le titre.
votre avatar
En quoi ca qualifie qqn pour savoir si l'IA se rapprochera d'un comportement humain en 2026 ?
votre avatar
Leurs études sur le sujet. Y'a des neurologues aussi tiens, des gens qui étudient le fonctionnement du cerveau humain.
votre avatar
Leurs études sur le sujet. Y'a des neurologues aussi tiens, des gens qui étudient le fonctionnement du cerveau humain.
merci de nous indiquer la référence de l'étude démontrant que l'IA se rapproche pas du raisonnement humain.
votre avatar
Faut arrêter de demander des études sur tous les sujets tout le temps. Il n'y a aucune étude qui démontre que la terre est ronde parce que ce n'est pas nécessaire de faire de telles études. Ce n'est pas pour autant que la terre plate est une théorie légitime.

Un système qui se borne à mettre bout à bout des mots en fonction de probabilités qu'ils soient bout-à-bout ne se rapproche pas du fonctionnement du cerveau humain. Les IA actuelles sont des versions infiniment plus avancées d'Elisa à l'époque, et arrivent très bien à donner l'impression de réfléchir, mais ce n'est absolument pas de la réflexion humaine. Établir un fait aussi basique ne nécessite pas d'études avancées, juste une connaissance de base du fonctionnement d'un LLM (et Next a sorti de bons articles là-dessus).

On arrivera peut-être à émuler le cerveau humain un jour, mais pas avec la technologie des LLM qui n'est d'aucune façon proche du raisonnement humain, peu importe la taille du dataset ou de la puissance de calcul.
votre avatar
Faut arrêter de demander des études sur tous les sujets tout le temps.
Ah désolé. C'est toi qui disait que leurs études sur le sujet... Oups. Mes excuses. On oublie les études.
Il n'y a aucune étude qui démontre que la terre est ronde parce que ce n'est pas nécessaire de faire de telles études. Ce n'est pas pour autant que la terre plate est une théorie légitime.
ah... pourtant il me semble bien que ca avait été démontré.
Un système qui se borne à mettre bout à bout des mots en fonction de probabilités qu'ils soient bout-à-bout ne se rapproche pas du fonctionnement du cerveau humain
Je ne savais pas que tu vais fait le reverse du cerveau humain, encore une fois mes excuses.
Tu penses donc qu'il faut étudier pardon, envisager la génération de texte par modèles de diffusion et abandonner les modèles autoregressifs.
Il me semble que certains y travaillent déjà, mais là encore je peux me tromper...
On arrivera peut-être à émuler le cerveau humain un jour, mais pas avec la technologie des LLM qui n'est d'aucune façon proche du raisonnement humain, peu importe la taille du dataset ou de la puissance de calcul.
Maintenant que tu l'as écrit noir sur blanc, c'est vrai que c'est convainquant.
Je pense que ca clôt la discussion.
votre avatar
Je pense que ca clôt la discussion.
Si tu le dis :)
votre avatar
C'est, a priori, plutôt à ceux qui déclarent que "dans un an, l'IA sera aussi intelligente qu'un cerveau humain" de le démontrer étude à l'appui. Ce qui est affirmé sans preuve peut être dénié sans preuve.
votre avatar
Pour la double compétence ? Un doctorat en IA et une spécialisation en CSCW par exemple comme c’est mon cas. Heureusement le monde ne s’arrête pas à ce que tu ne connais pas.
votre avatar
Chacun des 70 chercheurs n'est pas forcément compétent dans les deux domaines à la fois.
votre avatar
Y en a-t-il au moins un qui le soit ?
votre avatar
Quand on regarde la liste des signataires et l'appellation de leur poste, je dirais que oui.
votre avatar
Lequel par exemple ?
votre avatar
Il faut vraiment te prémâcher le travail à un point qui en est pénible. On a par exemple un Fellow in Responsible Machine Learning and Artificial Intelligence, ou encore Chair in the Ethics of Data and Artificial Intelligence. Il y en a d'autres, si tu veux bien te donner la peine d'ouvrir le document et d'étudier par toi-même le CV des signataires.
votre avatar
@127.0.0.1
Tu poses la question sans savoir car tu n'as même pas lu la lettre ouverte et donc les signataires ?
Ou tu as lu le nom des signataires et tu as des révélations à nous faire ?
votre avatar
Je l'ai lu, et la révélation c'est que dés la première phrase il y a ce que je considère être un argument d'autorité:

"We, experts in artificial intelligence (AI) and its societal impacts"

Et le fait que personne ne puisse me pointer vers un cursus permettant d'atteindre cette expertise me confirme que vous ne savez pas non plus ce que ca signifie vraiment. Pour moi ce sont des experts en IA qui ont une opinion (défavorable) concernant le marketing de GAFA.

Libre a eux d'avoir cette opinion, mais ca ne veut pas dire qu'ils ont une quelconque preuve pour affirmer que l'IA ne se rapproche pas du raisonnement humain.

S'ils ont une preuve, qu'ils publient un papier de recherche avec:
1. la définition de ce qu'est le raisonnement humain.
2. une quantification du niveau atteint par l'IA.
3. la définition d'un seuil à partir duquel le rapprochement est atteint.
4. une étude de tendance permettant de prouver que ce seuil ne sera pas atteint par l'IA.

Pour moi, c'est ce qu'on fait quand on est des chercheurs et qu'on affirme des choses.
Non ?
votre avatar
Et toi, quel est ton cursus universitaire qui te donne autorité pour critiquer leurs écrits ?

Eux ils sont qualifié dans leur domaine pour critiquer von der Leyen. Et toi, es-tu qualifié pour les critiquer eux-mêmes, ou est-ce que tu t'aventures dans un domaine que tu ne maîtrises pas ?

As-tu des arguments et des compétences pour affirmer que l'AGI est pour l'année prochaine ? (et que donc l'Europe peux miser sa politique là-dessus, parce qu'au final, c'est bien de ça dont il s'agit). Eux disent que ceux qui l'affirment le font par intérêt commercial, mais que les universitaires, qui n'ont pas d'intérêt commercial, ne sont pas d'accord. D'où la question du paragraphe final : la politique de l'UE doit-elle être dictée par des affirmations sans fondements de sociétés commerciales américaines, ou doit-elle être guidée par l'avis de ses propres chercheurs, diplômés selon un cursus qui a l'heur de plaire ou non à 127.0.0.1 ?
votre avatar
Et toi, quel est ton cursus universitaire qui te donne autorité pour critiquer leurs écrits ?
On m'a enseigné à l'école comment avoir un esprit critique.
Et toi, es-tu qualifié pour les critiquer eux-mêmes, ou est-ce que tu t'aventures dans un domaine que tu ne maîtrises pas
Avoir un esprit critique me qualifie pour critiquer.
la politique de l'UE doit-elle être dictée par des affirmations sans fondements de sociétés commerciales américaines, ou doit-elle être guidée par l'avis de ses propres chercheurs, diplômés selon un cursus qui a l'heur de plaire ou non à 127.0.0.1 ?
Je pense que la politique de l'UE doit être dictée par les organe exécutifs et législatifs de l'UE.

D'autres questions ?
votre avatar
Avoir un esprit critique te suffit pour critiquer ? Ces 70 chercheurs aussi ont un esprit critique qui leur suffit pour critiquer von der Leyen. D'autres questions ?

Ah, au passage, la politique de l'UE doit être dictée par les organes de l'UE, mais sur des sujets complexes, elle peut parfaitement se faire conseiller par des experts. Il n'y a pas de honte, quand tu es politique, à ne pas maîtriser toi-même tous les sujets techniques ; se faire bien entourer, ça évite de s'équiper de pare-feu openoffice. Et quand le lobbying de sociétés américaines semble induire les institutions en erreur et les mener dans une direction insensée, il me semble très sain que les-dits experts fassent entendre leur voix ; ou plutôt, qu'ils fassent entendre leur "esprit critique". On n'est pas dans une tentative de coup d'état, hein, c'est juste une lettre ouverte.
votre avatar
Peux-tu m'en dire plus sur ce qu'on t'a enseigné vis-à-vis d'avoir un esprit critique ? Personellement je ne me souviens pas de grand chose dans le genre (question sérieuse).
votre avatar
Peux-tu m'en dire plus sur ce qu'on t'a enseigné vis-à-vis d'avoir un esprit critique ? Personellement je ne me souviens pas de grand chose dans le genre (question sérieuse).
C'était dans le cadre de cours en école d'ingé. sur les techniques d'expressions orales/écrites.
Ca expliquait comment construire un argumentaire pour défendre une opinion cachée, et réciproquement comment déconstruire l'argumentaire pour exposer l'opinion cachée.

Basiquement c'est se poser deux questions:
- quel bénéfice tire l'auteur/orateur à présenter cet argumentaire ?
- quel serait l'argumentaire contraire ?
Et appliquer le rasoir d'Ockham.
votre avatar
Ahhh OK merci... J'avais supposé bêtement que tu parlais d'un cursus pre-bac. Bon ceci dit même en post-bac je n'ai pas eu ça.
votre avatar
Intéressant.

Maintenant détaille ton raisonnement qui t'a conduit à écrire ton 1er commentaire.

Hint: le rasoir d'Ockham est la parangon de ceux qui croient qu'il n'existe que des réponses simples à des problèmes complexes.
votre avatar
S'ils ont une preuve, qu'ils publient un papier de recherche
Absolument pas !
C'est ceux qui avancent qu'on atteindra l'AGI avant la fin de l'année qui devraient le prouver, pas ceux qui disent "évitez de dire ça madame la présidente, on en a aucune preuve c'est du marketing".
votre avatar
C'est ceux qui avancent qu'on atteindra l'AGI avant la fin de l'année qui devraient le prouver, pas ceux qui disent "évitez de dire ça madame la présidente, on en a aucune preuve c'est du marketing"
Et ceux qui pensent le contraire devraient dire aussi "on n'a aucune preuve".
Et pas "c'est inexact".
Encore moins sans argument a part l'autorité d'être expert en "IA et ses impacts sociaux".
votre avatar
Je te l'accorde, il n'y a aucune preuve pour le "c'est inexact" : il n'y a malheureusement pas, dans la lettre, de liens vers des articles sur ce sujet et sur la bulle spéculative.
Et les signataires eux-mêmes, pour la plupart professeurs, diplômés ou experts reconnus du domaine de l'intelligence artificielle, des neurosciences, de l'économie, ou de l'éthique du numérique, sont loin d'être les personnes les plus qualifiées pour parler de ce sujet. Le service marketing d'OpenAI est bien plus à même d'écrire le discours européen sur le sujet.
votre avatar
Je te l'accorde, il n'y a aucune preuve pour le "c'est inexact" : il n'y a malheureusement pas, dans la lettre, de liens vers des articles sur ce sujet et sur la bulle spéculative.
Ah... des liens. Sans aucun doutes des preuves irréfutables qui vont bien me faire fermer ma grande gueule.

Le 1er est sur l'Eugénisme dans l'IA (WTF avec le sujet ?)
Le 2nd est à la fois une lettre ouverte du meme type et un papier de recherche qui dit qu'on n'a pas encore atteint l'AGI.
Le 3ème est un article écrit par 2 des signataires, qui affirme qu'il faudrait une puissance/ressource infinie pour atteindre l'AGI.
Le 4ème, sur la bulle spéculative, c'est l'avis de C. Mgbojikwe, un spécialiste SEO. (et donc visiblement aussi un spécialiste des marchés financiers)

Mince alors, me voila mouché. Si c'est pas une preuve irréfutable sur l'incapacité des modèles de raisonnement à se rapprocher de l'humain, je ne sais pas ce que c'est.
votre avatar
Le texte exact avec les liens :
These are marketing statements driven by profit-motive and ideology[1] rather than empirical evidence[2] and formal proof[3].
Le 1er article est utilisé pour montrer que l'idéologie eugéniste est ce qui conduit à ce type de pris de position.
Le 2nd lien n'est pas une lettre ouverte, tu n'as pas ouvert l'article PDF et t'es contenté du titre.
Le 3ème lien n'est pas non plus un article de média, mais une présentation d'un travail publié. Encore une fois, tu n'as même pas daigné cliquer sur le lien vers le PDF complet et t'es contenté du titre ou de l'abstract.
votre avatar
t'es contenté du titre ou de l'abstract
Oui, j'avoue. J'ai pas de temps à perdre à lire les références pointées par des experts auto-proclamés en conséquences sociales.
votre avatar
Donc, "il n'y a pas de preuves dans la lettre" puis, quand on te montre qu'il y en a, ça devient "je n'ai pas de temps avec des preuves de pseudo-experts" alors même que la quasi-totalité des signataires sont difficilement des pseudo-experts vu leurs CV, diplômes et reconnaissance par les pairs.

Par contre, remettre en cause le discours, véritablement non étayés, des équipes marketing des fournisseurs d'IA, ça non !

Je commence à comprendre pourquoi on te considère de plus en plus comme un troll ici.

On rappellera à toutes fins utiles que non, l'IA n'est même pas proche du raisonnement du plus idiot des humains sur terre, ni même d'un enfant peu importe son âge. Le principe central des LLM est d'aligner des mots avec les meilleures probabilités, il n'y a strictement aucune réflexion derrière ces mots.
votre avatar
Nan mais je vais pas commenter pendant des heures sur ce cas.
Je ne crois pas aux prédictions de Ursula sur l'IA.
Je ne crois pas aux contre-prédictions de ces chercheurs en IA.

Si vous croyez à leurs prédictions ou contre-prédictions, tant mieux pour vous.
Pour moi les deux sont des charlatans.

Cette lettre-ouverte sent l'agenda politique anti-capitaliste/liberal a plein nez.
J'attendais mieux de chercheurs en IA. C'est ma faute.
votre avatar
tout a fait d'accord au sujet de "l'argument d'autorité"
votre avatar
@127.0.0.1
C'est quoi le cursus universitaire pour acquérir cette double compétence ?
C'est quoi le but de cette question ?

Le GIEC qui travaille sur le dérèglement climatique ne regroupe pas des experts dans tous les domaines de compétence mais des experts dans leur domaine qui travaillent ensemble.
votre avatar
C'est quoi le but de cette question ?
Savoir pourquoi ils ont autorité pour déclarer que l'IA ne se rapproche pas du raisonnement humain.

Parce que si la première phrase de leur lettre ouverte c'est l'hallucination d'une discipline scientifique, alors je pense que Ursula von der Leyen a raison: l'IA est très proche du raisonnement humain. :fume:
votre avatar
(Savoir pourquoi ils ont autorité pour déclarer que l'IA ne se rapproche pas du raisonnement humain.
Parce qu'ils ont mis leurs savoirs en commun, en tant qu'experts reconnus par leurs pairs dans plusieurs domaines complémentaires liés à l'IA, et que sur la base de leurs connaissances parmi les plus pointues qui existent sur la question, ils en arrivent ensemble à cette conclusion.

Si tu cherches un expert en [la question], c'est pas comme ça que ça marche. Il y a des experts en des disciplines qui ont trait à la question, et qui peuvent ensemble apporter un éclairage tel que, en mettant leurs connaissances bout à bout, on se fait une idée très précise de la réponse.

De la même manière que début 2020, il y avait pas d'expert en "quel sera le taux de transmission du Covid-19 en l'absence de mesures de réduction des risques de transmission". Il y avait des experts en virologie, en épidémiologie, en sociologie des foules, en anthropologie spécialisés dans les crises sanitaires, et ensemble ils ont pu conclure correctement début 2020 qu'à partir du moment où il y avait des foyers infectieux en France, en l'absence de mesures radicales, la situation deviendrait totalement ingérable.
votre avatar
L’IA est tout sauf proche du raisonnement humain, c’est fou de dire des trucs comme ça sans en avoir la moindre idée ni la moindre qualification.
Et n’importe quel chercheur sérieux te confirmera qu’on ne raisonne pas comme des réseaux de neurones.
votre avatar
C'est quoi le but de cette question ?
Sealioning.
votre avatar
Merci pour ce mot que je ne connaissais pas; 127.0.0.1 en est un parfait exemple.
votre avatar
Plus de 70 chercheurs et chercheuses européens ont signé une lettre ouverte adressée à la présidente de la Commission européenne pour lui demander de revenir sur ses propos prédisant que l'IA serait capable d'égaler le raisonnement humain l'an prochain.
nous pensions que l'IA ne se rapprocherait du raisonnement humain que vers 2050. Aujourd'hui, nous nous attendons à ce que cela se produise déjà l'année prochaine
VDL a dit "se rapprocherait", pas "égalerait". Alors soit la citation est mal rapportée, soit les chercheurs surinterprètent ce qu'elle a vraiment dit.
Parce que si l'IA passe d'un milliard d'années-lumière du raisonnement humain à 999 millions, elle se rapproche effectivement, mais elle est toujours très loin :fumer:
votre avatar
Oui, et puis l'extrait cité ici ne dit pas grand chose.
Ça pourrait très être une allusion à un autre (supposé ?) phénomène, comme évoqué ici : https://futurism.com/neoscope/human-intelligence-declining-trends
votre avatar
la Commission ne détient aucun document qui correspondrait à la description donnée dans votre demande », tout en affirmant que cette déclaration s'appuyait « sur les connaissances professionnelles des services de la Commission et sur l'analyse documentaire de la littérature scientifique ».
S'il y a une littérature scientifique, alors il y a des documents qui correspondent à leur demande.
Prendre les gens pour des imbéciles c'est une chose, mais ça marche moins bien avec des scientifiques ... 😑
votre avatar
Il faudrait d'abord définir ce qu'est l'AGI, c'est comme IA c'est un autre mot fourre tout, et chacun y va de sa petite définition / veut faire du buzz sur des soit disant innovations. Selon ce qui est mis dedans on peut très bien y arriver l'année prochaine ou au moins faire illusion que l'on y est, il en va de la survie de ces boites de com et des fonds qu'elles doivent lever chaque année juste pour survivre.
On rira moins quand la bulle spéculative sur l'IA va exploser et laisser un gros paquet sur le carreau.

Des chercheurs européens demandent à Ursula von der Leyen de rétracter des propos sur l’AGI

  • Pas de sources précises de la Commission

  • « Affirmations marketing motivées par l'appât du gain »

Fermer