Des chercheurs européens demandent à Ursula von der Leyen de rétracter des propos sur l’AGI
sources ?
Plus de 70 chercheurs et chercheuses européens ont signé une lettre ouverte adressée à la présidente de la Commission européenne pour lui demander de revenir sur ses propos prédisant que l'IA serait capable d'égaler le raisonnement humain l'an prochain. Ils lui reprochent de ne s'appuyer que sur des déclarations de marketing prononcées par des CEO d'entreprises d'IA.
Le 19 novembre 2025 à 09h00
3 min
Sciences et espace
Sciences
« Nous, experts en intelligence artificielle et ses conséquences sociales, sommes profondément préoccupés par votre déclaration non scientifique et inexacte selon laquelle l'IA se rapproche du raisonnement humain », expliquent plusieurs dizaines de chercheuses et chercheurs à la présidente de la Commission européenne, Ursula von der Leyen, dans une lettre ouverte [PDF].
Ils réagissent aux propos que la dirigeante a tenus en mai dernier lors de la Conférence annuelle sur le budget de l'UE 2025. En effet, Ursula von der Leyen affirmait, entre autres que, « quand le budget actuel a été négocié, nous pensions que l'IA ne se rapprocherait du raisonnement humain que vers 2050. Aujourd'hui, nous nous attendons à ce que cela se produise déjà l'année prochaine ».
Pas de sources précises de la Commission
Le chercheur Kris Shrishak, qui travaille au sein de l'ONG irlandaise Irish Council for Civil Liberties, avait questionné début juillet la Commission à propos de documents sources sur lesquelles se basait sa présidente pour affirmer une telle chose.
Les services d'Ursula von der Leyen lui ont répondu [PDF] en octobre « que la Commission ne détient aucun document qui correspondrait à la description donnée dans votre demande », tout en affirmant que cette déclaration s'appuyait « sur les connaissances professionnelles des services de la Commission et sur l'analyse documentaire de la littérature scientifique ».
Mais en référence, ils citaient trois responsables d'entreprises d'IA : Dario Amodei (CEO d'Anthropic), Jensen Huang (CEO de NVIDIA), Sam Altman (CEO d'OpenAI). Les services de la Commission ajoutaient aussi le billet de blog du chercheur franco-marocain Yoshua Bengio publié en octobre 2024.
« Affirmations marketing motivées par l'appât du gain »
Pour les chercheurs, « il s'agit là d'affirmations marketing motivées par l'appât du gain et l'idéologie plutôt que par des preuves empiriques et formelles. En bref, les déclarations de ces CEO du secteur technologique concernant la "superintelligence" et l' "AGI" sont manifestement liées à leurs impératifs financiers et non à une science rigoureuse ».
Selon eux, une telle reprise par la présidente de la Commission saperait « la crédibilité de l'Europe en tant que source fiable et digne de confiance de connaissances scientifiques. Cela est particulièrement vrai dans le contexte actuel d'une importante bulle spéculative alimentée par un engouement injustifié pour l'IA ».
Kris Shrishak a enfoncé le clou dans un article publié sur Tech avec la chercheuse Abeba Birhane, en affirmant que « ces spéculations ne sont pas que des mots ». Ainsi, ils expliquent que « le plan "Continent IA" de la Commission intègre ces spéculations idéologiques dans ses politiques. Dans ce plan, la Commission affirme que "la prochaine génération de modèles d'IA de pointe devrait permettre une avancée considérable en matière de capacités, vers l'intelligence artificielle générale" ». Et ils assènent que « la Commission européenne a accepté sans réserve l'utilité de l'IA, en particulier de l'IA générative ».
Des chercheurs européens demandent à Ursula von der Leyen de rétracter des propos sur l’AGI
-
Pas de sources précises de la Commission
-
« Affirmations marketing motivées par l'appât du gain »
Commentaires (82)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 19/11/2025 à 09h41
Rien de nouveau sous le soleil, comme si la science et l'efficacité était les valeurs cardinales des personnages là haut...
Le 19/11/2025 à 09h47
Pour un scientifique, le raisonnement est un principe de réflexion qui permet à un humain de résoudre de nouveaux problèmes à partir de ses connaissances antérieures.
Dans le 1er cas l'IA générative peut faire illusion, dans le second elle est TRES TRES loin du compte malgré toutes les annonces marketing des commerciaux en quête de financement.
Le génie des commerciaux ayant été d'appeler cela INTELLIGENCE artificielle.
Or cette IA est à la vraie intelligence que ce l'Autopilot de Tesla est à la vraie conduite autonome: un mensonge commercial basé sur la mauvaise utilisation d'un substantif.
Le 19/11/2025 à 09h58
Le 19/11/2025 à 10h01
Le 19/11/2025 à 10h05
Le 19/11/2025 à 11h00
Pour ceux qui écoutent le travail de Monsieur Phi, les avancées ne sont pas non-plus à prendre à la légère (évolution exponentielle).
A un moment donné il serait bon de se poser collectivement, savoir ce que l'on veut vraiment a long terme, sur les plans sociaux, environnementaux etc...
Le 19/11/2025 à 11h26
Des personnes beaucoup plus compétentes que lui dans le domaine ont déjà donné leur avis sur le sujet. Ne serait-ce que dernièrement Yann Le Cun (qui a fait beaucoup parler de lui suite à son départ de Meta).
Les évolutions actuelles ne sont pas du tout exponentielles, en tout cas, pas en terme de résultats obtenus (par contre, en terme de nombres de neurones, consommation énergétique, etc. oui !)
Le 19/11/2025 à 11h33
Le B.A. BA du raisonnement c'est d'être en capacité de déterminer la véracité d'un fait ou pas (ou d'expliquer pourquoi ce fait re rapproche de la vérité).
Pour l'instant l'IA est incapable de faire cela seul: c'est l'homme qui trie en amont les bases de connaissance pour éviter que l'IA ne dise que la Terre est plate.
Il existe des recherches sur le sujet, mais pour l'instant c'est juste pour trier les sources pas pour comprendre pourquoi une source est mauvaise ou pas.
Modifié le 19/11/2025 à 15h20
Un humain intoxiqué par de mauvaises sources peut aussi dire beaucoup de conneries. Et ça arrive même à des humains intelligents.
Des IA génératives aujourd'hui résolvent des problèmes de raisonnement mathématique de niveau avancé dont la majorité des humains seraient incapables de comprendre l’énoncé :
Les LLMs sont encore loin des humains sur beaucoup d'aspects, mais il y a bien une forme de raisonnement, même superficiel.
Le 20/11/2025 à 03h11
Le 20/11/2025 à 08h49
Le 20/11/2025 à 08h56
(ok ok, je chipote ^^)
Le 20/11/2025 à 15h17
S'il le modèle parvient à la bonne solution alors que celle-ci n'est pas triviale, nécessite plusieurs étapes, et n'est pas disponible dans les données d'entrainement, c'est qu'il résout bien le problème.
Modifié le 20/11/2025 à 10h47
Modifié le 20/11/2025 à 17h31
Il est probable que les LLMs s'appuient plus que les humains sur leurs connaissances, mais résoudre ces problèmes nécessite bien plus que de recopier des bouquins de mathématique.
On peut ne pas tomber dans le marketing et le hype des vendeurs de LLMs, reconnaitre leurs limites, mais aussi reconnaitre leurs accomplissements.
Le 20/11/2025 à 22h59
Le 21/11/2025 à 08h41
À chaque fois que je vois ça, je repense à tous ces projets d'entreprise qui prennent un logiciel pour lui faire faire autre chose que ce pourquoi il a été conçu et se plaindre ensuite qu'il est inadapté.
Le 21/11/2025 à 09h04
Au delà de ça, il faut voir derrière les maths. Les maths, c'est aussi un moyen simple de tester les bases de la logique élémentaire dont on se sert tous les jours sans même s'en rendre compte.
Quand on demande à quelqu'un de faire une synthèse d'un texte par exemple, cette personne va user de logique (consciemment ou non). Comme on s'attend à ce que les LLM nous singent, on s'attend à ce qu'ils aient un minimum de logique.
Toutes personnes comprenant un tant soit peu les LLM sait que ce n'est pas le cas. Mais les LLM sont une avancée technique qui a une particularité par rapport à toutes les avancées précédentes : elle est utilisable par tout le monde, sans connaissance. Et c'est ça le véritable danger.
Car autant quand il y a eu le cloud, le nosql, la blockchain et j'en passe, c'était des solutions techniques à mettre en oeuvre par des techniciens. Les LLM ne sont pas réservés aux techniciens...
Excel ^^
Le 21/11/2025 à 10h02
Excel, par contre est bien un outil adapté pour le calcul !
Le 21/11/2025 à 10h26
Excel est adapté car on l'a programmé pour faire les calculs. Un LLM est sensé "apprendre" (avec de gros guillemets hein !) et donc devrait faire les calculs comme nous (en posant l'addition) et non en utilisant des circuits spécifiques (cas des processeurs actuels).
Poser l'opération, c'est justement faire ressortir la logique sous-jacente ;)
Le 21/11/2025 à 11h14
À mon sens de mec qui n'a jamais été copain avec les maths et qui est d'une nullité absolue dans le domaine (donc peut être que je me plante), ce qu'il faut demander au LLM c'est de poser l'opération justement, pas de l'exécuter. Lui demander d'écrire un script pour réaliser le calcul doit permettre de montrer qu'il "connait" la logique.
Les outils technologiques sont déjà utilisés sans aucune connaissance par tout le monde.
C'est le même danger qu'on a depuis la généralisation de l'informatique, l'arrivée des terminaux mobiles et l'hyper-connexion des gens. L'utilisateur lamba croit depuis des années que c'est de la magie qui sait tout faire à grand renfort de cliché du nerd hollywoodien qui roule sa tête sur le clavier pour hacker les chinois de la CIA.
Dans la réalité, l'internaute lambda bouffe du foin pendant qu'il doomscroll ce que l'algorithme d'un média social lui dit de doomscroller.
Le 21/11/2025 à 11h47
L'idée, c'est surtout de constater que le modèle ne raisonne pas réellement (sinon il se rendrait compte qu'il ne sait pas faire), n'est pas doué de logique formelle ne serait-ce que de niveau école primaire (sinon il saurait faire), que ça reste un modèle de langage et qu'aussi impressionnant que ça puisse être dans son aptitude à donner des réponses souvent (au moins approximativement) valables à des questions d'une diversité absolument folle, ça reste extrêmement différent d'un modèle doué de véritables cognitions.
Le 21/11/2025 à 14h20
Alors oui et non. Les outils technologiques sont utilisés parce que d'autres ont passé du temps pour les intégrer dans des solutions plus user friendly.
Les utilisateurs finaux ne savent pas si la techno derrière un site web est sur le cloud ou un hébergement classique, si le site marchant utilise un SGBD classique ou du NoSQL, etc.
Là, la profonde différence que je vois avec les LLM, c'est que tout le monde peut l'utiliser directement. Il suffit juste d'avoir une interface pour le prompt.
Autrement dit, ce n'est pas juste un joujou à destination "d'initiés". Tout le monde peut le faire. Véritablement tout le monde.
Le 21/11/2025 à 16h24
Modifié le 23/11/2025 à 10h03
"0,0001" n'est pas stockable par Excel !
=(43,1-43,2)+1 renvoie 0.899999...
Il utilise des "floats" au format IEEE754 (mantisse / exposant), Microsoft a rustiné depuis des années en hardcodant l'affichage des résultats "si 0.9999999997 afficher 1" pour que ça ne se voit pas trop. (il ont commencés avec Office 95 ou 97),
Ce qui est effarant, c'est de voir des comptables utiliser Excel, et chercher où sont passer les centimes qui manquent
J'ai déjà du expliquer qu'un résultat comptable de SAP était bon, et que c'était le tableur Excel de "contrôle" qui se "trompait", malgré ses formules justes (c'est pas simple à expliquer)
Heureusement Microsoft a reconnu depuis quelques années le problème, et c'est plus simple quand Microsoft lui même explique qu'Excel n'est pas prévu pour faire des calculs !
https://learn.microsoft.com/fr-fr/office/troubleshoot/excel/floating-point-arithmetic-inaccurate-result
à noter Javascript fait pareil, impossible d'avoir un résultat juste, tous les calculs sont fait sur des "Number" qui sont de vulgaires flottants soumis a des approximations.
Vous pouvez testez facilement en appuyant sur F12 puis dans l'onglet console saisir :
"43.1-43.2" par exemple
ou
"0.0001+1-1" : javascript fait comme Excel "0.0001" est hardcodé pour s'afficher sans erreur mais pas son calcul
Ce n'est pas trop grave dans la majorité des cas : dés que tu agrèges les résultats l'erreur passe inaperçue, par contre si tu drill-down une aggregation, et fait la somme des détails avec un papier/crayon (ou la calculatrice windows, qui s'en sort mieux qu'Excel je crois) tu retrouves les incohérences
Le 23/11/2025 à 09h29
Le 23/11/2025 à 10h05
La définition d'IAG selon Microsoft et OpenAI est basée sur les revenus générés par le produit. Remarque, c'est peut-être là la seule chose réellement vérifiable et mesurable.
Le 23/11/2025 à 21h18
Le 24/11/2025 à 07h39
L'expérimentation me semble l'approche la plus pertinente pour évaluer les capacités de l'outil versus l'argument d'autorité.
Le 24/11/2025 à 11h14
On peut faire quelques trucs bien avec les LLM, et beaucoup de choses intéressantes avec l'IA en général (qui est rendue quasi invisible actuellement par la hype des LLM et le fait que la majorité des IA soient des outils en backend qu'on ne voit pas directement), c'est pas pour autant qu'il faut adopter sans réflexion (n'est-ce pas Mme VDL !) les positions de l'industrie des LLM.
Le 24/11/2025 à 14h09
On voit ce genre de chose couramment en entreprise où les commerciaux parviennent à bullshiter le métier et derrière l'IT se retrouve avec un énième bousin coûteux souscrit sous le manteau à maintenir.
Le 24/11/2025 à 17h29
Et ça engage bien plus le monde et la société que juste des margoulins commerciaux qui survendent un produit qui tient à peine debout.
Le 23/11/2025 à 09h26
Modifié le 23/11/2025 à 18h36
On ne demande pas aux modèles de donner la bonne réponse une fois toutes les milliards mais la grande majorité des fois.
Or, la plupart des humains ne trouveraient pas par eux même que la terre est ronde si on ne leur avait pas dit ou montré. Ça a pris des millénaires pour que les premiers humains arrivent à cette conclusion, puis encore des millénaires pour que ça devienne un consensus.
Le 19/11/2025 à 10h58
Le 19/11/2025 à 11h16
Le 19/11/2025 à 11h23
Sociologie, CSCW, anthropologie, psychologie, il y a de nombreux cursus permettant d’y accéder.
Modifié le 19/11/2025 à 11h32
Le 19/11/2025 à 14h18
On peut également être expert d'un domaine sans en avoir un diplôme (et ne pas être un expert malgré un diplôme).
Le 19/11/2025 à 16h09
Donc des "experts en intelligence artificielle" ET des "experts en conséquences sociales".
Heu... "experts en conséquences sociales" c'est quoi le cursus ? militant politique ??
Modifié le 19/11/2025 à 16h57
Modifié le 19/11/2025 à 18h15
Le 19/11/2025 à 19h43
Le 19/11/2025 à 20h14
Modifié le 20/11/2025 à 11h20
Un système qui se borne à mettre bout à bout des mots en fonction de probabilités qu'ils soient bout-à-bout ne se rapproche pas du fonctionnement du cerveau humain. Les IA actuelles sont des versions infiniment plus avancées d'Elisa à l'époque, et arrivent très bien à donner l'impression de réfléchir, mais ce n'est absolument pas de la réflexion humaine. Établir un fait aussi basique ne nécessite pas d'études avancées, juste une connaissance de base du fonctionnement d'un LLM (et Next a sorti de bons articles là-dessus).
On arrivera peut-être à émuler le cerveau humain un jour, mais pas avec la technologie des LLM qui n'est d'aucune façon proche du raisonnement humain, peu importe la taille du dataset ou de la puissance de calcul.
Modifié le 20/11/2025 à 11h50
ah... pourtant il me semble bien que ca avait été démontré.
Je ne savais pas que tu vais fait le reverse du cerveau humain, encore une fois mes excuses.
Tu penses donc qu'il faut
étudierpardon, envisager la génération de texte par modèles de diffusion et abandonner les modèles autoregressifs.Il me semble que certains y travaillent déjà, mais là encore je peux me tromper...
Maintenant que tu l'as écrit noir sur blanc, c'est vrai que c'est convainquant.
Je pense que ca clôt la discussion.
Le 21/11/2025 à 13h48
Le 20/11/2025 à 23h01
Le 23/11/2025 à 10h03
Le 19/11/2025 à 11h31
Le 19/11/2025 à 11h35
Le 19/11/2025 à 11h38
Le 19/11/2025 à 11h53
Le 19/11/2025 à 14h01
Modifié le 19/11/2025 à 11h41
Tu poses la question sans savoir car tu n'as même pas lu la lettre ouverte et donc les signataires ?
Ou tu as lu le nom des signataires et tu as des révélations à nous faire ?
Modifié le 19/11/2025 à 13h40
"We, experts in artificial intelligence (AI) and its societal impacts"
Et le fait que personne ne puisse me pointer vers un cursus permettant d'atteindre cette expertise me confirme que vous ne savez pas non plus ce que ca signifie vraiment. Pour moi ce sont des experts en IA qui ont une opinion (défavorable) concernant le marketing de GAFA.
Libre a eux d'avoir cette opinion, mais ca ne veut pas dire qu'ils ont une quelconque preuve pour affirmer que l'IA ne se rapproche pas du raisonnement humain.
S'ils ont une preuve, qu'ils publient un papier de recherche avec:
1. la définition de ce qu'est le raisonnement humain.
2. une quantification du niveau atteint par l'IA.
3. la définition d'un seuil à partir duquel le rapprochement est atteint.
4. une étude de tendance permettant de prouver que ce seuil ne sera pas atteint par l'IA.
Pour moi, c'est ce qu'on fait quand on est des chercheurs et qu'on affirme des choses.
Non ?
Le 19/11/2025 à 14h08
Eux ils sont qualifié dans leur domaine pour critiquer von der Leyen. Et toi, es-tu qualifié pour les critiquer eux-mêmes, ou est-ce que tu t'aventures dans un domaine que tu ne maîtrises pas ?
As-tu des arguments et des compétences pour affirmer que l'AGI est pour l'année prochaine ? (et que donc l'Europe peux miser sa politique là-dessus, parce qu'au final, c'est bien de ça dont il s'agit). Eux disent que ceux qui l'affirment le font par intérêt commercial, mais que les universitaires, qui n'ont pas d'intérêt commercial, ne sont pas d'accord. D'où la question du paragraphe final : la politique de l'UE doit-elle être dictée par des affirmations sans fondements de sociétés commerciales américaines, ou doit-elle être guidée par l'avis de ses propres chercheurs, diplômés selon un cursus qui a l'heur de plaire ou non à 127.0.0.1 ?
Le 19/11/2025 à 14h54
Avoir un esprit critique me qualifie pour critiquer.
Je pense que la politique de l'UE doit être dictée par les organe exécutifs et législatifs de l'UE.
D'autres questions ?
Le 19/11/2025 à 16h03
Ah, au passage, la politique de l'UE doit être dictée par les organes de l'UE, mais sur des sujets complexes, elle peut parfaitement se faire conseiller par des experts. Il n'y a pas de honte, quand tu es politique, à ne pas maîtriser toi-même tous les sujets techniques ; se faire bien entourer, ça évite de s'équiper de pare-feu openoffice. Et quand le lobbying de sociétés américaines semble induire les institutions en erreur et les mener dans une direction insensée, il me semble très sain que les-dits experts fassent entendre leur voix ; ou plutôt, qu'ils fassent entendre leur "esprit critique". On n'est pas dans une tentative de coup d'état, hein, c'est juste une lettre ouverte.
Le 20/11/2025 à 03h15
Le 20/11/2025 à 10h42
Ca expliquait comment construire un argumentaire pour défendre une opinion cachée, et réciproquement comment déconstruire l'argumentaire pour exposer l'opinion cachée.
Basiquement c'est se poser deux questions:
- quel bénéfice tire l'auteur/orateur à présenter cet argumentaire ?
- quel serait l'argumentaire contraire ?
Et appliquer le rasoir d'Ockham.
Le 20/11/2025 à 12h19
Le 20/11/2025 à 13h28
Maintenant détaille ton raisonnement qui t'a conduit à écrire ton 1er commentaire.
Hint: le rasoir d'Ockham est la parangon de ceux qui croient qu'il n'existe que des réponses simples à des problèmes complexes.
Modifié le 19/11/2025 à 14h21
C'est ceux qui avancent qu'on atteindra l'AGI avant la fin de l'année qui devraient le prouver, pas ceux qui disent "évitez de dire ça madame la présidente, on en a aucune preuve c'est du marketing".
Modifié le 19/11/2025 à 14h48
Et pas "c'est inexact".
Encore moins sans argument a part l'autorité d'être expert en "IA et ses impacts sociaux".
Le 19/11/2025 à 15h19
Et les signataires eux-mêmes, pour la plupart professeurs, diplômés ou experts reconnus du domaine de l'intelligence artificielle, des neurosciences, de l'économie, ou de l'éthique du numérique, sont loin d'être les personnes les plus qualifiées pour parler de ce sujet. Le service marketing d'OpenAI est bien plus à même d'écrire le discours européen sur le sujet.
Modifié le 19/11/2025 à 16h04
Le 1er est sur l'Eugénisme dans l'IA (WTF avec le sujet ?)
Le 2nd est à la fois une lettre ouverte du meme type et un papier de recherche qui dit qu'on n'a pas encore atteint l'AGI.
Le 3ème est un article écrit par 2 des signataires, qui affirme qu'il faudrait une puissance/ressource infinie pour atteindre l'AGI.
Le 4ème, sur la bulle spéculative, c'est l'avis de C. Mgbojikwe, un spécialiste SEO. (et donc visiblement aussi un spécialiste des marchés financiers)
Mince alors, me voila mouché. Si c'est pas une preuve irréfutable sur l'incapacité des modèles de raisonnement à se rapprocher de l'humain, je ne sais pas ce que c'est.
Le 19/11/2025 à 16h08
Le 2nd lien n'est pas une lettre ouverte, tu n'as pas ouvert l'article PDF et t'es contenté du titre.
Le 3ème lien n'est pas non plus un article de média, mais une présentation d'un travail publié. Encore une fois, tu n'as même pas daigné cliquer sur le lien vers le PDF complet et t'es contenté du titre ou de l'abstract.
Le 19/11/2025 à 16h18
Modifié le 19/11/2025 à 16h52
Par contre, remettre en cause le discours, véritablement non étayés, des équipes marketing des fournisseurs d'IA, ça non !
Je commence à comprendre pourquoi on te considère de plus en plus comme un troll ici.
On rappellera à toutes fins utiles que non, l'IA n'est même pas proche du raisonnement du plus idiot des humains sur terre, ni même d'un enfant peu importe son âge. Le principe central des LLM est d'aligner des mots avec les meilleures probabilités, il n'y a strictement aucune réflexion derrière ces mots.
Le 19/11/2025 à 18h19
Je ne crois pas aux prédictions de Ursula sur l'IA.
Je ne crois pas aux contre-prédictions de ces chercheurs en IA.
Si vous croyez à leurs prédictions ou contre-prédictions, tant mieux pour vous.
Pour moi les deux sont des charlatans.
Cette lettre-ouverte sent l'agenda politique anti-capitaliste/liberal a plein nez.
J'attendais mieux de chercheurs en IA. C'est ma faute.
Le 19/11/2025 à 15h41
Le 19/11/2025 à 11h38
C'est quoi le but de cette question ?
Le GIEC qui travaille sur le dérèglement climatique ne regroupe pas des experts dans tous les domaines de compétence mais des experts dans leur domaine qui travaillent ensemble.
Le 19/11/2025 à 11h52
Parce que si la première phrase de leur lettre ouverte c'est l'hallucination d'une discipline scientifique, alors je pense que Ursula von der Leyen a raison: l'IA est très proche du raisonnement humain.
Modifié le 20/11/2025 à 23h15
Si tu cherches un expert en [la question], c'est pas comme ça que ça marche. Il y a des experts en des disciplines qui ont trait à la question, et qui peuvent ensemble apporter un éclairage tel que, en mettant leurs connaissances bout à bout, on se fait une idée très précise de la réponse.
De la même manière que début 2020, il y avait pas d'expert en "quel sera le taux de transmission du Covid-19 en l'absence de mesures de réduction des risques de transmission". Il y avait des experts en virologie, en épidémiologie, en sociologie des foules, en anthropologie spécialisés dans les crises sanitaires, et ensemble ils ont pu conclure correctement début 2020 qu'à partir du moment où il y avait des foyers infectieux en France, en l'absence de mesures radicales, la situation deviendrait totalement ingérable.
Le 23/11/2025 à 10h06
Et n’importe quel chercheur sérieux te confirmera qu’on ne raisonne pas comme des réseaux de neurones.
Le 19/11/2025 à 21h48
Le 20/11/2025 à 08h00
Le 19/11/2025 à 12h48
Parce que si l'IA passe d'un milliard d'années-lumière du raisonnement humain à 999 millions, elle se rapproche effectivement, mais elle est toujours très loin
Le 20/11/2025 à 12h26
Ça pourrait très être une allusion à un autre (supposé ?) phénomène, comme évoqué ici : https://futurism.com/neoscope/human-intelligence-declining-trends
Le 19/11/2025 à 16h26
Prendre les gens pour des imbéciles c'est une chose, mais ça marche moins bien avec des scientifiques ... 😑
Le 19/11/2025 à 19h17
On rira moins quand la bulle spéculative sur l'IA va exploser et laisser un gros paquet sur le carreau.
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?