Les modèles dits « de raisonnement » s’effondrent quand il faut raisonner sérieusement
🎶 C'est juste une illusion, comme une bulle de savon 🎶

DeepSeek-R1, les modèles o1 et o3 d'OpenAI, Claude 3.7 Sonnet Thinking ou encore Gemini Thinking. Ces nouveaux modèles censés avoir les capacités de « raisonner » en donnent simplement « l'illusion », selon des chercheurs d'Apple qui leur ont fait passer des tests simples comme celui des tours de Hanoï.
Le 10 juin à 08h32
5 min
IA et algorithmes
IA
Dans un article mis en ligne sur le site d'Apple, des chercheurs de l'entreprise exposent les limites des modèles dits « de raisonnement » tels que DeepSeek-R1, o1 ou Claude 3.7 Sonnet Thinking. Leur article (non relu par des pairs et mis en ligne [PDF] en dehors des pratiques de la recherche) affirme que ces modèles donnent l'« illusion de penser » alors qu'ils ont des « limites fondamentales ». Leur justesse s'effondre même, selon ces chercheurs, au-delà d'une certaine complexité.
Meilleurs que des docteurs, vraiment ?
En septembre dernier, OpenAI affirmait doctement que son modèle o1, « dépassait le niveau d'un docteur [human PhD-level accuracy] » sur un benchmark de physique, de biologie et de chimie (Le GPQA, créé en 2023 par des chercheurs de l'Université de New York, d'Anthropic et de la startup Cohere). L'entreprise tempérait un peu son ardeur plus loin en précisant que « ces résultats ne signifient pas que o1 est plus compétent qu'un docteur à tous égards, mais seulement que le modèle est plus performant pour résoudre certains problèmes qu'un docteur serait censé résoudre ».
Depuis, comme le remarquait Ars Technica déjà en mars, l'industrie de l'IA a un nouveau terme à la mode : « PhD-level AI ». Des IA du niveau d'un docteur ? Mais en quoi ? Le benchmark d'OpenAI se basait, en fait, sur la comparaison des réponses à un questionnaire à choix multiples et non sur celle de résolutions de problèmes. Un docteur n'est pas formé pour sortir de son cerveau des réponses à des questions très compliquées mais pour en formuler, établir des projets de recherche, mettre en place des protocoles et trouver de nouvelles réponses.
Des casse-têtes pour mieux évaluer
Comme le soulevait déjà en octobre dernier la même équipe de chercheurs d'Apple, les benchmarks des IA génératives nous désinforment souvent. Ici, ils proposent d'autres façons d'évaluer les modèles de raisonnement. Les chercheurs d'Apple proposent notamment plusieurs casse-têtes à tester : le passage de la rivière, les tours de Hanoï, les soldats de Conway ou encore celui du « blocks world ».
« Ces environnements permettent de manier avec précision la complexité des problèmes tout en maintenant des processus logiques cohérents, ce qui permet une analyse plus rigoureuse des schémas de raisonnement et des limites », justifient-ils.
Les tours de Hanoï, par exemple, sont un casse-tête connu tant du côté des psychologues et des neuropsychologues pour tester certaines fonctions exécutives, que du côté des développeurs comme exercice de programmation lorsqu'on est étudiant.
Des disques de diamètres différents sont posés en pyramide les uns au-dessus des autres sur une tige (voir ci-dessous). Il faut reconstituer cette pyramide sur une tige d'arrivée en déplaçant un disque à la fois et sans poser un disque sur un disque plus petit. En le faisant avec le moins de coups possibles, évidemment. On comprend assez rapidement que, plus il y a de disques, plus c'est complexe (si vous voulez essayer, on peut y jouer par ici). La complexité des autres casse-têtes augmente aussi avec l'augmentation d'un paramètre.

Au-delà d'une certaine complexité, c'est l'effondrement
Les cinq modèles « de raisonnement » testés (o3-mini dans 2 configurations différentes, DeepSeek-R1, DeepSeek-R1-Qwen-32B et Claude-3.7-Sonnet thinking) réagissent de la même façon : « la justesse diminue progressivement au fur et à mesure que la complexité du problème augmente jusqu'à l'effondrement complet (justesse nulle) au-delà d'un seuil de complexité spécifique au modèle ».

Ces modèles dits « de raisonnement » utilisent ce que les chercheurs appellent des « thinking tokens » (qu'on peut traduire par « jetons de réflexions ») inventés il y a un an par des informaticiens de l'Université de Prague.
En observant la seconde ligne de graphiques ci-dessus, on peut voir que « les modèles de raisonnement augmentent initialement leurs jetons de réflexion proportionnellement à la complexité du problème » mais qu' « à l'approche d'un seuil critique – qui correspond étroitement à leur point d'effondrement de leur justesse – les modèles commencent de manière contre-intuitive à réduire leur effort de raisonnement en dépit de l'augmentation de la difficulté du problème ». Bref, ce mécanisme ne fonctionne plus à partir d'une certaine complexité.
Les modèles de langage classiques meilleurs pour des problèmes simples
Les chercheurs d'Apple ont voulu comparer les performances de ces modèles « de raisonnement » aux modèles de langage classiques en fonction du nombre de jetons utilisés. Ils se sont aperçus que, « les modèles de langage classiques sont meilleurs pour des problèmes simples, les modèles de raisonnement présentent des avantages en cas de complexité moyenne, tandis que les deux approches échouent en cas de complexité élevée, quelle que soit l'allocation de calcul ».

L'article montre aussi que les modèles « de raisonnement » gaspillent de la puissance de calcul pour les problèmes simples : alors qu'ils ont trouvé la bonne solution dès le début, ils continuent à calculer d'autres possibilités qui sont erronées. Ils appellent ça, de l'« overthinking » (surréflexion).
« Ces observations remettent en question les hypothèses dominantes sur les capacités des modèles de raisonnement et suggèrent que les approches actuelles peuvent se heurter à des obstacles fondamentaux à un raisonnement généralisable », concluent-ils.
Les modèles dits « de raisonnement » s’effondrent quand il faut raisonner sérieusement
-
Meilleurs que des docteurs, vraiment ?
-
Des casse-têtes pour mieux évaluer
-
Au-delà d'une certaine complexité, c'est l'effondrement
-
Les modèles de langage classiques meilleurs pour des problèmes simples
Commentaires (70)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 10/06/2025 à 08h54
Le 10/06/2025 à 09h01
Franchement, qui aurait pu prévoir que des modèles statistiques ne pouvaient pas raisonner, mais seulement "donner l'illusion" de raisonner ?
Le 10/06/2025 à 10h30
Je ne sais pas si on a contredit la théorie que le raisonnement humain est l'application d'un modèle statistique construit par apprentissage (enfance, école, ...)
Le 10/06/2025 à 12h44
Tu confonds apprentissage de régles, de théorème et/ou d'axiomes avec le raisonnement logique qui permet de les construire.
Le 10/06/2025 à 13h14
Le 10/06/2025 à 14h08
Le 10/06/2025 à 20h00
Si vous avez des liens vers des études, je suis preneur.
Le 10/06/2025 à 20h19
Que te faut-il te plus ?
Le 11/06/2025 à 08h15
Que le raisonnement mathématique n'est pas un raisonnement statistique ?
D'après ce que j'ai compris sur ce que TU as affirmé: nous, les humains, ne pouvons raisonner qu'à partir de théorèmes et/ou d'axiomes appris pendant notre scolarité. Heureusement que les PhD et la recherche fondamentale en générale ne s'arrête pas à cela pour démontrer quoi que ce soit.
Actuellement l'IA est incapable de construire un vrai raisonnement mathématique. Cela viendra peut être, mais pour l'instant ce n'est pas le cas.
Donc quand je vois les commerciaux "vendre" leur IA comme au même niveau qu'un PhD car ils ont fait des comparaisons sur un QCM
Modifié le 11/06/2025 à 11h54
=> c'est le raisonnement logique qui permet de construire le modèle des connaissances.
Et pas l'inverse.
Donc accroitre son modèle de connaissance (apprendre des choses) ne permettra pas de "mieux" raisonner.
Ca permettra de raisonner sur davantage de sujets, mais pas "mieux".
Pour raisonner "mieux", il faut un autre mécanisme que l'apprentissage (par ex le développement physiologique du cerveau)
C'est une théorie qui en vaut un autre. Mais c'est pas prouvé.
Le 11/06/2025 à 12h48
La problématique est bien souvent de trouver le chemin qui mène à la bonne démonstration.
Je ne comprends décidément pas de quoi tu parles. J'ai l'impression que tu es parti dans de la SF.
Modifié le 11/06/2025 à 13h50
En terme informatique on dirait que:
- Le raisonnement est une méthode (algo, règles)
- et la connaissance est un ensemble de données (faits)
Ce qui signifie qu'on doit hardcoder le raisonnement, alors que la connaissance est acquise (par l'observation) ou déduite (par le raisonnement). Bref du Prolog.
Selon cette vision, la connaissance ne peut pas modifier le raisonnement (qui est hardcodé).
La seule manière pour une IA d'évoluer serait qu'elle code une nouvelle IA from scratch.
Le 11/06/2025 à 15h52
Le 12/06/2025 à 09h07
Dire que le raisonnement peut "évoluer", c'est dire qu'il peut être altéré. Il pourrait alors dévier de son objectif primordial, ce qui contrevient à la théorie. En gros, on pourrait convaincre une IA de faire autre chose que ce pour quoi elle est prévue (*).
C'est "l'autre" théorie que j'exprimais dans mon 1er commentaire: le raisonnement est la mise en oeuvre de l'apprentissage. Donc on apprend à raisonner (bien ou mal), ce qui enrichi la connaissance (avec des déductions exactes/fausses) => une boucle de rétroaction systémique.
(*) A ne pas confondre avec "L'IA fait ce pour quoi elle est prévue, mais ce n'est pas ce qu'on espérait", façon Isaac Asimov.
Modifié le 11/06/2025 à 23h27
Mais le raisonnement humain n'est pas non plus sans limites. Pour les humains aussi, il y a un niveau de complexité au delà duquel nos performances "s'effondrent".
Si on pose volontairement comme critère qu'un modèle doit être Dieu pour pouvoir dire qu'il raisonne (capable de résoudre des problèmes de complexité illimitée), par construction on s’empêche de reconnaitre la valeur potentielle de modèles imparfaits.
Le 11/06/2025 à 18h31
Ça fait plaisir de lire ce genre de propos.
Le 12/06/2025 à 22h24
Un raisonnement logique n'est PAS un arbre de décisions basée sur des probabilités.
Ce n'est pas parcequ'une grande majorité des humains croient qu'ils "raisonnent" alors qu'effectivement ils ne font qu'avancer des hypothèses qui sont les plus "probables" que c'est le cas.
Modifié le 10/06/2025 à 09h49
J'ai quand même l'impression que beaucoup ici se complaisent dans les critiques surtout par crainte de perdre leur job (ou une partie), qu'à fonder les choses sur les cas d'usage réel. 😅
Modifié le 10/06/2025 à 09h40
Le 10/06/2025 à 09h50
Le 10/06/2025 à 17h11
Modifié le 10/06/2025 à 20h01
Les emplois proposés vont changer. Commencer déjà à taper sur ceux qui le craignent à raison et qui vont en souffrir en premier lieu est déjà injuste, alors même que c'est encore de l'anticipation…
Modifié le 10/06/2025 à 09h50
Modifié le 10/06/2025 à 09h52
Modifié le 10/06/2025 à 09h52
Modifié le 10/06/2025 à 09h55
Mais continue de t'enfermer dans l'image d'une personne dont tu ne sais rien, sinon qu'en tant qu'Humain, tu devrais savoir que tout en lui peut être nuance. 🙂
Modifié le 10/06/2025 à 09h57
Modifié le 10/06/2025 à 10h21
Ici le dogmatique, c'est vous, comme je ne vais pas dans votre sens, je suis forcément un connard qui n'a rien compris et qui se plante sur toute la ligne et qui vous emm*erde.
Ce que je constate surtout ici désormais, c'est qu'on ne peut rien dire de positif sur une IA sans être pris à parti !
Vous allez me dire que vous ne voyez pas le radicalisme, là ?
Le 10/06/2025 à 16h18
Votre toute première intervention était un jugement global, moqueur, et méprisant, assorti de smileys condescendants. Je n’ai rien attaqué : j’ai simplement répondu par une formule ironique à une sortie gratuite.
Vous parlez de nuance tout en posant des étiquettes, vous invoquez l’humanité tout en déformant systématiquement ce que j’écris.
Et non, je ne vous ai jamais traité de connard. C’est vous qui introduisez ce vocabulaire, seul, pour ensuite me le coller dessus. C’est maladroit.
Vous prétendez faire un “retour factuel”, mais chaque phrase que vous écrivez transpire le reproche et l’attaque détournée. Rien de ce que vous dites ne vise à comprendre, seulement à disqualifier.
Le débat n’est pas ce que vous supportez mal. C’est le désaccord.
Modifié le 10/06/2025 à 19h21
Nous avons une langue d'une richesse et d'une finesse exceptionnelle, dont je vous invite à tenir compte des nuances avant de réagir comme vous l'avez fait.
C'est trop facile de se dédouaner de vos réactions comme vous le faites.
Le 10/06/2025 à 19h26
Par ailleurs, c’est précisément parce que nous parlons la même langue que je relève vos procédés. Dire “les haters vont se régaler” ou “beaucoup ici” pour ensuite se réfugier derrière la sémantique, ce n’est pas faire preuve de finesse, c’est une tentative de réécriture de votre propre agressivité initiale.
Vous commencez par piquer, ensuite vous posez les règles du jeu. Et si ça répond, vous jouez la carte du malentendu lexical. C’est un mécanisme rhétorique classique, mais éculé.
À défaut de nuance, vous avez une belle maîtrise de l’esquive.
Le 10/06/2025 à 19h40
Mon message pointait un climat et faisait suite à de précédentes réactions au sein des espaces de commentaires lorsque l'IA était abordée. Si vous vous êtes senti visé, c’est peut-être que votre propre discours s’inscrit dans ce que je décrivais, mais ça, ce n’est pas de mon ressort.
Quant à mes smileys ou mon ironie, inutile de les hisser au rang de crime de lèse-débat. C’est une façon d’écrire, pas une attaque. Vous y voyez du mépris ? J’y vois surtout une lecture chargée d’interprétations.
Votre réaction est disproportionnée et vous vous empressez de redessiner la scène pour inverser les rôles. J’aurais “piqué”, donc tout est permis en retour ? Ce genre de justification ne vous grandit pas.
Je vous invite simplement à débattre sur le fond au lieu de distribuer des étiquettes et de vous poser en arbitre du bon ton. Le désaccord n’est pas un problème.
Ce qui fatigue, ce sont les procès en hérésie dès qu’on n’aligne pas sa pensée sur la vôtre.
Le 10/06/2025 à 20h34
Vous me dites que si je me suis senti visé, c’est peut-être que je me reconnais dans ce que vous dénonciez. J’aurais pu retourner exactement la même logique à votre réaction à mon retour. Mais à quoi bon ? Ce genre de joute tourne en rond.
Ce que je relève, ce n’est pas un désaccord. C’est une posture de départ qui disqualifie l’autre d’entrée de jeu. Ce que vous appelez “beaucoup” était déjà une généralisation implicite, un climat de soupçon lancé sans nuance.
Cela dit, je suis tout à fait prêt à discuter du fond, à condition qu’on le fasse à égalité : sans insinuations, sans condescendance, et sans rhétorique de retrait quand ça répond. On peut avoir des positions très différentes sans s’envoyer des pics — à condition de le vouloir.
La balle est dans votre camp.
Le 10/06/2025 à 21h25
Vous me reprochez d’avoir introduit le débat avec “ironique et suffisant”. Soit. Mais ce jugement est votre lecture, pas une vérité. Ce que vous interprétez comme de la suffisance était, pour moi, une forme d’exaspération vis-à-vis d’un climat récurrent de critiques stériles sur certains sujets. L’ironie, je l’assume, mais ce n’est pas un appel à la guerre.
Je n’ai ni nié le ton, ni esquivé la discussion. J’ai simplement refusé qu’on en fasse un prétexte pour disqualifier d’emblée ce que je disais. Car, justement, si le ton vous dérange, la première étape serait de le questionner plutôt que d’y projeter toute une série d’intentions et de réflexes rhétoriques supposés.
Sur votre second point : oui, vous auriez pu retourner la logique. Mais je ne me suis pas permis de vous prêter des intentions personnelles, de vous renvoyer à une soi-disant “idolâtrie inverse”, ni de décréter que vous fonctionnez par “projection”. Là est la différence. Je n’ai pas joué sur votre personne. Vous, si.
Quant à l’idée de “généralisation implicite”, j’en reviens à ce que je disais plus haut : on peut pointer un climat sans englober tout le monde. Vous jouez sur l’ambiguïté du terme “beaucoup” pour y lire ce que vous avez envie d’y voir. C’est votre droit, mais ça n’en fait pas une généralisation dans les faits.
Enfin, si vous voulez qu’on avance, je suis d’accord. Mais il faut aussi que vous acceptiez que tout ton ironique n’est pas un mépris, que tout désaccord n’est pas une attaque, et que votre sensibilité n’est pas un mètre-étalon du débat acceptable.
Je vous propose donc ceci : on laisse tomber les procès croisés sur les intentions supposées, et on parle des idées. Je suis tout à fait prêt à confronter les miennes aux vôtres. Mais pas à débattre sous surveillance.
Le 10/06/2025 à 10h23
Modifié le 10/06/2025 à 10h31
Certains dépassent rapidement le seuil de leur raisonnement émotionnel quand ils se sentent visés.
Je pourrais m'en foutre, mais c'est la première fois depuis que je suis sur le site (une paire d'années !) que j'observe des comportements toxiques dans l'espace de commentaire, n'étant pas bienveillants envers ceux n'ayant pas la même opinion qu'eux, bien au contraire.
Clairement, l'IA rebat des cartes et bouleversant les usages, divise plus que jamais au sein de la communauté, avec les conséquences que l'on peut voir, et je suis triste de voir à quel point certains peuvent sortir de leurs gonds parce qu'eux ont la vérité, et que celui qui ne pense pas comme lui, est forcément un c*n/stupide.
Le 10/06/2025 à 12h01
Le 10/06/2025 à 12h40
SInon, faut bien reconnaître que l'IA c'est surtout de la poudre aux yeux. J'ai (vraiment) pas peur pour mon job quand je vois ce qu'elle pond actuellement (je l'utilise pour écrire du code). Si on fait pas gaffe, elle a vite fait de réécrire des bouts de code que tu as patiemment écrits toi-même pour coller au mieux aux specs, et elle remplace ça par des bouses immondes parce qu'elle est pas au courant des contraintes du code existant. Tu corriges en remettant le bon code, tu pourrais croire qu'elle a compris qu'elle a fait une bourde, ben non, elle remet la connerie à l'itération suivante. Bref, toujours avoir deux éditeurs de texte ouverts: un avec l'IA qui propose le nouveau code, et l'autre avec le "vrai" code bien propre dans lequel on injecte les modifs à la main, et SURTOUT sur lequel toutes les extensions de complétion de code / Amazon Q / Copilot et autres ne sont pas installées... Ça marche, mais quelle usine à gaz...
Pareil en ce qui concerne les abstractions, ce qui colle plus avec le sujet de l'actu ("penser en profondeur"). Quand le lui demande (exemple vécu) de vérifier pour tous les handlers d'un API quelles autorisations ils vérifient (genre "quand l'utilisateur veut smurger une parnute, il faut que ladite parnute ait bien été conglomérée précédemment ou que l'utilisateur a le droit de conglomérer tacitement" ) ben oui ça marche quand le code est bien linéaire et inclus directement dans le code du handler, mais si le test est fait dans une abstraction appelée par une fonction utilitaire générique, ben il trouve pas. Or c'est justement dans ces cas là qu'on aimerait qu'il trouve, sinon un simple script awk ferait l'affaire...
Le 10/06/2025 à 09h31
Le 10/06/2025 à 11h21
Le 10/06/2025 à 12h47
La recherche fondamentale (celle dans laquelle travaillent les PhD) n'est pas le fait d'une seule personne comme semble le faire croire les commerciaux de l'IA, mais le fruit du travail d'équipes bien souvent disséminés partout dans le monde.
Le 10/06/2025 à 13h12
Le 10/06/2025 à 13h33
Le 10/06/2025 à 13h45
Par contre si tu fais travailler en équipe des modèles d'IA identique, tu vas simplement rajouter de l'incertitude aux 1ers resultats.
Un humain = un modèle IA
L'intérêt du travail en équipe chez l'humain c'est que tu vas utiliser des points de vue et des méthodes fondamentalement différentes.
Modifié le 10/06/2025 à 20h00
#SadButTrue
Le 10/06/2025 à 11h33
Le 10/06/2025 à 12h44
Le 10/06/2025 à 19h37
Le 11/06/2025 à 07h29
Mais il ne faut pas jetter le bébé avec l'eau du bain.
Même dans une entreprise libérée, il faut des personnes qui aient les compétences pour mener et pour l'aspect RH. Cela nécessite des qualité que bon nombre de techniciens ou ingénieurs n'ont pas.
Et pour former une bonne équipe qui fonctionne sans se mettre sur la geulle il faut pas mal de psychologie.
Le 10/06/2025 à 10h21
Le 10/06/2025 à 10h38
Le 10/06/2025 à 11h30
(si 100 personnes affirment qu'un verre est incassable, le fait qu'il n'y ait qu'une seule personne qui montre qu'il peut casser -en le faisant- ne diminue pas son affirmation du fait qu'ils étaient 100 au départ.)
Le 10/06/2025 à 11h37
Le 10/06/2025 à 12h46
Le 10/06/2025 à 10h44
Humain-like, en somme 🤣
Le 10/06/2025 à 11h05
Le 10/06/2025 à 12h27
Quand on voit ce que demande un petit kilogramme d'acier/aluminium ou bout de terre rare, ou un petit kilo de viande... j'espère que ceux qui taclent l'IA sur ce sujet, prendront conscience également que tout le reste de leur consommation fait plus que partie de l'équation... Et que c'est trop facile de taper uniquement sur l'arbre qui cache la forêt.
Parce que bon, dans la vraie vie, c'est mignon de mettre un mousseur sur un robinet, installer des toilettes sèches et des ampoules leds. Mais si on continue de se goinfrer de chocolat que plus personne ne considère comme un fruit exotique (alors que le cacao l'est !) et de bananes, par exemple, ou d'être exigeant et changer régulièrement de matériel, de faire produire sans cesse des pièces neuves de rechange pour une voiture, tous les efforts faits individuellement sont plus que ruinés.
Et je ne parle même pas des fringues synthétiques qui quand ils sont lavés, balancent des microplastiques à foison dans les eaux usées, intraitables, et retournent dans les cours d'eau et la mer... Ou les boues d'épurations hyper-concentrées en PCB qu'on propose aux agriculteurs d'épandre, contaminant les nappes pour des siècles et rendant les terres impropres à la culture. (On commence enfin à en entendre parler !)
Modifié le 10/06/2025 à 17h23
Le 10/06/2025 à 12h22
Les modèles de raisonnement sont jeunes par rapport aux LLM, donc rien de surprenant a ce qu'ils soient limités.
Une étude d'Apple qui est à la bourre dans le domaine et s'est fait démonter sur ce point. Desolé mais la partialité m'interroge.
Perso j'aime bien observer les modèles de raisonnement à l'œuvre. Plus que le résultat qui peut être moisi, ils répondent au côté boîte noire des LLM. Il est difficile de savoir comment le modèle a décidé de produire telle chaîne de caractères. Voir son raisonnement permet de comprendre le résultat et détecter ses failles.
Et n'oubliez pas, il a fallu des millions d'années à Deep Thoughts pour dire 42.
Modifié le 10/06/2025 à 13h14
Tout cela donne une image pas très sérieuse et surtout juste avide de levées de fonds.
Alors que s'ils avaient eux-mêmes clairement évoqué les limites de la choses, avant de pondre des appellations tapageuses, il y aurait moins de motifs pour les détracteurs (soyons franc: dont je fais partie) de se gausser grassement, et pour les fanboys de surprotéger leurs idoles en y perdant jusqu'à leur éducation.
Modifié le 10/06/2025 à 22h29
Le 10/06/2025 à 17h02
Le 10/06/2025 à 18h31
Le 11/06/2025 à 16h01
Le jeu des tours de Hanoï était dispo sur les Micral qu'on avait au lycée !
https://fr.wikipedia.org/wiki/Micral
J'ai passé un sacré bout de temps à programmer ce jeu sur mes spectrum, MO5, TO7, Amstrad, etc...
J'ai aussi lamentablement échoué à programmer une résolution auto.
J'ai du atteindre mes propres limites de raisonnement en matière de dev.
Sinon, je viens de faire le jeu en 36 movements.
Pas en core au stade où j'aurai une récompense !
Le 10/06/2025 à 19h07
Le 10/06/2025 à 21h35
Le 10/06/2025 à 22h17
Le 11/06/2025 à 07h31
Le 12/06/2025 à 16h10
https://geeko.lesoir.be/2025/06/12/pourquoi-chatgpt-sest-fait-battre-aux-echecs-par-une-machine-des-annees-70/
Le 16/06/2025 à 10h49