Mistral lance ses deux premiers modèles de raisonnement
Le 11 juin à 10h55
2 min
IA et algorithmes
IA
L’entreprise française a lancé hier ses deux premiers modèles de raisonnement. Nommés Magistral Small et Magistral Medium, ils ont été copieusement comparés au modèle chinois DeepSeek R1. Rappelons que les modèles dits de « raisonnement » décomposent les problèmes en étapes successives dont les résultats sont contrôlés. La précision est donc supérieure, au prix d’un traitement plus long et d’une consommation plus importante.
Le premier, Magistral Small, est un modèle open source de 24 milliards de paramètres. Il est déjà téléchargeable sur Hugging Face, sous licence Apache 2.0. Medium, quant à lui, est la nouvelle star de l’entreprise. Il n’est pour l’instant disponible que sous forme de préversion à travers l’API officielle et Le Chat.
Magistral Medium vise surtout les entreprises. Il a été entrainé spécifiquement, selon Mistral, pour les tâches en lien avec les lois, la finance et l’ingénierie. Magistral Medium dispose d’un vaste support multilingue, prenant en charge l’anglais, le français, l’espagnol, l’allemand, l’italien, l’arabe, le russe et le chinois simplifié. Medium propose également un mode « Flash Answers », capable de répondre 10 fois plus vite, au prix bien sûr de la précision. Le modèle sera prochainement disponible sur Amazon SageMaker, IBM WatsonX, Azure AI et Google Cloud Marketplace.
« S'appuyant sur nos modèles phares, Magistral est conçu pour la recherche, la planification stratégique, l'optimisation opérationnelle et la prise de décision fondée sur des données - qu'il s'agisse d'évaluer les risques et de modéliser avec de multiples facteurs ou de calculer les fenêtres de livraison optimales en fonction des contraintes », explique Mistral.
Ces deux nouveaux modèles ne semblent pas briller par des performances supérieures à la concurrence. Dans ses graphiques, Magistral fait dans les grandes lignes jeu égal avec DeepSeek R1. Cependant, d’après les propres scores donnés par Mistral, Magistral Medium fait moins bien que Gemini 2.5 Pro et le récent Claude Opus 4.
Le 11 juin à 10h55
Commentaires (19)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 11/06/2025 à 10h58
Je l'ai essayé un peu sur Le Chat, il semble pas trop mal.
Le 11/06/2025 à 11h27
Il est parti dans une boucle de réflexion pendant 11min30.
Le 11/06/2025 à 11h39
Google sait répondre sans aucun raisonnement à cette question.
Le 11/06/2025 à 11h44
(toutes les requêtes dans ChatGPT ou équivalent, même des questions ultra simples pour lesquelles tu as des vraies données en ligne accessibles facilement, genre wikipedia)
Le 11/06/2025 à 11h52
Le 11/06/2025 à 13h54
PS : je connais le nom du maire de ma ville.
Le 11/06/2025 à 12h22
Un modèle de raisonnement encore moins.
Le 12/06/2025 à 15h55
Le 11/06/2025 à 11h26
Si oui, ils ne font pas du raisonnement et il ne faut donc pas utiliser ce terme pour en parler, même si ces sociétés veulent nous faire croire qu'ils raisonnent.
Si non, ça serait bien de le dire.
Modifié le 11/06/2025 à 12h26
Le 11/06/2025 à 12h36
Modifié le 11/06/2025 à 13h32
Ma réponse était plus là pour dire comment ces modèles travaillent versus les LLM classiques. Il y a une différence que je trouve intéressante.
Pour moi, il n'y a rien de mieux que l'expérimentation. Les études qui ne représentent rien et se contredisent, les benchmark qui ne veulent rien dire, et le bullshit d'Altman, c'est que du bruit.
Le 11/06/2025 à 13h00
Il n'y a absolument aucune méthode de raisonnement logique qui est utilisée. On reste entièrement sur du calcul probabilistique
Après il s'agit d'un discours marketing créé par des personnes qui ne comprennent pas un traitre mot du vocabulaire scientifique et de ce que cela représente.
Mais vu que cela s'adresse à une population qui va finir par aller uniquement sur les IA pour trouver des réponses à leurs questions, tout va bien.
Idiocracy ne sera plus un film mais un documentaire.
Les scientifiques qui remettront en cause les débilités sorties par les IA seront mis à mort sur les réseaux sociaux parcequ'ils mentent. Seul l'IA aura raison parceque c'est un être surnaturel qui ne peut pas se tromper.
Le 11/06/2025 à 13h09
Modifié le 11/06/2025 à 16h41
Chain-of-Thought Prompting Elicits Reasoning in Large Language Models Jason Wei, et al
Le 11/06/2025 à 13h10
Mais là aussi, qui des performances.
Le 11/06/2025 à 22h12
Au moins si l'IA a mis quelque chose en évidence c'est :
* Qu'elle n'est pas vraiment au top pour les performance déployé.
* Que ces modèles qui résonnent font plus chambre d'écho que de véritables penseur (résonne, écho, haha).
* Que c'est l'occasion de pour certains investisseurs de faire des coups (ou de laver du pognon) en mode soufflet et brioche.
Au moins l'exigence du résonnement permettra de voir la supercherie assez rapidement. Croisons les doigts mes frères.
Pour ceux que cela intéresse; la question n'est pas toute neuve. Pour faire une machine qui pense (comme on le suppose dans un tas de sagas de SF) il faut au moins connaître les composantes de l'esprit humain qui permettent la cognition.
On peut en dégager 3 principales (je vais grassement vulgariser pour être accessible, hein).
* Mémoriser : Dupliquer et/ou retranscrire une information déjà stockée. Avoir vu un ballon et dire qu'on a vu un ballon pour faire simple.
* Imaginer : Vaste contrée. Cela va de faire n'importe quoi, à rêver, ou trouver de nouvelles solutions à des problèmes.
* Conceptualiser : Transformer un signal pour en faire une entité utilisable dans une logique (algo ou pas). Nous avons un bout déjà. Comme de reconnaitre une pomme ou retranscrire texte venu d'un son. Mais la conceptualisation ne se limite vraiment pas à cela. Ex: Comprendre qu'on ne met pas mettre du gasoil dans un moteur essence et d'en faire une règle comportementale.
Je vous propose donc de faire l'exercice de sonder ces 3 thèmes et de chercher comment la science procèderait pour sonder. Pour un scientifique, il faut des faits et qu'ils soit mesurables. Et bien évidement travailler "à charge" pour éprouver la robustesse des théories.
Vous verrez, c'est vraiment bourré de problèmes.
NB: Un piège est de confondre "la créativité" et "l'imagination" (au sens pur et codable) dans la littérature de nos amis les "psychos" .
Bonne nuit.
Modifié le 13/06/2025 à 10h02
Bonne nuit.
ça s'écrit raisonnement en plus c'est écrit dans l'article, ça résonne je le vois plusieurs fois dans ton message
Le 13/06/2025 à 14h16
mais +1 pour la lecture assidue... ou acidulé ?