Connexion
Abonnez-vous

Mistral lance ses deux premiers modèles de raisonnement

Le 11 juin à 10h55

L’entreprise française a lancé hier ses deux premiers modèles de raisonnement. Nommés Magistral Small et Magistral Medium, ils ont été copieusement comparés au modèle chinois DeepSeek R1. Rappelons que les modèles dits de « raisonnement » décomposent les problèmes en étapes successives dont les résultats sont contrôlés. La précision est donc supérieure, au prix d’un traitement plus long et d’une consommation plus importante.

Le premier, Magistral Small, est un modèle open source de 24 milliards de paramètres. Il est déjà téléchargeable sur Hugging Face, sous licence Apache 2.0. Medium, quant à lui, est la nouvelle star de l’entreprise. Il n’est pour l’instant disponible que sous forme de préversion à travers l’API officielle et Le Chat.

Magistral Medium vise surtout les entreprises. Il a été entrainé spécifiquement, selon Mistral, pour les tâches en lien avec les lois, la finance et l’ingénierie. Magistral Medium dispose d’un vaste support multilingue, prenant en charge l’anglais, le français, l’espagnol, l’allemand, l’italien, l’arabe, le russe et le chinois simplifié. Medium propose également un mode « Flash Answers », capable de répondre 10 fois plus vite, au prix bien sûr de la précision. Le modèle sera prochainement disponible sur Amazon SageMaker, IBM WatsonX, Azure AI et Google Cloud Marketplace.

« S'appuyant sur nos modèles phares, Magistral est conçu pour la recherche, la planification stratégique, l'optimisation opérationnelle et la prise de décision fondée sur des données - qu'il s'agisse d'évaluer les risques et de modéliser avec de multiples facteurs ou de calculer les fenêtres de livraison optimales en fonction des contraintes », explique Mistral.

Ces deux nouveaux modèles ne semblent pas briller par des performances supérieures à la concurrence. Dans ses graphiques, Magistral fait dans les grandes lignes jeu égal avec DeepSeek R1. Cependant, d’après les propres scores donnés par Mistral, Magistral Medium fait moins bien que Gemini 2.5 Pro et le récent Claude Opus 4.

Le 11 juin à 10h55

Commentaires (19)

votre avatar
Dispo aussi sur Ollama si vous voulez vous amuser avec.

Je l'ai essayé un peu sur Le Chat, il semble pas trop mal.
votre avatar
Je lui ai posé la question "Qui est le maire du Havre?"
Il est parti dans une boucle de réflexion pendant 11min30. :D
votre avatar
Où est le raisonnement pour répondre à ta question ?

Google sait répondre sans aucun raisonnement à cette question.
votre avatar
Où est le raisonnement pour répondre à ta question ?
Toi, tu n'as jamais vu un utilisateur lambda d'aujourd'hui :D
(toutes les requêtes dans ChatGPT ou équivalent, même des questions ultra simples pour lesquelles tu as des vraies données en ligne accessibles facilement, genre wikipedia)
votre avatar
Moi, je sais répondre à cette question sans chercher sur Internet. Ce n'est pas vrai pour toutes les communes (y compris pour la mienne :D, il faut dire que je n'y habitais pas aux dernières élections)
votre avatar
C'était juste pour voir comment se comporte le LLM avec une question simple en mode raisonnement, et j'ai ma réponse : mal :D

PS : je connais le nom du maire de ma ville.
votre avatar
Utiliser un LLM pour ça n'a aucun sens.

Un modèle de raisonnement encore moins.
votre avatar
Il est peut-être là le raisonnement : Il attribue un nom avec des images mais comme notre maire change d'apparence, il ne sait plus où donner de la tête (sans vilain jeu de mot) :D
votre avatar
Est-ce qu'ils ont les même limites que celles décrites dans cet article.
Si oui, ils ne font pas du raisonnement et il ne faut donc pas utiliser ce terme pour en parler, même si ces sociétés veulent nous faire croire qu'ils raisonnent.
Si non, ça serait bien de le dire.
votre avatar
Pour faire simple, le modèle se pose trouze mille questions pendant la phase de réflexion en découpant le problème, puis produit son résultat basé sur les hypothèses et assertions qu'il a formulé.
votre avatar
Ça ne répond pas à ma question ! :langue:
votre avatar
Bah j'ai pas les capacités de faire faire douze millions de tests que je ne maîtrise pas moi-même :p

Ma réponse était plus là pour dire comment ces modèles travaillent versus les LLM classiques. Il y a une différence que je trouve intéressante.

Pour moi, il n'y a rien de mieux que l'expérimentation. Les études qui ne représentent rien et se contredisent, les benchmark qui ne veulent rien dire, et le bullshit d'Altman, c'est que du bruit.
votre avatar
Il ne s'agit pas de "raisonnement" mais de montrer le chemin probabilistique qui a été utilisé pour arriver à la réponse.

Il n'y a absolument aucune méthode de raisonnement logique qui est utilisée. On reste entièrement sur du calcul probabilistique


Après il s'agit d'un discours marketing créé par des personnes qui ne comprennent pas un traitre mot du vocabulaire scientifique et de ce que cela représente.
Mais vu que cela s'adresse à une population qui va finir par aller uniquement sur les IA pour trouver des réponses à leurs questions, tout va bien.

Idiocracy ne sera plus un film mais un documentaire.
Les scientifiques qui remettront en cause les débilités sorties par les IA seront mis à mort sur les réseaux sociaux parcequ'ils mentent. Seul l'IA aura raison parceque c'est un être surnaturel qui ne peut pas se tromper.
votre avatar
Les scientifiques qui remettront en cause les débilités sorties par les IA seront mis à mort sur les réseaux sociaux parcequ'ils mentent. Seul l'IA aura raison parceque c'est un être surnaturel qui ne peut pas se tromper.
C'est malheureusement déjà le cas. Un IA (Idiot Abrutissant) est parti en guerre contre les scientifiques outre atlantique... :craint:
votre avatar
C'est le terme qui est couramment utilisé pour parler d'un LLM utilisant la méthode du "chain of thought" ("chaîne de pensées" ).


Chain-of-Thought Prompting Elicits Reasoning in Large Language Models Jason Wei, et al
We explore how generating a chain of thought -- a series of intermediate reasoning steps -- significantly improves the ability of large language models to perform complex reasoning.
votre avatar
Il y a quelques semaines, il y a eu Devstral, pour aider à développer.
Mais là aussi, qui des performances.
votre avatar
Bon en gros, tout le monde sort sont modèle de résonnement. C'est parti pour un nouveau tour marketing.

Au moins si l'IA a mis quelque chose en évidence c'est :
* Qu'elle n'est pas vraiment au top pour les performance déployé.
* Que ces modèles qui résonnent font plus chambre d'écho que de véritables penseur (résonne, écho, haha).
* Que c'est l'occasion de pour certains investisseurs de faire des coups (ou de laver du pognon) en mode soufflet et brioche.

Au moins l'exigence du résonnement permettra de voir la supercherie assez rapidement. Croisons les doigts mes frères.


Pour ceux que cela intéresse; la question n'est pas toute neuve. Pour faire une machine qui pense (comme on le suppose dans un tas de sagas de SF) il faut au moins connaître les composantes de l'esprit humain qui permettent la cognition.

On peut en dégager 3 principales (je vais grassement vulgariser pour être accessible, hein).
* Mémoriser : Dupliquer et/ou retranscrire une information déjà stockée. Avoir vu un ballon et dire qu'on a vu un ballon pour faire simple.
* Imaginer : Vaste contrée. Cela va de faire n'importe quoi, à rêver, ou trouver de nouvelles solutions à des problèmes.
* Conceptualiser : Transformer un signal pour en faire une entité utilisable dans une logique (algo ou pas). Nous avons un bout déjà. Comme de reconnaitre une pomme ou retranscrire texte venu d'un son. Mais la conceptualisation ne se limite vraiment pas à cela. Ex: Comprendre qu'on ne met pas mettre du gasoil dans un moteur essence et d'en faire une règle comportementale.

Je vous propose donc de faire l'exercice de sonder ces 3 thèmes et de chercher comment la science procèderait pour sonder. Pour un scientifique, il faut des faits et qu'ils soit mesurables. Et bien évidement travailler "à charge" pour éprouver la robustesse des théories.

Vous verrez, c'est vraiment bourré de problèmes.

NB: Un piège est de confondre "la créativité" et "l'imagination" (au sens pur et codable) dans la littérature de nos amis les "psychos" .

Bonne nuit.
votre avatar
Bon en gros, tout le monde sort sont modèle de résonnement. C'est parti pour un nouveau tour marketing.

Bonne nuit.
ça s'écrit raisonnement en plus c'est écrit dans l'article, ça résonne je le vois plusieurs fois dans ton message
votre avatar
Jeu de mots... ... nan... bon bref... je sors... :)

mais +1 pour la lecture assidue... ou acidulé ?

Mistral lance ses deux premiers modèles de raisonnement

Fermer