Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles
Small si beautiful
Après le lancement de nouvelles versions majeures chez pratiquement tous les acteurs de l’IA générative, Mistral dégaine sa famille de modèles ouverts Mistral 3. Bien que celle-ci comprenne un modèle multimodal, ce sont surtout les plus petits qui sont mis en avant.
Le 03 décembre à 13h58
5 min
IA et algorithmes
IA
L’entreprise française n’en démord pas : lancer des modèles géants n’est pas nécessairement ce qu’il y a de mieux pour les entreprises. Elle reste centrée sur sa stratégie de publication de modèles à poids ouvert, dans l’idée que le monde professionnel va s’en emparer, les personnaliser, les distiller ou les entrainer sur ses propres données.
Mistral veut régner sur les modèles ouverts
Dans l’annonce, on remarque tout de suite que les comparaisons se font uniquement avec d’autres modèles ouverts, comme DeepSeek (en version 3.1 ou 3.2 selon les cas, étrangement) ou Kimi-K2. Sans trop de surprises dans le cadre de ce type d’annonce, les modèles Mistral 3 arrivent premiers dans la plupart des benchmarks, toujours à prendre avec des pincettes.
L’entreprise donne quelques informations supplémentaires sur son grand modèle Large 3. Par exemple, qu’il a été entrainé depuis zéro sur une infrastructure comprenant 3 000 GPU H200 de NVIDIA. Il s’agit également du premier modèle de type MoE (mixture-of-experts) de Mistral depuis sa série Mixtral en 2023. Dans une version proposée au format NVFP4 (construite avec llm-compressor), Mistral affirme que son modèle peut fonctionner « efficacement » sur un nœud comportant huit puces A100 ou H100.

Cette approche permet pour rappel de dispatcher les requêtes vers des réseaux plus spécialisés du type de calcul lors de l’évaluation. Le principal avantage est une réduction de la consommation, le modèle n’activant qu’une partie des neurones pour traiter la demande (41 milliards de paramètres actifs sur 675 milliards au total). C’est le modèle présenté comme idéal pour les opérations lourdes, comme le développement et la création de contenus.
Mistral revendique la deuxième place sur LMArena pour son Large 3 dans la catégorie des modèles ouverts sans capacités de raisonnement, mais nous ne retrouvons pas les mêmes chiffres. Sur les modèles disposant d'une licence Apache 2.0, c'est bien le cas, mais la société ne semble pas tenir compte de la licence MIT, pourtant open source elle aussi. Dans le tableau général, Large 3 se classe 28e, tous modèles confondus.
Mistral ajoute en outre que le développement de la nouvelle famille s’est fait en partenariat avec NVIDIA, aboutissant notamment à une « inférence efficace » pour TensorRT-LLM et SGLang.
La « petite » famille
Bien que Mistral aborde ses nouveautés du jour avec le modèle Large, ce sont surtout les petits modèles que la société met en avant. La série Ministral 3 comprend ainsi des variantes à 3, 8 et 14 milliards de paramètres, conçues pour l’informatique en périphérie (edge) et le fonctionnement local, toujours sous licence Apache 2.0. Tous ces modèles ont également des variantes de raisonnement, la version 14B atteignant par exemple 85 % sur le test AIME 25. Cette version, la plus volumineuse des trois, peut fonctionner sur une machine embarquant 24 Go de mémoire et un seul GPU.
Mistral semble particulièrement fière de ses petits modèles, assurant qu’ils offrent « le meilleur rapport coût/performance de tous les modèles open source » actuellement. Les versions classiques (sans raisonnement) sont au niveau ou dépassent les modèles concurrents, selon l’entreprise, tout en consommant « souvent » moins de jetons.

En tout, cette famille comprend trois modèles, les trois tailles étant disponibles dans des variantes Base (modèles de fondation pré-entrainés), Instruct (conçus surtout pour les chatbots) et Reasoning. Tous prennent en charge la vision, sont multilingues et fonctionnent avec des fenêtres allant de 128 000 à 256 000 jetons.
Guillaume Lample, fondateur de Mistral, a mis en avant la vision de l’entreprise auprès de plusieurs médias, dont TechCrunch et le Financial Times : « Nos clients sont parfois contents de débuter avec un très grand modèle de langage qu’ils n’ont pas besoin de peaufiner. Mais quand ils le déploient, ils réalisent que c’est cher et lent. Ils viennent alors nous voir pour affiner de petits modèles, afin de gérer leurs cas d’usage. Dans la pratique, la grande majorité des cas d’usage d’entreprises sont des choses que les petits modèles peuvent résoudre, surtout si vous les affinez ».
Comme le rappellent d’ailleurs nos confrères, cette orientation marquée vers les petits modèles capables de fonctionner localement rapproche l’entreprise de « l’IA physique ». Elle travaille par exemple avec Stellantis sur un assistant IA embarqué, avec la société allemande de défense Helsing sur des modèles vision-langage-action pour des drones, ou encore très récemment avec la Home Team Science and Technology Agency (HTX) de Singapour sur des modèles spécialisés pour robots.
Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles
-
Mistral veut régner sur les modèles ouverts
-
La « petite » famille
Commentaires (27)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 03/12/2025 à 15h08
C'est dommage d'avoir choisi le mauvais partenaire, car en ce moment, pas mal de leurs voitures ne roulent pas. A la limite, ça fera sourire les employés des concessions.
Le 03/12/2025 à 15h48
Le 03/12/2025 à 16h11
Parce que les trompettes annonçaient un outil révolutionnaire, l'efficacité est jugée expéditive…
Le 03/12/2025 à 16h48
Modifié le 03/12/2025 à 16h57
Il faut vraiment que je trouve le temps de tester.
Le 03/12/2025 à 23h10
Aux dernières nouvelles LeChat en version grand public accessible sans compte n'arrive toujours pas à me sortir la liste des pays de l'UE dont le nom français contient la lettre E.
Donc bon question intelligence on repassera, hein. ^^
Le 04/12/2025 à 10h08
Modifié le 04/12/2025 à 10h38
à noter que j'ai posé la même question à Lumo, le chatbot de Proton, et il s'est aussi planté, sauf que quand je lui ai fait la remarque (sans lui donner d'indice), il s'est correctement corrigé du 1er coup, alors que LeChat pédalait dans la semoule jusqu'à ce que je ne puisse plus continuer sans créer un compte. Des potes ont essayé avec Claude, même soupe.
Le 04/12/2025 à 11h11
Le 04/12/2025 à 12h27
Mais, comme tu connais bien les IA génératives, tu acceptes leurs erreurs.
Le 04/12/2025 à 14h23
Le 04/12/2025 à 14h32
et pour ce qui est de challenger les résultats, je l'ai fait dans la limite de mes moyens (pas de compte). je vais pas non plus lui donner la réponse. donc au bout de 10 fois en lui disant que c'est faux et qu'il doit vérifier, et qu'il me répond qu'il relit les noms des pays "lettre par lettre" et que "là c'est bon c'est la bonne réponse", je rigole plus fort. Autant de la connerie que des mensonges éhontés qu'il me sort en prétendant relire "lettre par lettre" alors qu'il me génère juste une liste au pif en espérant que ça soit la bonne réponse. ^^
Le 04/12/2025 à 12h13
donne moi la liste des pays de l'UE dont le nom français contient la lettre E.
->
Voici les 25 pays de l'UE dont le nom français contient la lettre "E" :
Allemagne, Autriche, Belgique, Bulgarie, Chypre, Croatie, Danemark, Espagne, Estonie, Finlande, France, Grèce, Hongrie, Irlande, Italie, Lettonie, Lituanie, Luxembourg, Malte, Pologne, République tchèque, Roumanie, Slovaquie, Slovénie, Suède.
Seuls 2 pays de l'UE n'en contiennent pas : Pays-Bas et Portugal.
Le 04/12/2025 à 14h23
Le 04/12/2025 à 15h40
Le 04/12/2025 à 10h37
Qu'y font les Pays-Bas et le Portugal ?
Et il manque l'Italie, ce qui est plus difficile à détecter puisqu'il faut comparer avec une liste de tous les pays.
Le 04/12/2025 à 10h41
Mais visiblement ça comptait pour France, Pologne, Lituanie...
bref ces trucs sont prêtes à sortir n'importe quoi pour avoir l'air d'avoir raison.
Modifié le 04/12/2025 à 13h07
https://chat.mistral.ai/chat/015f4d27-d81b-41f9-9d3b-b76d0d85845f
Bon bah j'ai rien prouvé, Mistral s'est bien planté, je me suis couvert de honte et tes dents sont sauvées
C'est tout pourri les IA, ça marchera jamais
Edit: Mistral s'est fait un copain :
Edit2: Mistral s'est fait deux copains :
Le 04/12/2025 à 14h36
Le 04/12/2025 à 15h23
Modifié le 04/12/2025 à 17h50
Qu'au final un LLM sache très bien lire ou générer les suites de tokens, mais qu'il a plus de mal à travailler à cette échelle.
Le 04/12/2025 à 14h50
Mistral galère j'ai réussi en activant la réflexion et en 2 essais, par contre il est à la ramasse complet sur la position des lettres dans le mot :
https://chat.mistral.ai/chat/29e985b4-8d9e-4cf6-913a-680e7745c19c
En effet ils ont toujours galéré là dessus, voir le Strawberry test...
Le 04/12/2025 à 15h22
Ou bien c'est moi qui n'ai jamais écrit Luxembourg comme il faut.
Le 03/12/2025 à 23h30
Le 04/12/2025 à 08h06
Le 04/12/2025 à 08h44
Le 04/12/2025 à 12h13
Il faudrait donc au minimum une RTX 3090 pour faire tourner le modèle 14B en local, pas très accessible.
J'ai tenté de faire tourner un peu Llama sur mon GPU AMD 9070XT, mais c'est pas folichon.
Et si on veux "fine tuner" un modèle pour qu'il puisse faire des trucs spécialisés sans avoir besoin d'un gros GPU, il faut une grosse puissance de calcul beaucoup de donnée et du temps, on en reviens au même problème.
On est encore loin de pouvoir faire des trucs sympa en local sans y investir un budget conséquent.
Mais bon, j'ai juste testé vite fait sans y passer trop de temps, je me trompe peut-être.
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?