Connexion Abonnez-vous

Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles

Small si beautiful

Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles

Après le lancement de nouvelles versions majeures chez pratiquement tous les acteurs de l’IA générative, Mistral dégaine sa famille de modèles ouverts Mistral 3. Bien que celle-ci comprenne un modèle multimodal, ce sont surtout les plus petits qui sont mis en avant.

Le 03 décembre à 13h58

L’entreprise française n’en démord pas : lancer des modèles géants n’est pas nécessairement ce qu’il y a de mieux pour les entreprises. Elle reste centrée sur sa stratégie de publication de modèles à poids ouvert, dans l’idée que le monde professionnel va s’en emparer, les personnaliser, les distiller ou les entrainer sur ses propres données.

Mistral veut régner sur les modèles ouverts

Dans l’annonce, on remarque tout de suite que les comparaisons se font uniquement avec d’autres modèles ouverts, comme DeepSeek (en version 3.1 ou 3.2 selon les cas, étrangement) ou Kimi-K2. Sans trop de surprises dans le cadre de ce type d’annonce, les modèles Mistral 3 arrivent premiers dans la plupart des benchmarks, toujours à prendre avec des pincettes.

L’entreprise donne quelques informations supplémentaires sur son grand modèle Large 3. Par exemple, qu’il a été entrainé depuis zéro sur une infrastructure comprenant 3 000 GPU H200 de NVIDIA. Il s’agit également du premier modèle de type MoE (mixture-of-experts) de Mistral depuis sa série Mixtral en 2023. Dans une version proposée au format NVFP4 (construite avec llm-compressor), Mistral affirme que son modèle peut fonctionner « efficacement » sur un nœud comportant huit puces A100 ou H100.

Cette approche permet pour rappel de dispatcher les requêtes vers des réseaux plus spécialisés du type de calcul lors de l’évaluation. Le principal avantage est une réduction de la consommation, le modèle n’activant qu’une partie des neurones pour traiter la demande (41 milliards de paramètres actifs sur 675 milliards au total). C’est le modèle présenté comme idéal pour les opérations lourdes, comme le développement et la création de contenus.

Mistral revendique la deuxième place sur LMArena pour son Large 3 dans la catégorie des modèles ouverts sans capacités de raisonnement, mais nous ne retrouvons pas les mêmes chiffres. Sur les modèles disposant d'une licence Apache 2.0, c'est bien le cas, mais la société ne semble pas tenir compte de la licence MIT, pourtant open source elle aussi. Dans le tableau général, Large 3 se classe 28e, tous modèles confondus.

Mistral ajoute en outre que le développement de la nouvelle famille s’est fait en partenariat avec NVIDIA, aboutissant notamment à une « inférence efficace » pour TensorRT-LLM et SGLang.

La « petite » famille

Bien que Mistral aborde ses nouveautés du jour avec le modèle Large, ce sont surtout les petits modèles que la société met en avant. La série Ministral 3 comprend ainsi des variantes à 3, 8 et 14 milliards de paramètres, conçues pour l’informatique en périphérie (edge) et le fonctionnement local, toujours sous licence Apache 2.0. Tous ces modèles ont également des variantes de raisonnement, la version 14B atteignant par exemple 85 % sur le test AIME 25. Cette version, la plus volumineuse des trois, peut fonctionner sur une machine embarquant 24 Go de mémoire et un seul GPU.

Mistral semble particulièrement fière de ses petits modèles, assurant qu’ils offrent « le meilleur rapport coût/performance de tous les modèles open source » actuellement. Les versions classiques (sans raisonnement) sont au niveau ou dépassent les modèles concurrents, selon l’entreprise, tout en consommant « souvent » moins de jetons.

En tout, cette famille comprend trois modèles, les trois tailles étant disponibles dans des variantes Base (modèles de fondation pré-entrainés), Instruct (conçus surtout pour les chatbots) et Reasoning. Tous prennent en charge la vision, sont multilingues et fonctionnent avec des fenêtres allant de 128 000 à 256 000 jetons.

Guillaume Lample, fondateur de Mistral, a mis en avant la vision de l’entreprise auprès de plusieurs médias, dont TechCrunch et le Financial Times : « Nos clients sont parfois contents de débuter avec un très grand modèle de langage qu’ils n’ont pas besoin de peaufiner. Mais quand ils le déploient, ils réalisent que c’est cher et lent. Ils viennent alors nous voir pour affiner de petits modèles, afin de gérer leurs cas d’usage. Dans la pratique, la grande majorité des cas d’usage d’entreprises sont des choses que les petits modèles peuvent résoudre, surtout si vous les affinez ».

Comme le rappellent d’ailleurs nos confrères, cette orientation marquée vers les petits modèles capables de fonctionner localement rapproche l’entreprise de « l’IA physique ». Elle travaille par exemple avec Stellantis sur un assistant IA embarqué, avec la société allemande de défense Helsing sur des modèles vision-langage-action pour des drones, ou encore très récemment avec la Home Team Science and Technology Agency (HTX) de Singapour sur des modèles spécialisés pour robots.

Commentaires (27)

votre avatar
Elle travaille par exemple avec Stellantis sur un assistant IA embarqué

C'est dommage d'avoir choisi le mauvais partenaire, car en ce moment, pas mal de leurs voitures ne roulent pas. A la limite, ça fera sourire les employés des concessions.
votre avatar
C'est dommage d'avoir choisi le mauvais partenaire, car en ce moment, pas mal de leurs voitures ne roulent pas.
Au moins, tu pourras t'occuper en dialoguant avec ton IA embarquée pendant que tu attendras la dépanneuse :D
votre avatar
Ca a servi de brique pour le logiciel audio de détection des pannes moteurs?
Parce que les trompettes annonçaient un outil révolutionnaire, l'efficacité est jugée expéditive…
votre avatar
Ça ne vaut pas Ch@t_VDB !
votre avatar
Le petits modèles sont clairement intéressants je trouve.
Il faut vraiment que je trouve le temps de tester.
votre avatar
C'est marrant ces LLM.
Aux dernières nouvelles LeChat en version grand public accessible sans compte n'arrive toujours pas à me sortir la liste des pays de l'UE dont le nom français contient la lettre E.
Donc bon question intelligence on repassera, hein. ^^
votre avatar
Il n'arrive pas à sortir ça ? (j'ai pas vérifié la liste en détails, mais à première vue elle me semble OK)
votre avatar
Les fameux "e" dans "Pays-Bas" et "Portugal"? :non:

à noter que j'ai posé la même question à Lumo, le chatbot de Proton, et il s'est aussi planté, sauf que quand je lui ai fait la remarque (sans lui donner d'indice), il s'est correctement corrigé du 1er coup, alors que LeChat pédalait dans la semoule jusqu'à ce que je ne puisse plus continuer sans créer un compte. Des potes ont essayé avec Claude, même soupe.
votre avatar
Tu as dit qu'il n'arrive pas à sortir la liste, il l'a fait. Elle a des erreurs cependant (comme je l'ai indiqué, je ne l'ai pas vérifiée dans le détail), c'est plutôt ça qu'il aurait fallu indiquer, non ?
votre avatar
Il a sorti une liste, pas la liste.

Mais, comme tu connais bien les IA génératives, tu acceptes leurs erreurs.
votre avatar
Je ne dirais pas que j'accepte leurs erreurs, plutôt que je suis conscient de leurs imperfections et sais challenger leurs résultats.
votre avatar
Ah mais j'en suis conscient aussi, ça me fait juste marrer.
et pour ce qui est de challenger les résultats, je l'ai fait dans la limite de mes moyens (pas de compte). je vais pas non plus lui donner la réponse. donc au bout de 10 fois en lui disant que c'est faux et qu'il doit vérifier, et qu'il me répond qu'il relit les noms des pays "lettre par lettre" et que "là c'est bon c'est la bonne réponse", je rigole plus fort. Autant de la connerie que des mensonges éhontés qu'il me sort en prétendant relire "lettre par lettre" alors qu'il me génère juste une liste au pif en espérant que ça soit la bonne réponse. ^^
votre avatar
Des potes ont essayé avec Claude, même soupe.
Voilà la réponse de Claudio :
donne moi la liste des pays de l'UE dont le nom français contient la lettre E.
->
Voici les 25 pays de l'UE dont le nom français contient la lettre "E" :
Allemagne, Autriche, Belgique, Bulgarie, Chypre, Croatie, Danemark, Espagne, Estonie, Finlande, France, Grèce, Hongrie, Irlande, Italie, Lettonie, Lituanie, Luxembourg, Malte, Pologne, République tchèque, Roumanie, Slovaquie, Slovénie, Suède.
Seuls 2 pays de l'UE n'en contiennent pas : Pays-Bas et Portugal.
votre avatar
ah ben il s'est amélioré depuis la semaine dernière du coup. ^^
votre avatar
Ou alors ils ont bossé spécifiquement sur ce test débile pour qu'il n’échoue plus lamentablement :D
votre avatar
C'est une blague ?

Qu'y font les Pays-Bas et le Portugal ?

Et il manque l'Italie, ce qui est plus difficile à détecter puisqu'il faut comparer avec une liste de tous les pays.
votre avatar
LeChat me sortait que l'Italie était à exclure parce que le "e" est muet donc ça compte pas. :mdr:
Mais visiblement ça comptait pour France, Pologne, Lituanie...
bref ces trucs sont prêtes à sortir n'importe quoi pour avoir l'air d'avoir raison.
votre avatar
Haha je voulais te prouver que tu as tort et que quand on demande n'importe quoi on obtient n'importe quoi. Je me suis appliqué, j'ai rédigé mon prompt. Et voilà dans tes dents ! :prof:

https://chat.mistral.ai/chat/015f4d27-d81b-41f9-9d3b-b76d0d85845f

Bon bah j'ai rien prouvé, Mistral s'est bien planté, je me suis couvert de honte et tes dents sont sauvées :frown:
C'est tout pourri les IA, ça marchera jamais :fumer:

Edit: Mistral s'est fait un copain :

gemini.google.com Google

Edit2: Mistral s'est fait deux copains :

copilot.microsoft.com Microsoft
votre avatar
merci, donc l'incapacité à trouver une lettre dans des mots est donc bien un défaut assez général côté LLM.
votre avatar
Et je ne comprends pas comment ils peuvent être bluffant sur certains trucs et se planter sur ce genre de questions basiques. C'est une bonne illustration d'exemple, du fait qu'ils font des calculs statistiques ultra complexes, mais sont incapables de comprendre quoi que ce soit dans l'absolu.
votre avatar
merci, donc l'incapacité à trouver une lettre dans des mots est donc bien un défaut assez général côté LLM.
Je me demande si ça ne vient pas du fait que le mécanisme d'attention sur lequel ils reposent étant fait pour savoir repérer les mots importants du context, ça le rendrait mécaniquement faible sur l'analyse lettre par lettre.

Qu'au final un LLM sache très bien lire ou générer les suites de tokens, mais qu'il a plus de mal à travailler à cette échelle.
votre avatar
Google s'en sort avec la dernière version Gemini 3 Pro (heuresement car c'est un des modèles, voir le modèle le plus "intelligent" aujourd'hui. gemini.google.com Google

Mistral galère j'ai réussi en activant la réflexion et en 2 essais, par contre il est à la ramasse complet sur la position des lettres dans le mot :
https://chat.mistral.ai/chat/29e985b4-8d9e-4cf6-913a-680e7745c19c

En effet ils ont toujours galéré là dessus, voir le Strawberry test...
votre avatar
Deepseek R1 s'en est bien sorti, mais cet idiot a voulu se justifier par la suite :
Les lettres accentuées (é, è, ê) ou les combinaisons (ex: "eu" dans Luxembourg) ne sont pas comptées comme un "e" simple.
Ou bien c'est moi qui n'ai jamais écrit Luxembourg comme il faut.
votre avatar
@VincentHermann un "petit" article pour expliquer/définir les llms? Qu'est-ce que le fine-tuning, comment on fait, différences entre instruct reasoning, vision, 4b 8b,... Quantisation GGUF, bref un petit article comme vous savez si bien le faire pour comprendre toutes ces subtilité si l'on souhaite, peut-être, faire de L'IA en local avec ollama ou lm studio par exemple.
votre avatar
Je note l'idée !
votre avatar
Tous ces modèles ont également des variantes de raisonnement, la version 14B atteignant par exemple 85 % sur le test AIME 25. Cette version, la plus volumineuse des trois, peut fonctionner sur une machine embarquant 24 Go de mémoire et un seul GPU.
On parle de mémoire système ou de mémoire dédiée au GPU ? Une 4070 avec 8Go de mémoire dédiée + 32Go de mémoire système sont ok pour faire tourner la version 14B ?
votre avatar
Pour les meilleurs performance, il faut que la mémoire soit proche du GPU, je sais pas si ça fonctionnerait en activant reBar pour donner accès à la mémoire RAM au GPU.
Il faudrait donc au minimum une RTX 3090 pour faire tourner le modèle 14B en local, pas très accessible.
J'ai tenté de faire tourner un peu Llama sur mon GPU AMD 9070XT, mais c'est pas folichon.

Et si on veux "fine tuner" un modèle pour qu'il puisse faire des trucs spécialisés sans avoir besoin d'un gros GPU, il faut une grosse puissance de calcul beaucoup de donnée et du temps, on en reviens au même problème.
On est encore loin de pouvoir faire des trucs sympa en local sans y investir un budget conséquent.
Mais bon, j'ai juste testé vite fait sans y passer trop de temps, je me trompe peut-être.

Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles

  • Mistral veut régner sur les modèles ouverts

  • La « petite » famille

Fermer