Connexion
Abonnez-vous

Mistral présente son modèle Small 3.1 et joue la carte de l’efficacité

Tu sais ce qu'il te dit le cassis ?

Mistral présente son modèle Small 3.1 et joue la carte de l’efficacité

Mistral a présenté lundi son modèle Small 3.1, avec une communication prenant le contrepied des grandes annonces sur les LLM. Selon l’entreprise française, le nouveau modèle fait en effet mieux avec moins.

Le 18 mars à 16h28

Mistral Small 3.1 traite ainsi à la fois le texte et les images, avec une fenêtre contextuelle de 128 000 jetons. Le modèle lui-même possède 24 milliards de paramètres. Mistral, dans son billet, évoque des « performances textuelles améliorées », ainsi qu’une vitesse de traitement de 150 jetons par seconde, le rendant adapté aux applications nécessitant des réponses rapides, comme les assistants virtuels.

« Mistral Small 3.1 est un modèle polyvalent conçu pour gérer un large éventail de tâches d'IA générative, notamment le suivi d'instructions, l'assistance à la conversation, la compréhension d'images et l'appel de fonctions. Il constitue une base solide pour les applications d'IA d'entreprise et grand public », déclare l’entreprise.

Jouer la carte de l'efficacité

Mistral assure que son modèle peut fonctionner sur une seule GeForce RTX 4090 ou un Mac avec 32 Go de RAM (dommage, aucune indication sur la puce utilisée). La société ajoute que son modèle peut être affiné pour se spécialiser dans des domaines précis. Autre point mis en avant : la publication du modèle sous licence Apache 2.0, comme tous les autres avant lui. Et si ce point est d’autant plus volontiers mis en lumière, c’est parce que la tendance est à une fermeture progressive, notamment chez OpenAI.

Comme souvent avec les annonces de nouveaux modèles, celle de Mistral Small 3.1 s'accompagne de nombreux résultats de benchmarks. Le nouveau venu fait mieux, dans la grande majorité des cas, que ses concurrents analysés pour l’occasion : Gemma 3-it (27 milliards de paramètres), Cohere Arya-Vision (32 milliards), GPT-4o Mini et Claude 3.5 Haiku. Parmi ces derniers, seul Gemma 3-it parvient parfois à lui tenir tête, le dépassant à quelques reprises.

Mistral veut ainsi se démarquer par l’efficacité d’un petit modèle multimodal, avec un support multilingue et un contexte long. La société met l’accent sur l’aspect « accessible » de son modèle, capable de se contenter de peu, dans le sillage d’un GPT 4.5 qui, bien que ne jouant pas dans la même cour, réclame une énorme puissance pour fonctionner. Au point qu’OpenAI a dû prévenir, avec une envolée des tarifs.

De quoi se différencier ?

Ce positionnement pourrait jouer en faveur de Mistral, tout comme le contexte géopolitique. Plus tôt dans le mois, The Economist indiquait ainsi que le fait de n’être ni américain ni chinois pourrait assurer une nouvelle visibilité à l’entreprise française. Certains marchés et gouvernements pourraient se tourner vers Mistral, à la recherche d’un partenaire ou fournisseur moins soumis aux aléas gouvernementaux. En particulier si les plans français et européens en matière d’intelligence artificielle donnent les résultats attendus.

Arthur Mensch, CEO de Mistral, a plaidé en tout cas pour une explosion des capacités européennes en matière de traitement. Comme le rappelle notamment Venture Beat, il a profité du dernier Mobile World Congress de Barcelone pour exhorter l’Europe à « entrer dans le jeu de l’hyperscaling ».

Commentaires (15)

votre avatar
Mistral assure que son modèle peut fonctionner sur une seule GeForce RTX 4090 ou un Mac avec 32 Go de RAM (dommage, aucune indication sur la puce utilisée).
Ça tourne aussi sur mon Ryzen 7 avec 32GB de RAM. Par contre, c'est très lent.

Small 3.1 commence à arriver sur Ollama mais pas encore en release officielle.

Tiens d'ailleurs, j'ai découvert que Large était depuis dispo, là où à l'époque j'étais déçu de les voir sortir des versions non open-weight (bon, la licence reste un peu restrictive). M'enfin, dans tous les cas lui il est hors catégorie avec ses 123B params...
votre avatar
https://www.businessinsider.com/baidu-ernie-x1-ai-reasoning-model-china-competition-openai-2025-3

Ernie ?
votre avatar
Je privilégie les modèles français.
votre avatar
APU ou avec une carte graphique externe ?
votre avatar
Le PC sur lequel je fais tourner mes LLM avec Ollama n'a pas de CG, uniquement CPU. Enfin, si, une basique qui sert à afficher du 3440x1440 pour l'écran.
votre avatar
J'utilise la version free du chat Mistral de temps en temps, et franchement, il est plutôt efficace. Ce serait vraiment dommage que Mistral ne puisse pas tenir face aux gros acteurs de l'IA pour cause de financement :/
On raterait (encore?) le fait d'avoir un acteur souverain dans un domaine qui va devenir incontournable.
votre avatar
Imagine aujourd’hui qu’aucun acteur n’est soutenable et que partout, si les acteurs financiers arrêtent avec le fomo et la peur du next big thing, alors ces boîtes s’arrêteront. L’IAG, on y est pas du tout.
votre avatar
Ça serait intéressant de comparer aussi avec Phi 4
votre avatar
"Tu sais ce qu'il te dit le cassis ?"

Petit, mais costaud ! :D
votre avatar
Rhôaaa... le coup de vieux qu'on se mange ! ^^
votre avatar
C'est un peu notre mood en ce moment dans les sous-titres :mrgreen:
votre avatar
Encore des trucs de jeunes ! :phibee:

Bon, celui-là, je l'avais. :D
votre avatar
C'est déjà disponible dans LMStudio. Ça tourne très bien et très vite sur ma modeste Intel B570 (pas besoin de RTX4090). En revanche, je ne suis pas très convaincu par la pertinence de ce qu'il raconte...
votre avatar
C'est peut-être à cause de la confuguration du modèle faite par LM Studio pour que ça tourne vite et bien que ce n'est pas très pertinent ?
votre avatar
J'avais pris le modèle de base, uploadé par un contributeur. Depuis, je suis passé sur le modèle instruct proposé par lmstudio-community, et il marche beaucoup mieux.

Mistral présente son modèle Small 3.1 et joue la carte de l’efficacité

  • Jouer la carte de l'efficacité

  • De quoi se différencier ?

Fermer