Mistral présente son modèle Small 3.1 et joue la carte de l’efficacité
Tu sais ce qu'il te dit le cassis ?

Mistral a présenté lundi son modèle Small 3.1, avec une communication prenant le contrepied des grandes annonces sur les LLM. Selon l’entreprise française, le nouveau modèle fait en effet mieux avec moins.
Le 18 mars à 16h28
3 min
IA et algorithmes
IA
Mistral Small 3.1 traite ainsi à la fois le texte et les images, avec une fenêtre contextuelle de 128 000 jetons. Le modèle lui-même possède 24 milliards de paramètres. Mistral, dans son billet, évoque des « performances textuelles améliorées », ainsi qu’une vitesse de traitement de 150 jetons par seconde, le rendant adapté aux applications nécessitant des réponses rapides, comme les assistants virtuels.
« Mistral Small 3.1 est un modèle polyvalent conçu pour gérer un large éventail de tâches d'IA générative, notamment le suivi d'instructions, l'assistance à la conversation, la compréhension d'images et l'appel de fonctions. Il constitue une base solide pour les applications d'IA d'entreprise et grand public », déclare l’entreprise.
Jouer la carte de l'efficacité
Mistral assure que son modèle peut fonctionner sur une seule GeForce RTX 4090 ou un Mac avec 32 Go de RAM (dommage, aucune indication sur la puce utilisée). La société ajoute que son modèle peut être affiné pour se spécialiser dans des domaines précis. Autre point mis en avant : la publication du modèle sous licence Apache 2.0, comme tous les autres avant lui. Et si ce point est d’autant plus volontiers mis en lumière, c’est parce que la tendance est à une fermeture progressive, notamment chez OpenAI.

Comme souvent avec les annonces de nouveaux modèles, celle de Mistral Small 3.1 s'accompagne de nombreux résultats de benchmarks. Le nouveau venu fait mieux, dans la grande majorité des cas, que ses concurrents analysés pour l’occasion : Gemma 3-it (27 milliards de paramètres), Cohere Arya-Vision (32 milliards), GPT-4o Mini et Claude 3.5 Haiku. Parmi ces derniers, seul Gemma 3-it parvient parfois à lui tenir tête, le dépassant à quelques reprises.
Mistral veut ainsi se démarquer par l’efficacité d’un petit modèle multimodal, avec un support multilingue et un contexte long. La société met l’accent sur l’aspect « accessible » de son modèle, capable de se contenter de peu, dans le sillage d’un GPT 4.5 qui, bien que ne jouant pas dans la même cour, réclame une énorme puissance pour fonctionner. Au point qu’OpenAI a dû prévenir, avec une envolée des tarifs.
De quoi se différencier ?
Ce positionnement pourrait jouer en faveur de Mistral, tout comme le contexte géopolitique. Plus tôt dans le mois, The Economist indiquait ainsi que le fait de n’être ni américain ni chinois pourrait assurer une nouvelle visibilité à l’entreprise française. Certains marchés et gouvernements pourraient se tourner vers Mistral, à la recherche d’un partenaire ou fournisseur moins soumis aux aléas gouvernementaux. En particulier si les plans français et européens en matière d’intelligence artificielle donnent les résultats attendus.
Arthur Mensch, CEO de Mistral, a plaidé en tout cas pour une explosion des capacités européennes en matière de traitement. Comme le rappelle notamment Venture Beat, il a profité du dernier Mobile World Congress de Barcelone pour exhorter l’Europe à « entrer dans le jeu de l’hyperscaling ».
Mistral présente son modèle Small 3.1 et joue la carte de l’efficacité
-
Jouer la carte de l'efficacité
-
De quoi se différencier ?
Commentaires (15)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 18/03/2025 à 16h36
Small 3.1 commence à arriver sur Ollama mais pas encore en release officielle.
Tiens d'ailleurs, j'ai découvert que Large était depuis dispo, là où à l'époque j'étais déçu de les voir sortir des versions non open-weight (bon, la licence reste un peu restrictive). M'enfin, dans tous les cas lui il est hors catégorie avec ses 123B params...
Le 18/03/2025 à 21h06
Ernie ?
Le 19/03/2025 à 07h38
Le 19/03/2025 à 15h58
Le 19/03/2025 à 19h59
Modifié le 18/03/2025 à 16h38
On raterait (encore?) le fait d'avoir un acteur souverain dans un domaine qui va devenir incontournable.
Le 19/03/2025 à 07h41
Le 18/03/2025 à 16h38
Le 18/03/2025 à 18h13
Petit, mais costaud !
Le 18/03/2025 à 21h03
Le 19/03/2025 à 14h35
Le 19/03/2025 à 14h41
Bon, celui-là, je l'avais.
Le 18/03/2025 à 18h23
Le 18/03/2025 à 22h37
Le 19/03/2025 à 00h02