Connexion Premium

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

Mistral annonce avoir finalisé l’emprunt de 830 millions de dollars qui doit lui permettre de financer les GPU destinés à son datacenter de Bruyères-le-Châtel, au sud de Paris. Cette somme amenée par un pool bancaire, servira à acheter 13 800 puces GB300 à NVIDIA, et portera la puissance IT installée sur le site à 44 MW.

Le 30 mars à 17h21

Mistral AI a annoncé lundi 30 mars avoir conclu les conditions d’un financement par la dette portant sur une enveloppe de 830 millions de dollars (722 millions d’euros), auprès d’un panel de banques.

Cet emprunt, dont les conditions n’ont pas été précisées, répond à un besoin précisément identifié : l’équipement en puces spécialisées du datacenter utilisé par Mistral AI et construit par Eclairion à Bruyères-le-Châtel, à proximité immédiate des installations du CEA au sud de Paris, à une trentaine de kilomètres du plateau de Saclay. La somme doit en l’occurrence permettre l’acquisition de 13 800 puces GB300 signées NVIDIA.

44 MW de puissance IT équipés en GB300

Ces ressources informatiques porteront la puissance IT disponible pour Mistral à 44 MW, indique l’entreprise. « Alors que les gouvernements et les entreprises cherchent activement à construire leur propre environnement d’IA personnalisé, nous développons notre infrastructure en Europe. Mistral AI est le guichet unique pour l’innovation et l’autonomie en IA. », s’est réjoui Arthur Mensch, CEO et cofondateur de Mistral AI.

L’opération fait intervenir une majorité d’acteurs français, avec la banque publique d’investissement, Bpifrance et cinq établissements privés BNP Paribas, Crédit Agricole CIB, HSBC, La Banque Postale et Natixis Corporate & Investment Banking. Un septième acteur, étranger cette fois, participe au tour : la banque MUFG (groupe Mitsubishi).

Le projet et son emplacement avaient été dévoilés en février 2025 par Mistral AI. La startup avait alors annoncé s’être associée avec Eclairion, un acteur français spécialisé dans la conception de datacenters haute densité.

L’intégration devait également associer un intégrateur britannique devenu états-unien, Fluidstack, qui s’était également positionné sur l’un des projets clés en main identifiés par la France à Bosquel dans la Somme avec une enveloppe prévisionnelle de l’ordre de 10 milliards de dollars. D’après Bloomberg, Fluidstack aurait cependant révisé ses plans concernant la France, préférant concentrer ses investissements sur le sol des États-Unis.

Dans sa communication récente, Mistral AI n’évoque pas les partenaires industriels du projet, et ne précise pas les modalités de déploiement de ces GB300, ou la part exacte que représenteront ces derniers dans les 44 MW de puissance IT. Arnaud Lépinois, CEO d’Eclairion, indiquait le 4 décembre 2025 à l’occasion du Dell Technologies Forum être à quelques heures de la mise en production d’un cluster de GB200 destinés à Mistral AI et représentant la plus grosse machine d’IA de France. Les cartes du projet auraient-elles été rebattues ?

Une infrastructure au service de Mistral Compute

Si les parties prenantes ou le calendrier ont pu évoluer, Mistral AI parle d’une mise en service au deuxième trimestre 2026 et reste alignée sur l’objectif déjà exprimé : mettre à disposition une infrastructure de calcul affranchie de toute considération réglementaire extraterritoriale au profit des projets IA de ses grands clients institutionnels, via son offre Mistral Compute, officiellement inaugurée en juin dernier. En janvier, l’entreprise a notamment signé un accord-cadre avec le ministère des Armées.

« Nous continuerons d’investir dans ce domaine, compte tenu de la demande forte et durable des gouvernements, des entreprises et des institutions de recherche qui cherchent à construire leur propre environnement d’IA personnalisé, plutôt que de dépendre de fournisseurs cloud tiers. », déclare à ce propos Arthur Mensch.

Outre son projet en Essonne, l’entreprise a annoncé en février dernier un investissement à hauteur de 1,2 milliard d’euros dans un projet de centre de données situé en Suède, sa première infrastructure opérée en propre située hors de France. Quelques mois plus tôt, Mistral AI avait levé 1,3 milliard d’euros auprès du néerlandais ASML, en échange de 11 % de son capital. L’entreprise était alors valorisée 11,7 milliards d’euros. Elle affirme aujourd’hui viser 200 MW de puissance IT installée à fin 2027.

Commentaires (20)

votre avatar
:eeek2::reflechis::surenchere:
Me manque un émoji "shadock qui pompe" ou un "bulle qui éclate"
votre avatar
On reste loin des ordres de grandeur des puissances développées outre Atlantique, pour un marché EU qui semble bien réel.
J’ai moins de mal à croire à la pertinence économique d’un Mistral que d’un OpenAI (je précise qu’on bosse pour eux mais je le dis sincèrement).
votre avatar
Je suis d'accord, je pense qu'en cas de coup dûr (type pop de bulle au hasard), Mistral − qui vends des modèles spécialisés, personnalisés et auto-hébergeables principalement à des entreprises sans nécessairement courir après les plus gros modèles − a bien plus de chances de survie qu'OpenAI ou Anthropic qui visent les plus gros modèles et ne les offrent que sur leur chatbot ou le cloud, sans personnalisation au besoin client et qui survivent via des investissements qui tiennent sur des promesses d'AGI et de révolution permanente probablement intenables à long terme.
votre avatar
Notez que cette levée de fond finance aussi le stockage associé. En l’occurrence du flash DDN et de la Tape IBM.
votre avatar
52k€ le GPU 😱
Je débarque ou bien ?
votre avatar
Comme disait l'autre.
Bordo chez nel, nous n'avons pas les mêmes valeurs.

:fume:
votre avatar
Bah, Nvidia est en situation de monopole, donc ils se mettent bien...
votre avatar
Non mais dit toi que l'enveloppe finance aussi le reste des machines, carte mère, boitier, CPU, RAM, SSD et RGB bien sûr hihi.
Et faut aussi payer l'installation, le bâtiment, l'élec pour le système, l'élec pour la climatisation, les gens qui maintienne ce datacenter (de la sécurité physique aux adminsys)
votre avatar
et RGB bien sûr hihi.
Et ça c’est le plus important. Quiconque a vu des films de SF sait que l’IA ne peut pas devenir super méchante si elle n’est pas capable de faire clignoter les machines qu’elle contrôle en rouge.
votre avatar
"Cet emprunt, dont les conditions n’ont pas été précisées, répond à un besoin précisément identifié : l’équipement en puces spécialisées du datacenter utilisé par Mistral AI et construit par Eclairion à Bruyères-le-Châtel, à proximité immédiate des installations du CEA au sud de Paris, à une trentaine de kilomètres du plateau de Saclay. La somme doit en l’occurrence permettre l’acquisition de 13 800 puces GB300 signées NVIDIA."

Ce n'est pas ce que je comprends...
votre avatar
Des puces toutes seules, sans machine pour les installer, sans alimentation, sans RAM, sans rien, ce sont juste des cale-meubles très chers. C'est donc logique que le budget soit aussi alloué à tout ce dont il y a besoin autour.
votre avatar
J'espère ! Mais ce n' est pas ce qui est écrit, l'article indique que tout ce qu'il y a autour existe déjà et que la somme sert à l'acquisition des puces...
votre avatar
Dans son communiqué, Mistral dit bien que les fonds levés servent à financer l'acquisition de 13 800 GPU, mais ne précise pas le contexte. cela dit, dans des configurations en volume comme ça, on n'achète pas des GPU à l'unité comme le fait un gamer pour son PC : NVIDIA propose, via des partenaires comme HPE ou Dell, des configurations à l'échelle du rack (NV72) qui embarquent des GPU mais aussi des CPU, la mémoire vive associée, les interconnexions via NVLink, potentiellement le stockage, etc.

Ici, si on compte 72 GPU par rack, ça donnerait environ 190 racks prêts à l'emploi, avec un prix unitaire de l'ordre de 4 millions de dollars par rack, ce qui est cohérent avec les estimations couramment données sur le marché (y'a évidemment pas de prix public conseillé sur ce genre de configs :p)
votre avatar
on n'achète pas des GPU à l'unité comme le fait un gamer pour son PC
un gamer n'achète pas de GPU, il achète une carte graphique (avec un GPU dessus) :cap:
votre avatar
anéfé :cap:
votre avatar
J’ai toujours du mal à capter une mesure de puissance de calcul en MW, c’est comme si une entreprise de transport disait j’ai acheté pour 2000 L/100kms de camions. Je dois être cérébralement limité :bravo:
votre avatar
Disons que comme il y a un seul fabricant d'équipement qui écrase toute la concurrence, une seule génération de GPUs en cours, et que chaque rack consomme pareil, c'est plus simple de se projeter en parlant de MW que de dire j'ai 72 racks et 7200 GPUs, les chiffres sont plus simples à retenir sur un communiqué de presse - et tu peux être sûr que tous les initiés savent immédiatement ce que représente telle puissance en termes de hardware au moment de l'annonce.
votre avatar
Ca reste l'unité la plus buvable pour le public.
Sinon ca sera du Petaflops ou de l'exaflops en fp32 ou en Int8 dense tensor. Et encore la performance dépendra vraiment des modèles a entraîner, Mistral etantvde la team qui découpes ces modèles (type Mixtral), la performance sera probablement assez différente des chiffres d'nvidia
votre avatar
Pourquoi AMD est complètement absent de ce secteur ?
votre avatar
Il me semble que l'une des grosses raisons est CUDA qui est trop bien implanté dans le secteur.