Connexion Premium

Microsoft présente deux modèles maison majeurs et se démarque de plus en plus d’OpenAI

Désassemblage iminent

Microsoft présente deux modèles maison majeurs et se démarque de plus en plus d’OpenAI

Après avoir utilisé OpenAI comme compagnon et cheval de Troie de l’IA générative, Microsoft se sent de plus en plus prêt à prendre la route seul et annonce deux nouveaux modèles de son cru : son premier modèle de fondation ,MAI-1-preview, et son pendant centré sur la synthèse vocale, MAI-Voice-1. L’émancipation du géant du numérique par rapport à la startup n’est cependant pas pour tout de suite puisque Microsoft utilise encore les modèles d’OpenAI dans la plupart de ses produits.

Le 29 août 2025 à 12h56

Article modifié à 14h40 pour prendre en compte la remarque en commentaire sur le fait que Microsoft avait déjà sorti les modèles Phi.


Le partenariat entre OpenAI et Microsoft se complique un peu plus avec l’annonce des premiers modèles de fondation et de synthèse vocale confectionnés par le géant du numérique qui domine l’édition logicielle. Après avoir utilisé OpenAI en compagnon et Cheval de Troie de l’IA générative, Microsoft commence à s’en libérer.

Entre les deux entreprises, la tension a commencé à monter en juin dernier alors qu’OpenAI envisageait de remettre en question certains termes de leur accord, voire d’attaquer Microsoft pour abus de position dominante.

Mais, en cette fin aout, l’entreprise de Redmond montre qu’elle imagine un futur dans lequel elle serait moins dépendante d’OpenAI concernant l’IA générative. En effet, elle présente, dans un billet de blog, deux modèles entièrement « faits maison » : MAI-Voice-1 AI et MAI-1-preview.

Synthèse vocale et premier modèle de fondation

Le premier (MAI-Voice-1 AI) est un modèle de synthèse vocale que l’entreprise va utiliser notamment pour deux fonctionnalités de son application Copilot, Daily (qui propose à ses utilisateurs un résumé de l’actualité) et Podcasts (qui propose des podcasts générés automatiquement, de l’écriture à la voix sur le sujet demandé par l’utilisateur).

Le deuxième (MAI-1-preview) est le premier modèle de fondation créé par l’entreprise. Microsoft explique le tester dans la LMArena, au classement de laquelle il se trouve actuellement en treizième position concernant la génération de texte. L’entreprise affirme qu’il « donne un aperçu des futures offres de Copilot », qu’elle travaille « activement à l’amélioration de [ses] modèles » et qu’elle aura « beaucoup plus à partager dans les mois à venir ».

Peu d’informations techniques

Car, en effet, si l’entreprise fait cette annonce, elle ne dit pas grand chose de ses tous premiers modèles maison. Tout juste encourage-t-elle a essayer ses démonstrations d’expression orale et de storytelling sur son site Copilot Labs.

L’entreprise n’a publié aucun document technique (encore moins d’article scientifique) qui décrirait les caractéristiques techniques de ces modèles et des machines sur lesquelles ils ont été entrainés. Il va sans dire que Microsoft n’a pas donné non plus d’information sur leur impact environnemental.

Il faut aller chez nos confrères de Semafor pour apprendre que l’entreprise affirme avoir utilisé 15 000 GPU H-100 de NVIDIA pour entrainer MAI-1-preview. Au média étasunien, le CEO de Microsoft AI, Mustafa Suleyman, affirme que son entreprise a entrainé ces deux modèles en se focalisant sur leur rentabilité financière et non en voulant faire un modèle forcément très gros. Semafor rappelle que l’entrainement de la dernière version de Grok, par exemple, a demandé l’utilisation de plus de 100 000 GPU H-100. Il semble, ici, aller dans le sens de la déconstruction du mythe du « plus c’est gros, mieux c’est ».

« C’est un modèle qui dépasse largement ses poids », explique-t-il à Semafor, de plus en plus, l’art et le savoir-faire de l’entrainement des modèles consistent à sélectionner les données parfaites et à ne pas gaspiller vos flops sur des jetons inutiles qui n’apprennent pas vraiment grand-chose à votre modèle ».

Pour autant, toujours à nos confrères de Semafor, le CEO de Microsoft AI affirme que son entreprise est déjà au travail pour développer d’autres modèles sur des datacenters équipés des puces NVIDIA GB200. « Nous avons un plan quinquennal ambitieux dans lequel nous investissons trimestre après trimestre. Je pense donc que cela va continuer », affirme-t-il.

Auprès de Semafor, Mustafa Suleyman veut minimiser l’effet de cette annonce sur la relation de son entreprise avec OpenAI : « Notre objectif est d’approfondir notre partenariat et de nous assurer que nous entretenons une excellente collaboration avec OpenAI pendant de nombreuses années encore. J’espère que cela continuera. Je suis persuadé que ce sera le cas ».

Reste que les informations distillées par l’entreprise semblent plus l’occasion de se repositionner d’un point de vue de la concurrence sur les marchés financiers que d’informer les utilisateurs sur les aspects techniques des tous premiers modèles de l’entreprise de Redmond.

Commentaires (12)

votre avatar
C'est quand même étrange de présenter les "premiers modèles maison" de Microsoft en oubliant Phi dont la première version a plus de deux ans et qui est dispo sur Azure.
votre avatar
Merci pour la remarque. Je viens de modifier l'article pour la prendre en compte.
votre avatar
Le blog est assez vague il faut dire, j'ai l'impression que c'est fidèle à la comm' produit de Microsoft XD
Si on regarde leur profile Hugging Face, ils ont pas mal bossé de modèles maison déjà. Mais ça reste de l'expérimental pour la majorité.

Là où il n'y a pas de doute, c'est que oui, à ma connaissance ils n'avaient pas encore de modèle audio en propre. Après, la diff c'est qu'ici ils présentent visiblement un "gros" modèle tandis que Phi est dans la catégorie des petits (comme Large et Small de Mistral par exemple).

Au passage, l'info des 15k GPU est bien présente dans le blog de MS.
MAI-1-preview is an in-house mixture-of-experts model, pre-trained and post-trained on ~15,000 NVIDIA H100 GPUs.
votre avatar
Je pense que même chez Microsoft, ils ont oublié Phi :D

"Excited to share a first look from the lab at Microsoft AI. Meet our first two in-house models: MAI-Voice-1 and MAI-1-preview."
Mustafa Suleyman, CEO of Microsoft AI linkedin.com LinkedIn
votre avatar
Nan mais la direction produit chez Microsoft, faut pas chercher.

(après c'est typique des grosses boîtes)
votre avatar
En sachant que OpenAI est déficitaire (4$ de pertes par 1$ de revenus), combien de temps est-ce que cette boite pourra-t-elle tenir avant la banqueroute ?

En passant, c'est un très gros client de nVidia (qui, lui-même, réalise 80% environ de son CA dans ce genre de matériel). Ce dernier peut-il résister à une potentielle chute de 80% de ses revenus ?
votre avatar
En sachant que OpenAI est déficitaire (...)
En passant, c'est un très gros client de nVidia
Source ?

Une bonne partie du compute utilisé par OpenAI, c'est Azure qui le fourni dans le cadre de leur accord avec Microsoft, justement. Tous les gros acteurs du Cloud achètent du GPU par palettes entières. Le projet "Stargate" d'OpenAI, c'est leur premier data centre.
votre avatar
Ça il faut demander aux investisseurs qui remettent sur le tapis à chaque levée de fonds.

Mais je pense que peu à peu les usages de l'API vont exploser et qu'ils vont pouvoir faire levier sur le coût d'une requête pour résoudre ce point.

Y'a plus beaucoup de boîtes tech à succès qui passent pas par cette étape de cramer du cash sans aucun modèle économique viable.
votre avatar
Parce que tu crois que c'est différent dans des business plus traditionnels ?

Faudrait trouver des chiffres pour confirmer (je ne sais pas où chercher ça par contre), mais je suis certains que tu n'as pas la moitié des nouvelles entreprises qui font des bénéfices dès la première année.
votre avatar
Ça dépend si on parle d'amortissement, car évidemment qu'une entreprise en démarrage a du mal à gagner de l'argent, il faut acquérir l'équipement, conquérir les premiers clients, etc. Mais souvent elle a déjà son modèle économique en tête (prix de production prévisionnel vs prix de vente).

Dans la tech, c'est quand même souvent que la boîte vis au crochet des levées de fonds pendant plus de 5 ans et se pose la question après de comment monétiser vraiment. D'ailleurs y'a des startups qui se plantent parce qu'une fois le modèle économique installé, il fonctionne pas, d'autres qui "pivotent" car le concept de départ était pas viable... C'est un peu plus hasardeux disons.

Après, c'est surtout une question d'échelle et de source de l'argent, la petite PME va pas lever 150M€, mais faire un prêt à la banque (même si évidemment les fonds d'investissement existent).
En cas d'échec, l'impact économique sur le dirigeant est souvent beaucoup plus lourde sur le patron d'une PME que quand ce sont des investisseurs qui ont investis dans 60 autres sociétés à côté et que l'entreprise est devenu un mastodonte de plusieurs milliards alors que le gars a mis 10k€ au démarrage et que la boîte rapporte toujours pas 1€.
votre avatar
Oui enfin tu as quand même ~40% des entreprises en France qui "meurent" dans les 5 premières années : https://www.insee.fr/fr/statistiques/5353768

Comme quoi, y'a pas mal de business models qui se révèlent non viables...
votre avatar
Faut prendre en compte aussi qu'il y a des techniques pour monter des boîtes et les faire couler pour gagner de l'argent sans payer ses dettes... Mais oui, aucun doute que beaucoup se plantent (surtout en année 2)

Microsoft présente deux modèles maison majeurs et se démarque de plus en plus d’OpenAI

  • Synthèse vocale et premier modèle de fondation

  • Peu d'informations techniques