Microsoft présente deux modèles maison majeurs et se démarque de plus en plus d’OpenAI
Désassemblage iminent
Le 29 août 2025 à 12h56
Après avoir utilisé OpenAI comme compagnon et cheval de Troie de l’IA générative, Microsoft se sent de plus en plus prêt à prendre la route seul et annonce deux nouveaux modèles de son cru : son premier modèle de fondation ,MAI-1-preview, et son pendant centré sur la synthèse vocale, MAI-Voice-1. L’émancipation du géant du numérique par rapport à la startup n’est cependant pas pour tout de suite puisque Microsoft utilise encore les modèles d’OpenAI dans la plupart de ses produits.
Microsoft présente deux modèles maison majeurs et se démarque de plus en plus d’OpenAI
Désassemblage iminent
Après avoir utilisé OpenAI comme compagnon et cheval de Troie de l’IA générative, Microsoft se sent de plus en plus prêt à prendre la route seul et annonce deux nouveaux modèles de son cru : son premier modèle de fondation ,MAI-1-preview, et son pendant centré sur la synthèse vocale, MAI-Voice-1. L’émancipation du géant du numérique par rapport à la startup n’est cependant pas pour tout de suite puisque Microsoft utilise encore les modèles d’OpenAI dans la plupart de ses produits.
Le 29 août 2025 à 12h56
IA et algorithmes
IA
5 min
Article modifié à 14h40 pour prendre en compte la remarque en commentaire sur le fait que Microsoft avait déjà sorti les modèles Phi.
Le partenariat entre OpenAI et Microsoft se complique un peu plus avec l’annonce des premiers modèles de fondation et de synthèse vocale confectionnés par le géant du numérique qui domine l’édition logicielle. Après avoir utilisé OpenAI en compagnon et Cheval de Troie de l’IA générative, Microsoft commence à s’en libérer.
Entre les deux entreprises, la tension a commencé à monter en juin dernier alors qu’OpenAI envisageait de remettre en question certains termes de leur accord, voire d’attaquer Microsoft pour abus de position dominante.
- Dangers des grands modèles de langage : des chercheuses avaient prévenu
- Tensions entre OpenAI et Microsoft sur fond d’accusation d’abus de position dominante
Mais, en cette fin aout, l’entreprise de Redmond montre qu’elle imagine un futur dans lequel elle serait moins dépendante d’OpenAI concernant l’IA générative. En effet, elle présente, dans un billet de blog, deux modèles entièrement « faits maison » : MAI-Voice-1 AI et MAI-1-preview.
Synthèse vocale et premier modèle de fondation
Le premier (MAI-Voice-1 AI) est un modèle de synthèse vocale que l’entreprise va utiliser notamment pour deux fonctionnalités de son application Copilot, Daily (qui propose à ses utilisateurs un résumé de l’actualité) et Podcasts (qui propose des podcasts générés automatiquement, de l’écriture à la voix sur le sujet demandé par l’utilisateur).
Le deuxième (MAI-1-preview) est le premier modèle de fondation créé par l’entreprise. Microsoft explique le tester dans la LMArena, au classement de laquelle il se trouve actuellement en treizième position concernant la génération de texte. L’entreprise affirme qu’il « donne un aperçu des futures offres de Copilot », qu’elle travaille « activement à l’amélioration de [ses] modèles » et qu’elle aura « beaucoup plus à partager dans les mois à venir ».
Peu d’informations techniques
Car, en effet, si l’entreprise fait cette annonce, elle ne dit pas grand chose de ses tous premiers modèles maison. Tout juste encourage-t-elle a essayer ses démonstrations d’expression orale et de storytelling sur son site Copilot Labs.
L’entreprise n’a publié aucun document technique (encore moins d’article scientifique) qui décrirait les caractéristiques techniques de ces modèles et des machines sur lesquelles ils ont été entrainés. Il va sans dire que Microsoft n’a pas donné non plus d’information sur leur impact environnemental.
Il faut aller chez nos confrères de Semafor pour apprendre que l’entreprise affirme avoir utilisé 15 000 GPU H-100 de NVIDIA pour entrainer MAI-1-preview. Au média étasunien, le CEO de Microsoft AI, Mustafa Suleyman, affirme que son entreprise a entrainé ces deux modèles en se focalisant sur leur rentabilité financière et non en voulant faire un modèle forcément très gros. Semafor rappelle que l’entrainement de la dernière version de Grok, par exemple, a demandé l’utilisation de plus de 100 000 GPU H-100. Il semble, ici, aller dans le sens de la déconstruction du mythe du « plus c’est gros, mieux c’est ».
« C’est un modèle qui dépasse largement ses poids », explique-t-il à Semafor, de plus en plus, l’art et le savoir-faire de l’entrainement des modèles consistent à sélectionner les données parfaites et à ne pas gaspiller vos flops sur des jetons inutiles qui n’apprennent pas vraiment grand-chose à votre modèle ».
Pour autant, toujours à nos confrères de Semafor, le CEO de Microsoft AI affirme que son entreprise est déjà au travail pour développer d’autres modèles sur des datacenters équipés des puces NVIDIA GB200. « Nous avons un plan quinquennal ambitieux dans lequel nous investissons trimestre après trimestre. Je pense donc que cela va continuer », affirme-t-il.
Auprès de Semafor, Mustafa Suleyman veut minimiser l’effet de cette annonce sur la relation de son entreprise avec OpenAI : « Notre objectif est d’approfondir notre partenariat et de nous assurer que nous entretenons une excellente collaboration avec OpenAI pendant de nombreuses années encore. J’espère que cela continuera. Je suis persuadé que ce sera le cas ».
Reste que les informations distillées par l’entreprise semblent plus l’occasion de se repositionner d’un point de vue de la concurrence sur les marchés financiers que d’informer les utilisateurs sur les aspects techniques des tous premiers modèles de l’entreprise de Redmond.
Microsoft présente deux modèles maison majeurs et se démarque de plus en plus d’OpenAI
-
Synthèse vocale et premier modèle de fondation
-
Peu d'informations techniques
Commentaires (12)
Abonnez-vous pour prendre part au débat
Déjà abonné ou lecteur ? Se connecter
Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles d'un média expert
Profitez d'au moins 1 To de stockage pour vos sauvegardes
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 29/08/2025 à 13h33
Le 29/08/2025 à 14h41
Le 29/08/2025 à 15h07
Si on regarde leur profile Hugging Face, ils ont pas mal bossé de modèles maison déjà. Mais ça reste de l'expérimental pour la majorité.
Là où il n'y a pas de doute, c'est que oui, à ma connaissance ils n'avaient pas encore de modèle audio en propre. Après, la diff c'est qu'ici ils présentent visiblement un "gros" modèle tandis que Phi est dans la catégorie des petits (comme Large et Small de Mistral par exemple).
Au passage, l'info des 15k GPU est bien présente dans le blog de MS.
Modifié le 29/08/2025 à 16h01
"Excited to share a first look from the lab at Microsoft AI. Meet our first two in-house models: MAI-Voice-1 and MAI-1-preview."
Mustafa Suleyman, CEO of Microsoft AI
Le 29/08/2025 à 16h32
(après c'est typique des grosses boîtes)
Le 29/08/2025 à 15h48
En passant, c'est un très gros client de nVidia (qui, lui-même, réalise 80% environ de son CA dans ce genre de matériel). Ce dernier peut-il résister à une potentielle chute de 80% de ses revenus ?
Modifié le 29/08/2025 à 16h41
Une bonne partie du compute utilisé par OpenAI, c'est Azure qui le fourni dans le cadre de leur accord avec Microsoft, justement. Tous les gros acteurs du Cloud achètent du GPU par palettes entières. Le projet "Stargate" d'OpenAI, c'est leur premier data centre.
Le 30/08/2025 à 09h58
Mais je pense que peu à peu les usages de l'API vont exploser et qu'ils vont pouvoir faire levier sur le coût d'une requête pour résoudre ce point.
Y'a plus beaucoup de boîtes tech à succès qui passent pas par cette étape de cramer du cash sans aucun modèle économique viable.
Le 01/09/2025 à 17h40
Faudrait trouver des chiffres pour confirmer (je ne sais pas où chercher ça par contre), mais je suis certains que tu n'as pas la moitié des nouvelles entreprises qui font des bénéfices dès la première année.
Le 02/09/2025 à 11h29
Dans la tech, c'est quand même souvent que la boîte vis au crochet des levées de fonds pendant plus de 5 ans et se pose la question après de comment monétiser vraiment. D'ailleurs y'a des startups qui se plantent parce qu'une fois le modèle économique installé, il fonctionne pas, d'autres qui "pivotent" car le concept de départ était pas viable... C'est un peu plus hasardeux disons.
Après, c'est surtout une question d'échelle et de source de l'argent, la petite PME va pas lever 150M€, mais faire un prêt à la banque (même si évidemment les fonds d'investissement existent).
En cas d'échec, l'impact économique sur le dirigeant est souvent beaucoup plus lourde sur le patron d'une PME que quand ce sont des investisseurs qui ont investis dans 60 autres sociétés à côté et que l'entreprise est devenu un mastodonte de plusieurs milliards alors que le gars a mis 10k€ au démarrage et que la boîte rapporte toujours pas 1€.
Le 02/09/2025 à 13h45
Comme quoi, y'a pas mal de business models qui se révèlent non viables...
Le 03/09/2025 à 20h16
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?