En pleine polémique sur DeepSeek, Microsoft intègre la version R1 dans Azure
Logique marchande

Microsoft vient d’annoncer que le modèle chinois DeepSeek R1 était désormais proposé sur sa plateforme Azure AI Foundry, qui rassemble pratiquement tous ses services dédiés à l’intelligence artificielle. Un ajout aussi logique qu’étrange, car Microsoft enquête parallèlement sur une possible utilisation détournée des API d’OpenAI.
Le 30 janvier à 11h24
5 min
IA et algorithmes
IA
« Faire feu de tout bois » est désormais le mantra du monde de l’IA. La situation ambivalente de Microsoft en donne une nouvelle illustration. En effet, alors que l’entreprise enquête sur l’utilisation potentiellement inappropriée des données d’OpenAI dans l’entrainement du modèle chinois DeepSeek, voilà que l’entreprise en ajoute la version R1 (R pour « raisonnement ») dans son Azure AI Foundry.
- DeepSeek : pourquoi une telle déflagration sur le marché de l’IA ?
- DeepSeek : la recherche chinoise paradoxalement boostée par les restrictions américaines
DeepSeek R1 entre en fanfare dans Azure
Dans un billet de blog, Microsoft dit tout son enthousiasme. L’entreprise note que le « raisonnement par l’IA devient rapidement plus accessible », amenant une vaste transformation dans la manière dont l’IA est exploitée, surtout par les développeurs et entreprises.
L’intégration dans Azure AI Foundry permet donc, selon la firme, de tester et d’itérer avec le nouveau modèle. L’entreprise met bien sûr en avant sa collection d’outils et rappelle sa promesse de « rassembler les meilleurs modèles d'IA en un seul endroit pour accélérer l'innovation et ouvrir de nouvelles possibilités aux entreprises du monde entier ».
Microsoft sait également que beaucoup de questions se posent autour du modèle chinois, notamment sa neutralité. Elle affirme donc que « DeepSeek R1 a été soumis à des évaluations rigoureuses de sécurité et de red teaming, y compris des évaluations automatisées du comportement du modèle et des examens de sécurité approfondis pour atténuer les risques ».
Jamais elle n’affirme en revanche que l’utilisation de DeepSeek peut se faire sans risque. La tournure de la phrase laisse penser qu’elle n’a rien trouvé de troublant, mais le résultat n’est pas clairement donné. La société ajoute que filtrage intégré du contenu est disponible par défaut et que des options de retrait sont présentes pour augmenter la flexibilité. Un système d’évaluation permet en outre aux clients de tester le modèle selon leurs propres critères.
Bientôt des versions « distillées » pour des exécutions locales
Dans un autre billet publié hier soir, Microsoft prévient également que des versions « distillées » de DeepSeek R1 seront bientôt proposées. Il s’agit de variantes réduites et optimisées pour une exécution locale. La compatibilité sera d’abord assurée pour les PC Copilot+ basés sur une puce Snapdragon X de Qualcomm, avant d’être portée vers les machines Core Ultra 200V d’Intel et d’autres puces.
DeepSeek-R1-Distill-Qwen-1.5B sera la première mouture proposée dans AI Toolkit. Comme son nom l’indique, elle disposera de 1,5 milliard de paramètres. Viendront ensuite les variantes 7B et 14B. Microsoft dit avoir tiré parti des enseignements lors du travail sur Phi Silica, présenté lors de sa dernière conférence Build. De nombreuses optimisations auraient ainsi été effectuées pour rendre ces modèles efficaces avec les NPU (Neural Process Unit), offrant un bon compris entre performances et consommation énergétique.
Les tests sur le premier modèle pourront commencer dans Visual Studio Code. Il sera proposé au format ONNX QDQ.
Entre intégration et accusations
L’intégration de DeepSeek R1 dans AI Foundry peut surprendre, car Microsoft est à l’origine des accusations d’OpenAI contre le modèle chinois. Ces accusations font état de « preuves » qu’OpenAI possèderait et qui démontreraient que DeepSeek s’est servi des modèles et/ou des API de la société américaine pour l’entrainement de son nouveau modèle star. David Sacks, nouveau grand manitou de l'IA et de la crypto de la Maison-Blanche, a également porté des accusations contre DeepSeek, évoquant un possible vol de propriété intellectuelle d’OpenAI.
Or, Reuters rapportait le 28 janvier que des chercheurs de Microsoft s’étaient penchés sur DeepSeek. Des personnes, qu’ils pensent être liées à DeepSeek, auraient « exfiltré une grande quantité de données en utilisant l'interface de programmation d'applications (API) d’OpenAI ». Selon Bloomberg, ces informations auraient ensuite été transmises à OpenAI, qui aurait alors porté ses accusations contre DeepSeek.
« Nous prenons des contre-mesures pour protéger notre propriété intellectuelle, y compris un processus minutieux de sélection des capacités d'avant-garde à inclure dans les modèles publiés, et nous pensons qu'il est essentiel que nous travaillions en étroite collaboration avec le gouvernement américain pour protéger au mieux les modèles les plus performants contre les efforts des adversaires et des concurrents visant à s'approprier la technologie américaine », a réagi OpenAI.
Microsoft, de son côté, est restée silencieuse. La disponibilité de DeepSeek R1 obéit à une logique marchande et une volonté de rester pleinement visible avec le dernier modèle du moment. Les caractéristiques techniques de DeepSeek sont en effet suffisantes pour créer une rupture dans les certitudes américaines, au point notamment d’entrainer de vastes répercussions sur l’action NVIDIA.
En pleine polémique sur DeepSeek, Microsoft intègre la version R1 dans Azure
-
DeepSeek R1 entre en fanfare dans Azure
-
Bientôt des versions « distillées » pour des exécutions locales
-
Entre intégration et accusations
Commentaires (10)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 30/01/2025 à 12h12
Le 30/01/2025 à 12h55
Le billet de blog de MS n'en dit strictement rien.
Le 30/01/2025 à 12h58
On sait que ce n'est pas une bonne idée d'entrainer une IA sur des données générées par une autre IA.
Ça voudrait dire qu'il ont pu récupérer des données du modèle même en envoyant des prompts ?
Le 30/01/2025 à 13h18
Maintenant, il ne faut tomber dans le piège. Le grand brushing ne doit pas l'avoir molle sur le sujet et a dû demander : "Trouvez quelque chose pour niquer les chinois !".
Donc ça commence à faire la chasse aux sorcières. Dans un moins, on aura : "Ho lui hé ! Ce n'est pas fair-play l'espionnage industriel" et d'interdire dans la foulée le produit sur le territoire yankee. Ou un autre scénario du genre.
Avec le Trump 1er quel autre scénario ? Donc fauteuil et pop-corn pour la suite.
Nb: Pour Microsoft, ce sera un switch à changer pour rendre disponible le modèle ou non. Donc, ils s'en tapent.
Modifié le 30/01/2025 à 13h26
Il y a un papier qui mettait en avant ce phénomène pour stable-diffusion (génération d'images), mais je ne pense pas qu'un phénomène similaire ait été observé pour la génération de texte.
Le 30/01/2025 à 13h46
Le 30/01/2025 à 13h56
Voir mon commentaire ci-dessous.
En très gros, la distillation permet de demander au gros modèle d'expliquer pourquoi il répond une chose donnée et c'est l'ensemble de l'entrée et de la sortie qui permet d'entraîner le petit modèle spécialisé.
Modifié le 30/01/2025 à 19h57
Quand on a commencé à nourrir des vaches avec des farines qui contenaient un % important venant de ... viande de boeuf/vache. (aussi comment rendre des herbivores carnivores sans qu'ils le sachent...)
Au final, les prions apparus ont transformé leurs cervelles en genre emmental avec plein de trous dedans.
Comme quoi il y a peut-être une certaine logique et des règles intrinsèques qui réagissent cet univers...
Le 30/01/2025 à 13h50
Nota : j'ai coupé la citation de l'article précédent parce que je pense qu'il y a une erreur dans l'utilisation de "pas à pas". J'ai signalé l'erreur en parallèle.
Le 30/01/2025 à 13h10