Connexion
Abonnez-vous

En pleine polémique sur DeepSeek, Microsoft intègre la version R1 dans Azure

Logique marchande

En pleine polémique sur DeepSeek, Microsoft intègre la version R1 dans Azure

Microsoft vient d’annoncer que le modèle chinois DeepSeek R1 était désormais proposé sur sa plateforme Azure AI Foundry, qui rassemble pratiquement tous ses services dédiés à l’intelligence artificielle. Un ajout aussi logique qu’étrange, car Microsoft enquête parallèlement sur une possible utilisation détournée des API d’OpenAI.

Le 30 janvier à 11h24

« Faire feu de tout bois » est désormais le mantra du monde de l’IA. La situation ambivalente de Microsoft en donne une nouvelle illustration. En effet, alors que l’entreprise enquête sur l’utilisation potentiellement inappropriée des données d’OpenAI dans l’entrainement du modèle chinois DeepSeek, voilà que l’entreprise en ajoute la version R1 (R pour « raisonnement ») dans son Azure AI Foundry.

DeepSeek R1 entre en fanfare dans Azure

Dans un billet de blog, Microsoft dit tout son enthousiasme. L’entreprise note que le « raisonnement par l’IA devient rapidement plus accessible », amenant une vaste transformation dans la manière dont l’IA est exploitée, surtout par les développeurs et entreprises.

L’intégration dans Azure AI Foundry permet donc, selon la firme, de tester et d’itérer avec le nouveau modèle. L’entreprise met bien sûr en avant sa collection d’outils et rappelle sa promesse de « rassembler les meilleurs modèles d'IA en un seul endroit pour accélérer l'innovation et ouvrir de nouvelles possibilités aux entreprises du monde entier ».

Microsoft sait également que beaucoup de questions se posent autour du modèle chinois, notamment sa neutralité. Elle affirme donc que « DeepSeek R1 a été soumis à des évaluations rigoureuses de sécurité et de red teaming, y compris des évaluations automatisées du comportement du modèle et des examens de sécurité approfondis pour atténuer les risques ».

Jamais elle n’affirme en revanche que l’utilisation de DeepSeek peut se faire sans risque. La tournure de la phrase laisse penser qu’elle n’a rien trouvé de troublant, mais le résultat n’est pas clairement donné. La société ajoute que filtrage intégré du contenu est disponible par défaut et que des options de retrait sont présentes pour augmenter la flexibilité. Un système d’évaluation permet en outre aux clients de tester le modèle selon leurs propres critères.

Bientôt des versions « distillées » pour des exécutions locales

Dans un autre billet publié hier soir, Microsoft prévient également que des versions « distillées » de DeepSeek R1 seront bientôt proposées. Il s’agit de variantes réduites et optimisées pour une exécution locale. La compatibilité sera d’abord assurée pour les PC Copilot+ basés sur une puce Snapdragon X de Qualcomm, avant d’être portée vers les machines Core Ultra 200V d’Intel et d’autres puces.

DeepSeek-R1-Distill-Qwen-1.5B sera la première mouture proposée dans AI Toolkit. Comme son nom l’indique, elle disposera de 1,5 milliard de paramètres. Viendront ensuite les variantes 7B et 14B. Microsoft dit avoir tiré parti des enseignements lors du travail sur Phi Silica, présenté lors de sa dernière conférence Build. De nombreuses optimisations auraient ainsi été effectuées pour rendre ces modèles efficaces avec les NPU (Neural Process Unit), offrant un bon compris entre performances et consommation énergétique.

Les tests sur le premier modèle pourront commencer dans Visual Studio Code. Il sera proposé au format ONNX QDQ.

Entre intégration et accusations

L’intégration de DeepSeek R1 dans AI Foundry peut surprendre, car Microsoft est à l’origine des accusations d’OpenAI contre le modèle chinois. Ces accusations font état de « preuves » qu’OpenAI possèderait et qui démontreraient que DeepSeek s’est servi des modèles et/ou des API de la société américaine pour l’entrainement de son nouveau modèle star. David Sacks, nouveau grand manitou de l'IA et de la crypto de la Maison-Blanche, a également porté des accusations contre DeepSeek, évoquant un possible vol de propriété intellectuelle d’OpenAI.

Or, Reuters rapportait le 28 janvier que des chercheurs de Microsoft s’étaient penchés sur DeepSeek. Des personnes, qu’ils pensent être liées à DeepSeek, auraient « exfiltré une grande quantité de données en utilisant l'interface de programmation d'applications (API) d’OpenAI ». Selon Bloomberg, ces informations auraient ensuite été transmises à OpenAI, qui aurait alors porté ses accusations contre DeepSeek.

« Nous prenons des contre-mesures pour protéger notre propriété intellectuelle, y compris un processus minutieux de sélection des capacités d'avant-garde à inclure dans les modèles publiés, et nous pensons qu'il est essentiel que nous travaillions en étroite collaboration avec le gouvernement américain pour protéger au mieux les modèles les plus performants contre les efforts des adversaires et des concurrents visant à s'approprier la technologie américaine », a réagi OpenAI.

Microsoft, de son côté, est restée silencieuse. La disponibilité de DeepSeek R1 obéit à une logique marchande et une volonté de rester pleinement visible avec le dernier modèle du moment. Les caractéristiques techniques de DeepSeek sont en effet suffisantes pour créer une rupture dans les certitudes américaines, au point notamment d’entrainer de vastes répercussions sur l’action NVIDIA.

Commentaires (10)

votre avatar
Alors, sa "propriété intellectuelle", OpenAI peut sincèrement et franchement se la cansuré
votre avatar
R pour « raisonnement »
le « raisonnement par l’IA devient rapidement plus accessible »
Concrètement, ça permet de faire qui d'utile qui peut remplacer ou aider efficacement l'humain ?

Le billet de blog de MS n'en dit strictement rien.
votre avatar
Des personnes, qu’ils pensent être liées à DeepSeek, auraient « exfiltré une grande quantité de données en utilisant l'interface de programmation d'applications (API) d’OpenAI ».
Je ne comprends pas comment c'est possible ?
On sait que ce n'est pas une bonne idée d'entrainer une IA sur des données générées par une autre IA.
Ça voudrait dire qu'il ont pu récupérer des données du modèle même en envoyant des prompts ?
votre avatar
Ça dépend des accès de ces personnes. De ce qu'ils ont "exfiltré".

Maintenant, il ne faut tomber dans le piège. Le grand brushing ne doit pas l'avoir molle sur le sujet et a dû demander : "Trouvez quelque chose pour niquer les chinois !".

Donc ça commence à faire la chasse aux sorcières. Dans un moins, on aura : "Ho lui hé ! Ce n'est pas fair-play l'espionnage industriel" et d'interdire dans la foulée le produit sur le territoire yankee. Ou un autre scénario du genre.

Avec le Trump 1er quel autre scénario ? Donc fauteuil et pop-corn pour la suite.

Nb: Pour Microsoft, ce sera un switch à changer pour rendre disponible le modèle ou non. Donc, ils s'en tapent.
votre avatar
Je ne comprends pas comment c'est possible ?
La plupart des modèles aujourd'hui sont entrainés sur des résultats de discussions avec ChatGPT. Ca permet de créer des données de qualité à bas coût.
On sait que ce n'est pas une bonne idée d'entrainer une IA sur des données générées par une autre IA.
Il y a un papier qui mettait en avant ce phénomène pour stable-diffusion (génération d'images), mais je ne pense pas qu'un phénomène similaire ait été observé pour la génération de texte.
votre avatar
Non, les LLM aussi s'effondrent lorsqu'ils sont entraînés sur des données générées.
votre avatar
Il ne s'agit pas de cela ici.
Voir mon commentaire ci-dessous.

En très gros, la distillation permet de demander au gros modèle d'expliquer pourquoi il répond une chose donnée et c'est l'ensemble de l'entrée et de la sortie qui permet d'entraîner le petit modèle spécialisé.
votre avatar
La maladie de la vache folle a commencé de manière "similaire".

Quand on a commencé à nourrir des vaches avec des farines qui contenaient un % important venant de ... viande de boeuf/vache. (aussi comment rendre des herbivores carnivores sans qu'ils le sachent...)

Au final, les prions apparus ont transformé leurs cervelles en genre emmental avec plein de trous dedans.

Comme quoi il y a peut-être une certaine logique et des règles intrinsèques qui réagissent cet univers...

:fumer:
votre avatar
Voir l'article en lien d'hier pour plus des explications :
Par ailleurs, selon le Financial Times, OpenAI accuse son concurrent chinois d'avoir utilisé un de ses modèles pour entrainer DeepSeek-R1, en employant la distillation. Cette technique permet de « surpasser les grands modèles de langage avec moins de données d'entraînement et des tailles de modèles plus petites » en entrainant un modèle avec les réponses d'un modèle plus grand
Il y a un lien vers l'article de Google qui explique à la fois les principes généraux de la distillation et leur méthode de distillation qu'ils appellent "distillation pas à pas" (Distilling step-by-step).

Nota : j'ai coupé la citation de l'article précédent parce que je pense qu'il y a une erreur dans l'utilisation de "pas à pas". J'ai signalé l'erreur en parallèle.
votre avatar
Ce n'est pas bête quelque part. Héberger la solution pour mieux l'analyser. Même si je 'e doute que des outils soient disponibles sans devoir héberger.

En pleine polémique sur DeepSeek, Microsoft intègre la version R1 dans Azure

  • DeepSeek R1 entre en fanfare dans Azure

  • Bientôt des versions « distillées » pour des exécutions locales

  • Entre intégration et accusations

Fermer