Microsoft ne comprend pas le manque d’émerveillement face à l’IA
Miracle en fabrication
Les propos récents de Microsoft sur l’évolution de Windows vers un système « agentique » provoquent de virulentes réactions. Pour de nombreux observateurs, cette marche forcée vers l’IA illustre un décalage croissant entre les besoins des utilisateurs et la direction que veut donner l’entreprise à son produit.
Le 24 novembre à 09h40
10 min
IA et algorithmes
IA
Comme nous l’indiquions dans notre article du 18 novembre, c’est un message du responsable de la division Windows, Pavan Davuluri, qui a enflammé la toile : « Windows évolue vers un système d'exploitation agentique, connectant appareils, cloud et IA pour une productivité accrue et un travail sécurisé où que vous soyez ». Sous son message, des centaines de commentaires négatifs, voire acerbes, au point que Davuluri bloquera les réponses.
Ce que veut Microsoft
La société de Redmond rêve d’un monde où les agents s’occupent de tout, discutent entre eux, apprennent le contexte des utilisateurs et leur viennent en aide sur à peu près tout et n’importe quoi. Un monde dans lequel il suffit de prononcer quelques phrases à haute voix pour que les requêtes soient interprétées et dument exécutées.
Pour parvenir à cette vision, Windows doit devenir un hub pour les agents. Une infrastructure spécifique, que Microsoft a plus ou moins déjà détaillée : une session Windows à part, avec des contrôles présentés comme stricts, des agents appliquant le principe de moindre privilège, etc.
Il reste 86% de l'article à découvrir.
Déjà abonné ? Se connecter
Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Microsoft ne comprend pas le manque d’émerveillement face à l’IA
-
Ce que veut Microsoft
-
Une réalité très différente
-
Ce que veulent les utilisateurs
-
Pourquoi tant d’IA ?
Commentaires (77)
Le 24/11/2025 à 09h49
N'y croyant pas au début, ils sont arrivés en retard par rapport à Apple et Google, et malgré le pognon de dingue qui a pu être dépensé par la suite (et un système pourtant très performant !) la 3e roue du carrosse n'a jamais vraiment décollée et ils ont finalement tout arrêté.
Peut être n'ont-ils pas envie de revivre cela.
Par contre, répondre avec cynisme en méprisant les utilisateurs, je ne suis pas vraiment certains que ce soit la conduite à tenir
Le 24/11/2025 à 12h19
Le 24/11/2025 à 14h13
Jobs était plutôt à dire qu'il ne fallait pas demander aux gens ce qu'ils voulaient, pas à les mépriser.
Le 24/11/2025 à 14h16
Le 24/11/2025 à 14h34
Le 24/11/2025 à 19h42
Le 24/11/2025 à 12h42
Pour l'époque c'était très bien. Mais il fallait suivre et ne pas laisser les utilisateurs sans accompagnement. Surtout à une époque où mettre à jour un os de téléphone n'était pas simple.
Il y a aussi cette dichotomie chez Microsoft. Soit ils jettent l'éponge alors qu'il faut rester. Soit ils insistent à mort alors qu'il faudrait lâcher (IE puis Edge).
Le 24/11/2025 à 14h19
Par contre, et c'est vraiment là que ça a foiré : il y avait un gros problème de manque de disponibilité des applications. Comme il n'y avait que peu d'applications officiellement disponibles (comparativement aux autres systèmes), les gens qui voulaient s'en servir prenaient soit un iPhone, soit un Android. Les gens prenant majoritairement des iPhone & Android, les dev ne portaient pas les applications sur Windows Phone. Un cercle vicieux.
Le 24/11/2025 à 14h25
Ils ont choisi de (ne pas) développer leur propre store.
Perdu.
(Mais ayant eu un Nokia N9 sous Meego, un Lumia 950XL sous Windows 10 Mobile, un iPhone 6 Plus, et maintenant un Samsung S20 Ultra, clairement le N9 et le 950XL m'ont laissé les meilleurs souvenirs et de très loin. Windows 10 Mobile était un excellent OS. Et c'est probablement la seule fois que je peux dire ça d'un produit Ms.)
Le 24/11/2025 à 14h35
Dire que j'ai toujours le Lumia 530 (offert via un ODR avec le 730 à l'époque) qui me sert de réveil matin
Le 24/11/2025 à 13h35
En fait, je dirais qu'ils voient dans les IA agentiques les fantasmes de l'informatique dans les œuvres de science-fiction : toutes les interactions se font de manière naturelle. En soi, ça pourrait fonctionner, mais pas pour Windows.
En effet, Windows est déjà ancré chez les utilisateurs comme un OS de PC, un truc avec un clavier et un écran et qui fonctionne comme un OS des années 90. En cherchant à modifier l'usage de Windows, ils changent la philosophie de celui-ci, sauf que les utilisateurs, eux, ils veulent que leur Windows reste Windows.
La seule solution d'après moi, c'est de créer un produit séparé de Windows.
Le 24/11/2025 à 13h43
Ms doit pas être chaud parce que dès que ça sort de Windows et Office, j'ai l'impression que tout ce qu'ils lancent se vautre. Le pari pourrait donc sembler ultra risqué.
Le 27/11/2025 à 20h18
Le 24/11/2025 à 09h54
Et pour les gna gna gna, les jeux : Proton / SteamOS
Le 24/11/2025 à 10h03
Le 24/11/2025 à 10h15
Je sais ca semble la mode de le dire mais moi aussi j’ai fini par laisser tomber et achever définitivement l’utilisation de linux. Je ne veux pas d’IA incontrolable et pas fiable. Je ne veux pas de prérequis matériels abusés.
W10 était bien mon dernier Windows. Pas grave
Modifié le 24/11/2025 à 10h59
Et il y a aussi Bazzite comme Linux efficace pour les jeux, en plus de SteamOS.
Le 24/11/2025 à 14h40
Merci pour la référence !
Le 24/11/2025 à 18h09
Sans doute bien plus pratique/puissante que la steam deck pour beaucoup de monde.
J'espère que cela changera quelque chose pour les jeux ayant un système anti triche qui ne sont pas compatible...
Le 25/11/2025 à 13h15
Modifié le 27/11/2025 à 20h22
Le 27/11/2025 à 20h20
Le 24/11/2025 à 10h04
Le 24/11/2025 à 10h14
Modifié le 24/11/2025 à 11h23
Modifié le 24/11/2025 à 11h26
Côté utilisateurs: des contraintes, pas de valeur ajoutée, mais beaucoup de poudre aux yeux (mode tempête de sable).
Ms: "mais pourquoi vous n'en voulez pas? Oh! Sans rire! Vous vous souvenez de Snake sur Nokia? Bon, alors, du coup, l'IA, c'est bandant non? Ben si, CQFD!
Soupir...
Le 24/11/2025 à 11h46
On dirait Macron qui traite les gens d'amish quand ils émettaient des critiques sur la 5G.
Le 24/11/2025 à 12h55
Le 24/11/2025 à 13h57
Le 24/11/2025 à 11h48
Le 24/11/2025 à 14h37
Modifié le 24/11/2025 à 15h02
Le 24/11/2025 à 15h16
Il y a des bugs qui trainent des années :
Le 24/11/2025 à 16h20
Le 24/11/2025 à 16h29
Le 24/11/2025 à 17h13
Un peu la différence entre dire qu'un système est mal fini et dire qu'il ne marche pas...
Le 24/11/2025 à 17h53
Modifié le 24/11/2025 à 15h23
Ou comment mettre la poussière sous le tapis.
Le 24/11/2025 à 12h07
Le 24/11/2025 à 12h20
Quand est ce qu'ils vont se fourrer ça dans le crâne ? Les LLM peuvent faire des trucs super quand on connaît leurs limites, mais donner les clés d'un OS, d'une entreprise, d'un domicile à ces derniers en l'état actuel des choses c'est DÉBILE.
Qu'ils commencent par faire un truc fiable à 100% avant de vouloir en faire un nouvel eldorado. En l'état, c'est pas fiable dès qu'on a quelque chose de critique, et chaque a son propre curseur en la matière !!
Le 24/11/2025 à 14h13
La fiabilité 100% dans l'IT n'existe pas.
Le 24/11/2025 à 17h35
Le 24/11/2025 à 18h18
Du fiable à 100%, je pense que ça existe, oui. Mais pas dans l'IT global, plutôt dans les domaine extrêmement spécialisé.
Et encore, les clauses contractuelles ne doivent pas indiquer une telle efficacité.
Quelle serait la fiabilité désirée pour un LLM ? Sachant que le paramétrage peut les rendre plus ou moins déterministes, ce qui influence forcément le score de fiabilité. Tout comme il faut définir ce qu'est la fiabilité dans leur domaine.
Le 25/11/2025 à 12h25
Pour replacer dans le contexte de l'informatique, le pourcentage que tu donnes correspond à une erreur tous les 10000000 millions de réponses. Imagine un système de sauvegarde qui commet une erreur de copie tous les 10000000 de fichiers. Est-ce que tu accepterais ce système ? (mon home contient 1750000 fichiers, avec ce pourcentage, il y aurait déjà 16% de (mal)chance d'erreur dans ma sauvegarde).
Le 25/11/2025 à 13h58
Sans une définition de la fiabilité ou un outil de mesure, il est difficile de dire ce qui est acceptable ou non dans le cas d'un LLM.
Comme un SLA de disponibilité, 99.95% (43 secondes tolérées d'interruption quotidienne) pourra être acceptable dans une vaste majorité des cas et impossible pour une autre part. Tout dépend du besoin et de la criticité qu'on leur accorde.
Quant à la comparaison sur les sauvegardes : une sauvegarde, ça se vérifie et se teste dans tous les cas. Sinon elle ne sert à rien.
Donc avant de dire que c'est non fiable ou insuffisant, il faut définir ce qu'est le taux de fiabilité et à quel moment il devient suffisant. À partir de là, tu mesures et tu vois si l'outil répond à ton besoin.
Le 25/11/2025 à 14h03
Le 25/11/2025 à 14h22
Prenons un exemple : la saisie des justificatifs pour les notes de frais. 2 possibilités :
- soit c'est un comptable qui le fait (donc un humain)
- soit c'est la machine (via un OCR, etc.)
Si l'humain fait 10% d'erreur de saisie et la machine 5%. Que vaut-il mieux prendre ?
Pour les LLM, c'est un peu la même chose. Oui, les LLM font des erreurs. La question cruciale à mes yeux n'est pas tant de savoir si c'est fiable dans 80% ou 95% des cas, mais de savoir si c'est plus fiable ou pas qu'un être humain (qui, lui aussi commet des erreurs et qui, contrairement à un LLM, peut être fatigué, malade, distrait, de mauvaise humeur, absent, etc.).
Et là dessus, je rejoins donc @SebGF sur la définition d'un taux de fiabilité en rapport avec la problématique traitée (dans certains cas, 80% sera tout à fait acceptable tandis que dans d'autres 98% ne le sera pas).
Le 25/11/2025 à 15h03
Oui, pour générer des lolcats, on s'en tape de la fiabilité, pas pour le reste.
Le 25/11/2025 à 16h10
La problématique, une fois encore, c'est le ratio d'erreur entre celui d'un LLM et celui d'un humain. Balancer des généralités n'aide en rien. Un LLM n'a pas besoin d'un ratio de 99,995% pour être utile. Il faut juste qu'il le soit plus que l'humain. Et pour certaines tâches, c'est sans doute déjà faisable. Et avec "l'amélioration" des LLM, cela le sera encore plus à l'avenir (je ne dis pas que je suis pour cet état de fait, c'est juste un constat).
Le 25/11/2025 à 19h50
Pour réaliser des tâches répétitives des millions de fois, si. C'est pas le boulot d'un être humain, donc soit ça marche mieux que les outils automatiques actuels, soit ça sert à rien.
Le 25/11/2025 à 20h27
Mais un LLM ne sert à rien là où il existe déjà des outils automatiques pour faire le taf. On parle depuis le début de LLM pour réaliser des tâches "complexes" qu'un outil automatique classique ne peut pas faire.
Pour ce genre de tâche, une fois encore, la seule métrique véritablement pertinente, c'est que le LLM fasse mieux que l'humain, et non pas un abscons taux de fiabilité sortie de nul part.
Le 25/11/2025 à 20h47
La valeur ajoutée d'un outil basé sur un modèle de deep learning, c'est AMHA de répondre avec l'une des caractéristiques de l'IA. À savoir traiter une problématique avec peu d'entrants ou des données incomplètes et s'y adapter. Chose qu'un outil scripté ou déterminé ne saura pas faire car non conçu pour ça.
Faire un déploiement agentique peut paraître cool, mais perso je préfère mon playbook Ansible parce que je sais que lui, il est fiable. Par contre, le déploiement agentique pourra potentiellement s'adapter à des imprévus sur un environnement différent de celui pour lequel le playbook a été développé.
Le 25/11/2025 à 21h04
Le 25/11/2025 à 21h34
De ton point de vue. Nous entrons ici dans des considérations morales & sociétales, qui dépassent le cadre du simple aspect technique lié à l'usage des LLM. Je ne dis pas que ce débat n'est pas intéressant (il l'est !) mais ne me semble pas du tout être le cadre du débat qui nous anime ici.
Oui, le travail humain est souvent vérifié. Remplacer TOUTES les couches humaines par une machine, ce serait une erreur, car cela reviendrait tout bonnement à supprimer les contrôles.
Ce serait d'autant plus une erreur que les LLM ont tendance à se planter encore plus quand la complexité augmente. Et ce sont souvent les cas les plus complexes qui sont sujets à erreur. Là où un être humain prendra le temps de vérifier voire de faire vérifier par un autre collègue, la machine ne le fera pas.
Le 26/11/2025 à 17h10
Le 26/11/2025 à 17h36
Du 1 pour 1 (dans le sens, même fiabilité) suffit amplement. Le LLM ferait la tâche certainement plus rapidement, sans se fatiguer, potentiellement 24h/24, 7j/7, 365j par an (+1 pour les années bisextiles). Rien qu'avec ça, on arrivera justement à augmenter de plusieurs ordres de grandeurs le volume de production mini x10 (et c'est vraiment une fourchette basse).
Le 27/11/2025 à 10h58
Le 27/11/2025 à 11h29
Si tu crois que la quantité de données à traiter dépend de ta capacité de traitement, c'est une erreur. On se doit d'adapter la capacité de traitement à la quantité de données. La notion de producteur / consommateur en informatique.
Donc, si ton LLM permet de traiter de la même manière (1 pour 1 toujours en terme de fiabilité) à la place de je ne sais pas, 20 personnes, en quoi cela pose-t-il un problème dans la gestion des erreurs ?
Il n'y aura pas plus d'erreurs (je rappelle 1 pour 1). Et si tu n'es pas en mesure de traiter les erreurs du LLM, c'est que tu n'étais déjà pas en mesure de traiter les erreurs de personnes.
Ton LLM à 99,9999% tu n'en n'auras besoin que si tu souhaites automatiser TOUTE ta chaine pour en extraire complètement l'humain.
Un LLM n'a pas besoin d'être fiable à 99,9999% pour être utile. S'il permet de faire aussi bien voir mieux que l'humain dans certaines tâches, c'est déjà amplement suffisant.
Si tu ne comprends pas la différence entre les deux, je suis désolé, mais autant arrêter cette conversation ici.
Le 27/11/2025 à 16h50
Avec l'automatisation, il n'y a pas de 1 pour 1 sur le moyen-long terme.
Le 27/11/2025 à 16h55
Je vais subodorer un paralogisme (et non un sophisme) et arrêter cette conversion ici.
Le 27/11/2025 à 19h00
L'histoire montre bien qu'il n'y a jamais de 1 pour 1 avec l'automatisation.
Le 26/11/2025 à 17h46
Je me permets une modification :
« si c'est pour faire un pouillème de % mieux que l'humain en permettant de glorieuses économies sur la masse salariale, c'est exceptionnellement intéressant pour l'employeur »
Le 27/11/2025 à 10h57
Le 25/11/2025 à 14h23
Le 27/11/2025 à 20h24
Quoi ?! Comment ça, je suis de mauvaise foi ?! 😅
Le 28/11/2025 à 08h19
if true = truedans je ne sais plus quel code pour qu'un truc puisse marcher... Perso ça fait longtemps que je considère l'IT comme de la sorcellerie.Cela dit, ça illustre aussi ce que je disais dans le fil : pour quelque chose de maîtrisé qui a besoin d'une reproductibilité et d'indempotence, les LLM ne sont pas une bonne idée. Si par contre le critère devient
if maybe, alors là le LLM aura un potentiel intérêt.Le 28/11/2025 à 08h26
Le 28/11/2025 à 08h44
Le 28/11/2025 à 14h50
Le 24/11/2025 à 14h36
Le 24/11/2025 à 13h39
Et ce parce qu'on a choisi d'adopter le chien et qu'on a tous plus ou moins consciences des difficultés de compréhension et motivation dudit chien.
L'IA par contre, Microsoft, et d'autres, nous l'imposent, sans possibilité ou presque de refuser. Nous obligeant à une vigilance de tous les instants pour ne pas voire fuiter nos informations. Nous faisant des promesses sur leur capacité, qui sont très loin d'être tenues, et s'étonnent que beaucoup n'en veuille pas.
Pour ma part quand je cherche une information, j'ai besoin de quelque chose de fiable, sourcé, pas d'une hallucination 40% du temps qui me fait perdre du temps en vérification.
Tant que les sociétés qui vendent de l'IA continueront à entretenir le flou sur leur capacités et limitations et à vouloir à tout prix en mettre là où c'est inutile, voir contre-productif, les gens s'y opposeront. Et c'est heureux.
Le 24/11/2025 à 15h08
Modifié le 24/11/2025 à 14h35
Le 24/11/2025 à 14h36
Le 24/11/2025 à 15h33
Le 24/11/2025 à 15h49
Le 24/11/2025 à 18h24
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?