Connexion Abonnez-vous

Microsoft ne comprend pas le manque d’émerveillement face à l’IA

Miracle en fabrication

Microsoft ne comprend pas le manque d’émerveillement face à l’IA

Les propos récents de Microsoft sur l’évolution de Windows vers un système « agentique » provoquent de virulentes réactions. Pour de nombreux observateurs, cette marche forcée vers l’IA illustre un décalage croissant entre les besoins des utilisateurs et la direction que veut donner l’entreprise à son produit.

Le 24 novembre à 09h40

Comme nous l’indiquions dans notre article du 18 novembre, c’est un message du responsable de la division Windows, Pavan Davuluri, qui a enflammé la toile : « Windows évolue vers un système d'exploitation agentique, connectant appareils, cloud et IA pour une productivité accrue et un travail sécurisé où que vous soyez ». Sous son message, des centaines de commentaires négatifs, voire acerbes, au point que Davuluri bloquera les réponses.

Ce que veut Microsoft

La société de Redmond rêve d’un monde où les agents s’occupent de tout, discutent entre eux, apprennent le contexte des utilisateurs et leur viennent en aide sur à peu près tout et n’importe quoi. Un monde dans lequel il suffit de prononcer quelques phrases à haute voix pour que les requêtes soient interprétées et dument exécutées.

Pour parvenir à cette vision, Windows doit devenir un hub pour les agents. Une infrastructure spécifique, que Microsoft a plus ou moins déjà détaillée : une session Windows à part, avec des contrôles présentés comme stricts, des agents appliquant le principe de moindre privilège, etc.

Il reste 86% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Commentaires (77)

votre avatar
La volonté de Microsoft de mettre de l'IA partout ne serait-elle pas lié au coche manqué des smartphones ?

N'y croyant pas au début, ils sont arrivés en retard par rapport à Apple et Google, et malgré le pognon de dingue qui a pu être dépensé par la suite (et un système pourtant très performant !) la 3e roue du carrosse n'a jamais vraiment décollée et ils ont finalement tout arrêté.

Peut être n'ont-ils pas envie de revivre cela.

Par contre, répondre avec cynisme en méprisant les utilisateurs, je ne suis pas vraiment certains que ce soit la conduite à tenir :embarassed:
votre avatar
Par contre, répondre avec cynisme en méprisant les utilisateurs, je ne suis pas vraiment certains que ce soit la conduite à tenir :embarassed:
Bah pourquoi ? Ca marchait avec Steve Jobs.
votre avatar
Je n'ai pas de souvenir de ça. Tu fais référence à quoi ?

Jobs était plutôt à dire qu'il ne fallait pas demander aux gens ce qu'ils voulaient, pas à les mépriser.
votre avatar
J'avais en tête le fameux épisode de l'iPhone 4 et son antenne foireuse causée par les gens qui le tenaient mal.
votre avatar
Alors, de mémoire (je peux dire des conneries hein), il y a eu tout un pataquès autour de ça, à cause de propos déformé de Steve Jobs. On retrouvait souvent à l'époque des propos du genre "vous le tenez mal". Sauf qu'il n'aurait jamais tenu ce discours, mais seulement des propos du style "si vous avez ce souci, évitez de le tenir comme ça" le temps de trouver une solution (et de se rendre compte que l'iPhone était loin d'être le seul téléphone qui souffrait de ce défaut et qu'il impactait quasiment tous les smartphones).
votre avatar
Oui c'est exactement ça. D'ailleurs la conférence montrait également d'autres téléphones. Et la conclusion était que le problème n'est pas l'iPhone 4 mais tous les téléphones. Et même que l'iPhone n'est pas le pire de l'histoire, loin de là (courbes de mesure à l'appuis).
votre avatar
Ayant eu un des premiers kaiser 2 je peux dire que le système microsoft n'était pas prêt. Entre les contrôles, le tactile balbutiant et les applications pas encore au point, le virage a été mal négocié. Le même genre de chose que pour IE.

Pour l'époque c'était très bien. Mais il fallait suivre et ne pas laisser les utilisateurs sans accompagnement. Surtout à une époque où mettre à jour un os de téléphone n'était pas simple.

Il y a aussi cette dichotomie chez Microsoft. Soit ils jettent l'éponge alors qu'il faut rester. Soit ils insistent à mort alors qu'il faudrait lâcher (IE puis Edge).
votre avatar
Alors pour ma part, je n'ai découvert les Windows Phone que sur la fin malheureusement. Et j'en garde un excellent souvenir. Pratique, rapide, clair, ergonomique. Un vrai bonheur comparé à mon ancien android.

Par contre, et c'est vraiment là que ça a foiré : il y avait un gros problème de manque de disponibilité des applications. Comme il n'y avait que peu d'applications officiellement disponibles (comparativement aux autres systèmes), les gens qui voulaient s'en servir prenaient soit un iPhone, soit un Android. Les gens prenant majoritairement des iPhone & Android, les dev ne portaient pas les applications sur Windows Phone. Un cercle vicieux.
votre avatar
Ms avait hésité à l'époque entre développer son propre store ou rendre leur OS compatible avec Android.

Ils ont choisi de (ne pas) développer leur propre store.

Perdu.

(Mais ayant eu un Nokia N9 sous Meego, un Lumia 950XL sous Windows 10 Mobile, un iPhone 6 Plus, et maintenant un Samsung S20 Ultra, clairement le N9 et le 950XL m'ont laissé les meilleurs souvenirs et de très loin. Windows 10 Mobile était un excellent OS. Et c'est probablement la seule fois que je peux dire ça d'un produit Ms.)
votre avatar
Alors pour ma part, je n'ai découvert les Windows Phone que sur la fin malheureusement. Et j'en garde un excellent souvenir. Pratique, rapide, clair, ergonomique. Un vrai bonheur comparé à mon ancien android.
Le Lumia 730 :love:

Dire que j'ai toujours le Lumia 530 (offert via un ODR avec le 730 à l'époque) qui me sert de réveil matin :D
votre avatar
J'ai aussi un peu cette impression.
En fait, je dirais qu'ils voient dans les IA agentiques les fantasmes de l'informatique dans les œuvres de science-fiction : toutes les interactions se font de manière naturelle. En soi, ça pourrait fonctionner, mais pas pour Windows.

En effet, Windows est déjà ancré chez les utilisateurs comme un OS de PC, un truc avec un clavier et un écran et qui fonctionne comme un OS des années 90. En cherchant à modifier l'usage de Windows, ils changent la philosophie de celui-ci, sauf que les utilisateurs, eux, ils veulent que leur Windows reste Windows.

La seule solution d'après moi, c'est de créer un produit séparé de Windows.
votre avatar
Constat intéressant.

Ms doit pas être chaud parce que dès que ça sort de Windows et Office, j'ai l'impression que tout ce qu'ils lancent se vautre. Le pari pourrait donc sembler ultra risqué.
votre avatar
Et en même temps, pourquoi continuer d'appeler son OS "Fenêtres" alors que le but est justement de s'en débarrasser, au final ?
votre avatar
Windows 11 et le Windows "agentiques", les meilleurs arguments pour passer à Linux, pour celles et ceux qui n'y sont pas déjà !

Et pour les gna gna gna, les jeux : Proton / SteamOS
votre avatar
heureusement pour eux il y a WSL qui ralenti un peu la migration mais ca va pas durer
votre avatar
«  C’est notre dernier Windows » « Windows partout » « Windows as a service » « Windows agentique »

Je sais ca semble la mode de le dire mais moi aussi j’ai fini par laisser tomber et achever définitivement l’utilisation de linux. Je ne veux pas d’IA incontrolable et pas fiable. Je ne veux pas de prérequis matériels abusés.

W10 était bien mon dernier Windows. Pas grave
votre avatar
Totalement, et 11 a tendance à s'aliéner les "power users" à cause de son interface pas forcément logique et avec des options un peu cachées maintenant alors qu'elles étaient encore facilement trouvables dans le panneau de configuration de 10.

Et il y a aussi Bazzite comme Linux efficace pour les jeux, en plus de SteamOS.
votre avatar
C'est exactement ma réflexion en ce moment. Je vais m'informer sur proton et steamos.
Merci pour la référence !
votre avatar
Pour SteamOS, je te conseille d'attendre 2026 et plus d'info sur la "Steam Machine".
Sans doute bien plus pratique/puissante que la steam deck pour beaucoup de monde.

J'espère que cela changera quelque chose pour les jeux ayant un système anti triche qui ne sont pas compatible...
votre avatar
Mme Michu va comprendre argentique et pas agentique
votre avatar
Madame Michu ne connaît pas le mot argentique et son opposition à numérique. Elle dit d'ailleurs digital comme à la télé.
votre avatar
Madame Michu, peut-être, mais pas Odette Michu, qui connaît très bien l'argentique : elle en a plein d'albums dans ses placards. 😁
votre avatar
Je suis totalement en accord avec la position de vx-underground. L'IA est un super truc en soi. Elle peut aider à beaucoup de choses. Le problème est qu'ils ne veulent pas que ce soit une simple aide, mais une finalité en soi, et là ca bloque totalement, ce n'est absolument pas ce qui est demandé par les utilisateurs.
votre avatar
Microsoft n'avait pas cru à internet en voulant faire le sien avec MSN un système sous leur contrôle, ce pourrait-il qu'ils refassent la même erreur en faisant à nouveau un système dont on ne veut pas.
votre avatar
J'ajoute que la direction souhaitée par Microsoft (ou autre) est un très bon moyen également d'augmenter très significativement la pertinence du ciblage publicitaire. (cf. propos de Meredith Whittaker)
votre avatar
Côté Ms: abonnements et pubs ciblées, thune = pognon.
Côté utilisateurs: des contraintes, pas de valeur ajoutée, mais beaucoup de poudre aux yeux (mode tempête de sable).

Ms: "mais pourquoi vous n'en voulez pas? Oh! Sans rire! Vous vous souvenez de Snake sur Nokia? Bon, alors, du coup, l'IA, c'est bandant non? Ben si, CQFD! :mad: "

Soupir...
votre avatar
Niveau de l'argumentation : 0

On dirait Macron qui traite les gens d'amish quand ils émettaient des critiques sur la 5G.
votre avatar
Un symptôme d’une déconnexion des élites ?
votre avatar
Comparer Microsoft à une élite :mdr2:
votre avatar
Qu'est ce qui ne fonctionne pas dans windows ? :reflechis:
votre avatar
votre avatar
Il faut qu'ils finissent d'ajouter le support du thème sombre aux reste des fenêtres, il reste encore des parties qui n'ont pas été converties sur winUI

Il y a des bugs qui trainent des années : next.ink Next
votre avatar
Il y a des bugs qui trainent des années : next.ink
Comme dans tout logiciel et il y a même des bugs qui ne seront jamais corrigés !
votre avatar
Comme dans tout logiciel et il y a même des bugs qui ne seront jamais corrigés !
Ou requalifiés en fonctionnalité :D
votre avatar
Ok c'est des trucs maladroit mais ça n'empêche pas Windows de fonctionner.
Un peu la différence entre dire qu'un système est mal fini et dire qu'il ne marche pas...
votre avatar
votre avatar
Le rendement de l'IA, c'est comme une machine dans laquelle tu fais rentrer un arbre complet d'un côté et de l'autre tu récupères un unique cure-dent ... pas de quoi s'émerveiller mais plutôt la crainte de voir une forêt disparaître chaque fois qu'on sert des épis de maïs cuits à la cantine.
votre avatar
l'iA n'est pas fiable pour le commun des mortels et les pro qui ne connaissent rien à l'informatique au delà des usages basiques !
Quand est ce qu'ils vont se fourrer ça dans le crâne ? Les LLM peuvent faire des trucs super quand on connaît leurs limites, mais donner les clés d'un OS, d'une entreprise, d'un domicile à ces derniers en l'état actuel des choses c'est DÉBILE.

Qu'ils commencent par faire un truc fiable à 100% avant de vouloir en faire un nouvel eldorado. En l'état, c'est pas fiable dès qu'on a quelque chose de critique, et chaque a son propre curseur en la matière !!
votre avatar
Qu'ils commencent par faire un truc fiable à 100% avant de vouloir en faire un nouvel eldorado.
Au moins à 80, voire 95%.

La fiabilité 100% dans l'IT n'existe pas.
votre avatar
Au moins à 80, voire 95%.
C'est ridiculement faible.
votre avatar
99.99999 % ?

Du fiable à 100%, je pense que ça existe, oui. Mais pas dans l'IT global, plutôt dans les domaine extrêmement spécialisé.

Et encore, les clauses contractuelles ne doivent pas indiquer une telle efficacité.

Quelle serait la fiabilité désirée pour un LLM ? Sachant que le paramétrage peut les rendre plus ou moins déterministes, ce qui influence forcément le score de fiabilité. Tout comme il faut définir ce qu'est la fiabilité dans leur domaine.
votre avatar
99.99999 % ?
Ça me paraît difficile à atteindre (sachant le fonctionnement d'un LLM), mais c'est malheureusement nécessaire pour un outil qui est censé être utilisé des millions/milliards de fois par jour et auquel les fournisseurs de LLM aimeraient qu'on délègue tous les aspects de notre vie (donc des choses très critiques).
Mais pas dans l'IT global,
Pour replacer dans le contexte de l'informatique, le pourcentage que tu donnes correspond à une erreur tous les 10000000 millions de réponses. Imagine un système de sauvegarde qui commet une erreur de copie tous les 10000000 de fichiers. Est-ce que tu accepterais ce système ? (mon home contient 1750000 fichiers, avec ce pourcentage, il y aurait déjà 16% de (mal)chance d'erreur dans ma sauvegarde).
votre avatar
Comme indiqué dans mon message :
Tout comme il faut définir ce qu'est la fiabilité dans leur domaine.
Sans une définition de la fiabilité ou un outil de mesure, il est difficile de dire ce qui est acceptable ou non dans le cas d'un LLM.

Comme un SLA de disponibilité, 99.95% (43 secondes tolérées d'interruption quotidienne) pourra être acceptable dans une vaste majorité des cas et impossible pour une autre part. Tout dépend du besoin et de la criticité qu'on leur accorde.

Quant à la comparaison sur les sauvegardes : une sauvegarde, ça se vérifie et se teste dans tous les cas. Sinon elle ne sert à rien.

Donc avant de dire que c'est non fiable ou insuffisant, il faut définir ce qu'est le taux de fiabilité et à quel moment il devient suffisant. À partir de là, tu mesures et tu vois si l'outil répond à ton besoin.
votre avatar
Donc avant de dire que c'est non fiable ou insuffisant, il faut définir ce qu'est le taux de fiabilité et à quel moment il devient suffisant. À partir de là, tu mesures et tu vois si l'outil répond à ton besoin.
Pas d'accord, 80% (et même 95%), pour un outil qui répète des milliards de fois ses opérations, c'est ridiculement bas. On peut discuter de combien de 9 on veut après la virgule, mais des taux d'erreurs en dizaines de pourcents sur un outil logiciel, c'est juste inadmissible - en particulier quand on est censé donner à ce logiciel accès à tout pour tout gérer.
votre avatar
Il faut comparer avec ce qui est comparable.

Prenons un exemple : la saisie des justificatifs pour les notes de frais. 2 possibilités :
- soit c'est un comptable qui le fait (donc un humain)
- soit c'est la machine (via un OCR, etc.)

Si l'humain fait 10% d'erreur de saisie et la machine 5%. Que vaut-il mieux prendre ?

Pour les LLM, c'est un peu la même chose. Oui, les LLM font des erreurs. La question cruciale à mes yeux n'est pas tant de savoir si c'est fiable dans 80% ou 95% des cas, mais de savoir si c'est plus fiable ou pas qu'un être humain (qui, lui aussi commet des erreurs et qui, contrairement à un LLM, peut être fatigué, malade, distrait, de mauvaise humeur, absent, etc.).

Et là dessus, je rejoins donc @SebGF sur la définition d'un taux de fiabilité en rapport avec la problématique traitée (dans certains cas, 80% sera tout à fait acceptable tandis que dans d'autres 98% ne le sera pas).
votre avatar
Re-belote : on parle de confier tous les aspects de nos vies à des LLM, qui non seulement se plantent souvent (plus qu'un spécialiste qu'ils sont censés remplacer), et le font de manière totalement transparente (c'est pas une erreur qui génère une alarme, c'est juste que le LLM va injecter de la merde dans ton MES, dans ton ERP, ou dans tes données financières sans te le dire et sans qu'on se pose nécessairement de question avant que ce soit vraiment la misère).

Oui, pour générer des lolcats, on s'en tape de la fiabilité, pas pour le reste.
votre avatar
Un humain aussi se plante. Et il peut tout aussi bien injecter de la merde dans ton ERP (ou ce que tu veux). C'est pas pour rien que la recherche d'incohérence ou d'erreur, c'est quelque chose de compliqué.

La problématique, une fois encore, c'est le ratio d'erreur entre celui d'un LLM et celui d'un humain. Balancer des généralités n'aide en rien. Un LLM n'a pas besoin d'un ratio de 99,995% pour être utile. Il faut juste qu'il le soit plus que l'humain. Et pour certaines tâches, c'est sans doute déjà faisable. Et avec "l'amélioration" des LLM, cela le sera encore plus à l'avenir (je ne dis pas que je suis pour cet état de fait, c'est juste un constat).
votre avatar
Il faut juste qu'il le soit plus que l'humain.
Sauf qu'on ne parle généralement pas de ça (sur des tâches pro, en réalité, l'IA a plutôt tendance à bien plus se planter).
Un LLM n'a pas besoin d'un ratio de 99,995% pour être utile.
Pour réaliser des tâches répétitives des millions de fois, si. C'est pas le boulot d'un être humain, donc soit ça marche mieux que les outils automatiques actuels, soit ça sert à rien.
votre avatar
Sauf qu'on ne parle généralement pas de ça (sur des tâches pro, en réalité, l'IA a plutôt tendance à bien plus se planter).
Mais justement si ! On parle exactement de ça !! L'utilisation de LLM pour remplacer l'humain. On s'en fiche complètement de mettre un LLM là où les tâches sont déjà automatisées. Ce serait même contre productif.
Pour réaliser des tâches répétitives des millions de fois, si. C'est pas le boulot d'un être humain, donc soit ça marche mieux que les outils automatiques actuels, soit ça sert à rien.
Mais un LLM ne sert à rien là où il existe déjà des outils automatiques pour faire le taf. On parle depuis le début de LLM pour réaliser des tâches "complexes" qu'un outil automatique classique ne peut pas faire.

Pour ce genre de tâche, une fois encore, la seule métrique véritablement pertinente, c'est que le LLM fasse mieux que l'humain, et non pas un abscons taux de fiabilité sortie de nul part.
votre avatar
Mais un LLM ne sert à rien là où il existe déjà des outils automatiques pour faire le taf.
Carrément. L'automatisation fiable, prédictible et reproductible (genre du déploiement Ansible, de la CICD, etc.) n'a aucun intérêt à être remplacé par ce genre d'outil. Ils ne sont clairement pas adaptés pour ça.

La valeur ajoutée d'un outil basé sur un modèle de deep learning, c'est AMHA de répondre avec l'une des caractéristiques de l'IA. À savoir traiter une problématique avec peu d'entrants ou des données incomplètes et s'y adapter. Chose qu'un outil scripté ou déterminé ne saura pas faire car non conçu pour ça.

Faire un déploiement agentique peut paraître cool, mais perso je préfère mon playbook Ansible parce que je sais que lui, il est fiable. Par contre, le déploiement agentique pourra potentiellement s'adapter à des imprévus sur un environnement différent de celui pour lequel le playbook a été développé.
votre avatar
Pour ce genre de tâche, une fois encore, la seule métrique véritablement pertinente, c'est que le LLM fasse mieux que l'humain, et non pas un abscons taux de fiabilité sortie de nul part.
Et il n'y a rien qui prouve que ce soit le cas. Le taux de fiabilité reste important (si c'est pour faire un pouillème de % mieux que l'humain au prix de millions d'emplois en moins, c'est pas vraiment très intéressant). Sans oublier le fait que le travail humain, qui est par nature sujet à erreur (mais pas tant qu'il ne l'est fantasmé par les automatiseurs à fond les ballons) est souvent vérifié alors qu'on fait plus facilement confiance à la machine (surtout si vérifier son travail revient aussi cher - voire plus - que l'équivalent humain).
votre avatar
Et il n'y a rien qui prouve que ce soit le cas.
Mais lis tu les commentaires ? Où ai-je écris que c'était effectivement le cas ? Je dis juste qu'elle est la métrique à prendre en considération. Rien d'autre, et que ton idéal d'un LLM avec 99,9999% de fiabilité n'a aucun sens dans ce genre de contexte.
si c'est pour faire un pouillème de % mieux que l'humain au prix de millions d'emplois en moins, c'est pas vraiment très intéressant
De ton point de vue. Nous entrons ici dans des considérations morales & sociétales, qui dépassent le cadre du simple aspect technique lié à l'usage des LLM. Je ne dis pas que ce débat n'est pas intéressant (il l'est !) mais ne me semble pas du tout être le cadre du débat qui nous anime ici.
qui est par nature sujet à erreur [...] est souvent vérifié
Oui, le travail humain est souvent vérifié. Remplacer TOUTES les couches humaines par une machine, ce serait une erreur, car cela reviendrait tout bonnement à supprimer les contrôles.

Ce serait d'autant plus une erreur que les LLM ont tendance à se planter encore plus quand la complexité augmente. Et ce sont souvent les cas les plus complexes qui sont sujets à erreur. Là où un être humain prendra le temps de vérifier voire de faire vérifier par un autre collègue, la machine ne le fera pas.
votre avatar
Rien d'autre, et que ton idéal d'un LLM avec 99,9999% de fiabilité n'a aucun sens dans ce genre de contexte.
Il a un sens parce qu'il permettrait d'augmenter de plusieurs ordres de grandeurs le volume de production (enfin, à en croire les vendeurs de LLM). Si c'est effectivement pour remplacer les tâches faites par des humains sur la base de 1 pour 1, ça n'a pas de sens, mais ce n'est en général pas ça qui est fait (imagine s'il fallait le même niveau de contrôle sur des opérations faites par machine sur des lignes industrielles que pour la même quantité d'opérations faites par des ouvriers, il faudrait multiplier par 50 les effectifs).
votre avatar
Il a un sens parce qu'il permettrait d'augmenter de plusieurs ordres de grandeurs le volume de production
Non, toujours pas. Il n'y a pas besoin de 99,999% de fiabilité pour ça.

Du 1 pour 1 (dans le sens, même fiabilité) suffit amplement. Le LLM ferait la tâche certainement plus rapidement, sans se fatiguer, potentiellement 24h/24, 7j/7, 365j par an (+1 pour les années bisextiles). Rien qu'avec ça, on arrivera justement à augmenter de plusieurs ordres de grandeurs le volume de production mini x10 (et c'est vraiment une fourchette basse).
votre avatar
Et comment tu récupères une masse d'erreurs des milliers de fois au dessus de celle produite par les humains si tu n'augmentes pas la fiabilité ?
votre avatar
Tu fais des suppositions dans tous les sens, ça en devient pénible de te suivre....

Si tu crois que la quantité de données à traiter dépend de ta capacité de traitement, c'est une erreur. On se doit d'adapter la capacité de traitement à la quantité de données. La notion de producteur / consommateur en informatique.

Donc, si ton LLM permet de traiter de la même manière (1 pour 1 toujours en terme de fiabilité) à la place de je ne sais pas, 20 personnes, en quoi cela pose-t-il un problème dans la gestion des erreurs ?

Il n'y aura pas plus d'erreurs (je rappelle 1 pour 1). Et si tu n'es pas en mesure de traiter les erreurs du LLM, c'est que tu n'étais déjà pas en mesure de traiter les erreurs de personnes.

Ton LLM à 99,9999% tu n'en n'auras besoin que si tu souhaites automatiser TOUTE ta chaine pour en extraire complètement l'humain.

Un LLM n'a pas besoin d'être fiable à 99,9999% pour être utile. S'il permet de faire aussi bien voir mieux que l'humain dans certaines tâches, c'est déjà amplement suffisant.

Si tu ne comprends pas la différence entre les deux, je suis désolé, mais autant arrêter cette conversation ici.
votre avatar
Si tu ne comprends pas la différence entre les deux, je suis désolé, mais autant arrêter cette conversation ici.
Je comprends très bien la différence, c'est juste que je refuse de m'arrêter à comparer du 1 pour 1 alors que toute l'histoire montre que l'automatisation va invariablement vers une augmentation (très importante) des cadences et des volumes.

Avec l'automatisation, il n'y a pas de 1 pour 1 sur le moyen-long terme.
votre avatar
Ok. Donc tu prends UN cas particulier (parmi une infinité) pour lequel un LLM ne conviendra pas sauf à avoir un taux de 99,9999% de fiabilité et tu en conclus que les LLM sont inutiles tant qu'ils n'ont pas un taux de fiabilité suffisamment élevé.

Je vais subodorer un paralogisme (et non un sophisme) et arrêter cette conversion ici.
votre avatar
Je vais subodorer un paralogisme (et non un sophisme) et arrêter cette conversion ici.
Ça, c'est de la connerie de zet.
Donc tu prends UN cas particulier (parmi une infinité)
L'histoire montre bien qu'il n'y a jamais de 1 pour 1 avec l'automatisation.
votre avatar
« si c'est pour faire un pouillème de % mieux que l'humain au prix de millions d'emplois en moins, c'est pas vraiment très intéressant »

Je me permets une modification :
« si c'est pour faire un pouillème de % mieux que l'humain en permettant de glorieuses économies sur la masse salariale, c'est exceptionnellement intéressant pour l'employeur »
votre avatar
« si c'est pour faire un pouillème de % mieux que l'humain en permettant de glorieuses économies sur la masse salariale, c'est exceptionnellement intéressant pour l'employeur »
Le problème, c'est que l'employeur ne regarde effectivement que ta partie en gras de la phrase. Et après, il viendra couiner que son entreprise se casse la figure, et il arrivera à mettre ça sur le dos des rares employés restants.
votre avatar
80 ou 95% sont des valeurs purement arbitraires...
votre avatar
Alors pour le coup, un "if(true) return 0;", c'est fiable à 100% !

Quoi ?! Comment ça, je suis de mauvaise foi ?! 😅
votre avatar
J'ai déjà entendu parler de if true = true dans je ne sais plus quel code pour qu'un truc puisse marcher... Perso ça fait longtemps que je considère l'IT comme de la sorcellerie.

Cela dit, ça illustre aussi ce que je disais dans le fil : pour quelque chose de maîtrisé qui a besoin d'une reproductibilité et d'indempotence, les LLM ne sont pas une bonne idée. Si par contre le critère devient if maybe, alors là le LLM aura un potentiel intérêt.
votre avatar
if maybe
Random :-P (ceci dit, ça peut déjà faire une bonne baseline pour un outil intégrant un LLM : fait-il mieux ou pas que random ?)
votre avatar
Un LLM a une part d'aléatoire dans son traitement, mais tout son process repose quand même sur le mécanisme d'attention développé à l'origine par Google (qui se retrouve dans le T de GPT) qui a pour but d'extraire les éléments les plus importants du texte. L'aspect aléatoire (ou température) est ce qui permet de le rendre plus ou moins "créatif".
votre avatar
Une baseline est un scénario de comparaison, pas une base technique. Si tu conçois un algo et qu'il ne performe pas mieux qu'un simple tirage aléatoire des décisions, c'est généralement un mauvais algo.
votre avatar
Par définition quelque chose qui marche sur des mécaniques probabilistes ne sera jamais "fiable à 100%"
votre avatar
On peut s’émerveiller des prouesses de l'IA comme s'émerveille devant un chien bien dressé qui apporterait nos pantoufles devant la TV. Et ce même si de temps en temps il apporte autre chose ou s'il détériore les pantoufles.
Et ce parce qu'on a choisi d'adopter le chien et qu'on a tous plus ou moins consciences des difficultés de compréhension et motivation dudit chien.
L'IA par contre, Microsoft, et d'autres, nous l'imposent, sans possibilité ou presque de refuser. Nous obligeant à une vigilance de tous les instants pour ne pas voire fuiter nos informations. Nous faisant des promesses sur leur capacité, qui sont très loin d'être tenues, et s'étonnent que beaucoup n'en veuille pas.
Pour ma part quand je cherche une information, j'ai besoin de quelque chose de fiable, sourcé, pas d'une hallucination 40% du temps qui me fait perdre du temps en vérification.

Tant que les sociétés qui vendent de l'IA continueront à entretenir le flou sur leur capacités et limitations et à vouloir à tout prix en mettre là où c'est inutile, voir contre-productif, les gens s'y opposeront. Et c'est heureux.
votre avatar
Totalement d'accord, d'autant plus que le fait de l'imposer et d'essayer de la passer par tous les moyens la rend de plus en plus suspecte sur les intentions du fournisseur.
votre avatar
SI l'ia permet de cheater dans les jeux directx12 tout le monde l'adoptera, c'est juste qu'ils ciblent mal :)
votre avatar
Et nous ne comprenons pas Microsoft non plus 🤷‍♂️
votre avatar
Microsoft n'a jamais réussi à faire une fonction recherche de fichiers ou de contenu sur leurs OS qui soit efficace et utilisable facilement, comment leur faire confiance sur quoi que ce soit ? Ils nous ont montré à plusieurs reprise qu'ils n'utilisent pas leur propre OS et qu'ils n'ont aucune idée de ce qu'on fait avec.
votre avatar
Ça me rappelle cette blague: https://ibb.co/HZHpXPK :D
votre avatar
Old meme but it check's out

Microsoft ne comprend pas le manque d’émerveillement face à l’IA

  • Ce que veut Microsoft

  • Une réalité très différente

  • Ce que veulent les utilisateurs

  • Pourquoi tant d’IA ?

Fermer