Je confirme ce point, utilisant différents LLM au quotidien pour mon boulot (dev) : en quelques minutes on gagne quelques heures, au max, de dev. En quelques heures, quelques jours au mieux. Mais ensuite on atteint un plateau. Car il y a encore beaucoup de review, d'affinage etc à prévoir. Et arrive un moment où le LLM perd les pédales dans le contexte, ce qui oblige à démarrer un nouveau contexte (les 1M de tokens de contexte c'est surtout bon pour le marketing).
Et je rajoute que ce n'est pas la panacée en permanence. Ça excelle sur des tâches triviales, ça dépanne bien sur de la complexité et c'est un très bon canard (pour ceux qui connaissent). Mais ce n'est pas non plus un miracle.
Encore cette semaine j'ai bossé sur une feature estimée à 50h de dev. On l'a tombé en 34h environ, avec l'aide d'OpenCode (et malgré quelques difficultés au démarrage). C'est loin d'être négligeable. Mais nous sommes loin des quelques minutes pour plusieurs jours de gain.
« Encore cette semaine j'ai bossé sur une feature estimée à 50h de dev. On l'a tombé en 34h environ, avec l'aide d'OpenCode (et malgré quelques difficultés au démarrage). C'est loin d'être négligeable. Mais nous sommes loin des quelques minutes pour plusieurs jours de gain. »
En bien si, justement, très bel exemple. La génération du code qui vous a fait gagner 16h elle a pris combien de temps ? Je pense que ce n’est même pas en minutes et elle vous a fait gagner 3/4 d’une journée.
Et encore je pense que c’est parce que le code est encore médiocre en sortie de LLM, sauf que ceux ci ne font que s’améliorer. Bientôt vous verrez que le plus long sera la relecture, pas la correction.
C’est quand même assez dingue de m’expliquer que ces outils vous font gagner environ 30% de productivité mais qu’ils sont bof bof, 30% !!!!
je pense que tu sous-estimes énormément les gains -monstrueux- de temps que font gagner les LLM, encore pire si tu code.
Tu parlais de quelques minutes d'usage d'un LLM pour des tâches allant à plus d'un mois pour un humain.
Avec le temps de vérification / correctifs nécessaires, et en conditions réelles d'utilisation, je ne vois pas vraiment de cas où un tel ratio existe de manière stable. Plusieurs minutes pour plusieurs heures ça se fait, plusieurs heures pour plusieurs jours de taff également, mais quelques minutes pour plusieurs semaines ou mois pas vraiment.
C'est d'ailleurs cohérent avec les benchmarks (qui valent ce qu'ils valent évidemment) où un LLM dépasse rarement les performances d'un humain à ce stade pour des tâches de longues haleines à partir d'une journée de travail.
Donc non je ne pense pas que je sous estime ces systèmes, j'ai lu pas mal de retours à ce sujet, les gains sont réels ou parfois mitigés (donc parfois positifs, parfois négatifs) selon les gens et domaines. Je n'ai pas vu de tels ratios.
Ci-joint un des articles que j’avais lu sur lequel je suis retombé qui explique que les LLM ne consomment déjà pas beaucoup plus qu’une recherche Google, aujourd’hui
En gros les modèles lourds consomment entre 0,3Wh et 0,2Wh et la consommation en locale des modèles légers passe entre 0,01 et 0,05 Wh
C’est déjà très très léger, on se rapproche de l’ordre de grandeur de la consommation de ton téléphone pour lire mon commentaire.
Écrire un texte avec chat GPT aujourd’hui est sans doute déjà moins energivore que de l’écrire soit même sur ordinateur.
Et ça c’est sans compter l’énergie humaine pour écrire ou lire les messages car si on veut vraiment rire, un humain c’est 100Wh, et certes on n’est pas rechargés avec une prise, mais ce qu’on mange aussi a un fort bilan carbone.
Je confirme ce point, utilisant différents LLM au quotidien pour mon boulot (dev) : en quelques minutes on gagne quelques heures, au max, de dev. En quelques heures, quelques jours au mieux. Mais ensuite on atteint un plateau. Car il y a encore beaucoup de review, d'affinage etc à prévoir. Et arrive un moment où le LLM perd les pédales dans le contexte, ce qui oblige à démarrer un nouveau contexte (les 1M de tokens de contexte c'est surtout bon pour le marketing).
Et je rajoute que ce n'est pas la panacée en permanence. Ça excelle sur des tâches triviales, ça dépanne bien sur de la complexité et c'est un très bon canard (pour ceux qui connaissent). Mais ce n'est pas non plus un miracle.
Encore cette semaine j'ai bossé sur une feature estimée à 50h de dev. On l'a tombé en 34h environ, avec l'aide d'OpenCode (et malgré quelques difficultés au démarrage). C'est loin d'être négligeable. Mais nous sommes loin des quelques minutes pour plusieurs jours de gain.
Si YouTube se lançait maintenant les questions sur la consommation des data centers de Google serait sans doute plus forte, surtout quand on voit les centaines de millions d’utilisateurs qui streament une vidéo pour juste écouter de la musique.
On peut déplorer le gâchis dans Youtube oui, l'un n'empêche pas l'autre, le but n'est pas de dire qu'il n'y a pas moyen de faire mieux ailleurs. Un peu comme le fait de déplorer la consommation abyssale d'un avion pour un trajet dispensable n'empêche pas de critiquer l'utilisation de yatch en même temps.
Je regrette par ailleurs que Youtube (et consorts) ne permette pas de couper le flux vidéo quand l'utilisateur n'en a pas besoin car seul le son l'intéresse.
Mais un serveur de Youtube peut desservir en simultané beaucoup d'utilisateurs car streamer de la vidéo c'est avant tout un problème de bande passante et de latence plus que de calcul ou de RAM. Tu peux facilement mettre en cache les vidéos les plus populaires, bouger certaines vidéos d'un datacenter à l'autre pour limiter les transferts intercontinentaux, etc.
Un LLM répond à des requêtes trop spécifiques et consomme trop de ressource sur une machine pour que cela soit possible. D'où les besoins massifs en GPU, serveurs et énergie car la mutualisation est plus basse. C'est la mutualisation qui a permis le développement du Cloud avec des infras à la demande qui limitent les besoins d'avoir énormément de machines pour gérer les pics d'utilisation car on peut lisser.
De même pour les machines, de part l'usage de modèles gourmands, il faut renouveler le matériel régulièrement et l'ancien devient obsolète. Un serveur qui fait du streaming toute la journée peut facilement tenir plus longtemps et peut facilement servir à une autre tâche en interne comme ailleurs. Des gros GPU comme ça qui ont quelques années ont moins de possibilités de reconversion ce qui génère une pollution importante.
C’est également difficile au vu du gain de vitesse absolument abyssal sur certaines tâches, ou les LLM produisent en quelques minutes des jours/semaines/mois de travail traditionnel et dans ce cas il est certain que leur consommation est marginale.
Les cas d'usage où le gain de temps est si important restent rares à ce jour, et quand je vois la majorité des usages dans mon entourage, le plus gros c'est pour des tâches qui :
* Sont faisables avec un autre outil plus performant (genre recherche web classique, cas le plus courant de mon point de vue) ; * Ne l'auraient pas fait car le faire eux mêmes ou demander à quelqu'un est trop long / pénible / trop chers pour un besoin qui n'en mérite pas tant -> effet rebond avec création d'un besoin ; * Ne sont vraiment pas utiles (mode Ghibli, starters parks, créer des images juste pour jouer avec, etc.)
Bien sûr il y a des usages légitimes, qui ont même potentiellement un gain environnemental par rapport à des méthodes plus "traditionnelles". Mais ce n'est pas le cas d'usage dominant, et on peut le regretter que tout cet argent et énergie soit gaspillé.
Ce qui ne veut pas dire que les LLMs sont le seul domaine du numérique qui mérite une telle critique, mais il ne faut pas utiliser cela comme excuse pour ne pas questionner l'impact des LLMs. Comme pour tout le reste.
Et oui, on a quand même pas mal d'indices que l'impact environnemental de ces machines n'est pas un détail et que de fait leur usage devrait se faire avec parcimonie et non en mode "osef".
« Les cas d'usage où le gain de temps est si important restent rares à ce jour »
Non, clairement pas.
En vrai on est d’accord sur le fond. Je sous estime peut être la consommation réelle mais je pense que tu sous-estimes énormément les gains -monstrueux- de temps que font gagner les LLM, encore pire si tu code.
Je n’ai pas dit que ça ne consommait rien, mais que c’est difficile de comparer à ce qui est fait sans LLM, basé sur des technologies implantées avant que l’enjeu environnemental soit scruté comme il l’est aujourd’hui. Si YouTube se lançait maintenant les questions sur la consommation des data centers de Google serait sans doute plus forte, surtout quand on voit les centaines de millions d’utilisateurs qui streament une vidéo pour juste écouter de la musique.
C’est également difficile au vu du gain de vitesse absolument abyssal sur certaines tâches, ou les LLM produisent en quelques minutes des jours/semaines/mois de travail traditionnel et dans ce cas il est certain que leur consommation est marginale.
Alors certes, la consommation d’un LLM pour produire une illustration de famille en style studio Ghibli est sans doute excessive, mais ces consommation même massives ne sont pas nécessairement démesurées, même en face de services informatiques différents.
La nouveauté est effectivement qu’on peut potentiellement faire travailler des LLM « à l’infini » pour les spécialiser sur tel ou tel usage, et que dans ce cadre, la consommation est un enjeu de croissance et de compétitivité de ces sociétés, qui peuvent se faire dépasser par un conçurent même logiciellement moins bon juste via une consommation électrique supérieure.
Mais c’est la guerre du futur des grosses boites d’IA, ce n’est pas ce qui se passe dans l’immédiat. Et d’ailleurs c’est un sujet où la France leader de la production électrique nucléaire en Europe aura un atout non négligeable à jouer dans la guerre de croissance que se livreront les sociétés d’IA dans quelques années.
Et pour finir, des sujets de production d’électricité nucléaire dédiée aux gros data center existaient bien avant OpenAI, c’est juste que dans leur cas, c’est l’horizon de compétitivité.
Mouais, "dire on ne sait rien" est bien pratique mais ce n'est pas vrai et avec un peu de raisonnement on peut même déduire des choses malgré le manque de transparence.
On a des infos dans ce genre d'articles aussi par exemple : https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/
Déjà il y a eu des études relayées ici même de mémoire où globalement utiliser une IA type ChatGPT par rapport à un moteur de recherche c'est un ordre de grandeur plus élevés en terme de consommation. En même temps, c'est logique.
* Un LLM qui fait des recherches utilise de fait un moteur de recherches, donc les impacts s'accumulent ; * Un LLM qui ne fait pas de recherches a quand même besoin de beaucoup de puissance de calcul avec peu ou pas de possibilités de mise en cache des résultats par rapport à un moteur de recherche classique le tout tournant sur des configs plus musclées -> plus consommateur en ressources.
Ensuite, raisonnons un petit peu autour de cette problématique.
Déjà les GAFAM diminuaient doucement leurs émissions et avaient un plan de neutralité carbone (contestable dans la méthodologie mais cela n'a pas d'importance dans le raisonnement). Bizarrement depuis l'avènement des LLM ils reviennent en catimini sur ces engagements et ces trajectoires avec justement des rebonds records. Chose qui n'est pourtant pas apparue par le passé avec le Cloud ou la VOD par exemple car souvent les gains énergétiques et d'optimisations ont contre balancé ces rebonds d'usage. Ici ce n'est pas le cas et c'est un signe fort qu'on est face à impact environnemental bien plus important qu'avant.
Par ailleurs, le manque de transparence est une information en soi. Si l'impact était nul, négligeable ou plus faible que des usages classiques des infrastructures des GAFAM, ils le crieraient sur tous les toits depuis le début. Ce serait du greenwashing à pas cher. Le fait qu'ils ne révèlent rien ou très peu pour la plupart est plutôt un indicateur que les données ne vont pas dans ce sens à l'heure où les enjeux environnementaux sont importants. C'est même pire, jusqu'ici les promesses environnementales sont hypothétiques, genre les LLM pourraient aider à résoudre les problèmes environnementaux. C'est peut être vrai, mais on n'en sait rien et cela traduit surtout qu'aujourd'hui ça n'aide pas, sinon ils le diraient déjà.
On peut le deviner par d'autres éléments. Tout d'abord un LLM ça tourne sur des configurations plus musclées qu'un serveur classique. Car en fait il faut un ordinateur comme les serveurs précédents mais aussi un gros GPU qui étaient souvent absent ou minimal. Et cela nécessite des racks qui consomment plus qu'avant. Serveurs qui sont moins mutualisés aussi, le LLM a besoin de beaucoup de mémoire et de puissance pour tourner ce qui réduit la consommation en parallèle où beaucoup d'usages des clouds sont largement parallélisable. C'est pourquoi d'ailleurs on a régulièrement des moments où les LLM sont en performances réduites car trop de charge, que les fournisseurs poussent des cas d'usage type "envoie ta requête, tu as la réponse dans 15 minutes" ou encore "prix réduit par token en heure creuse". Des logiques qui existaient moins avant car beaucoup d'usage sont finalement légers et plus limités par les latences d'entrées / sorties (réseau et disques) que de calcul et mémoire.
Cela se voit aussi par les annonces en investissements. On parle d'investissements faramineux bien au delà de ce qui a été consenti pour les infrastructures actuelles en si peu de temps. Et cet argent sert à... acheter des GPU qui vont vivre probablement peu de temps et qu'il faudra renouveler très régulièrement. Ce qui est consommateurs en ressources énergétiques mais aussi métaux, etc. Contrairement à un serveur de Google qui peut facilement être recyclé en interne ou externe pour d'autres usages facilement, ces GPU n'auront pas dans un tel volume une seconde vie, cela paraît très improbable car ces machines sont adaptés pour des besoins très spécifiques.
Les investissement dans l'énergie nucléaire ou d'autres grosses centrales est aussi plutôt inédit à cette échelle. Cela ressemble presque à des pratiques qu'on retrouve dans l'industrie lourde. Pour le Cloud ils n'avaient bizarrement pas besoin d'investir autant dans l'infrastructure énergétique autour de leurs data centers. Cela montre un changement d'échelle alors même que les LLM sont loin d'avoir autant d'utilisateurs que d'autres usages aujourd'hui.
Bref, je pense qu'on a au contraire suffisamment d'élément pour dire que le bilan environnemental de ces systèmes est médiocre, mais je suis pour évidemment plus de transparences acteurs sur ces sujets (comme d'autres, car le manque de transparence des LLM c'est à tous les étages). Et de la recherche indépendante.
Je n’ai pas dit que ça ne consommait rien, mais que c’est difficile de comparer à ce qui est fait sans LLM, basé sur des technologies implantées avant que l’enjeu environnemental soit scruté comme il l’est aujourd’hui. Si YouTube se lançait maintenant les questions sur la consommation des data centers de Google serait sans doute plus forte, surtout quand on voit les centaines de millions d’utilisateurs qui streament une vidéo pour juste écouter de la musique.
C’est également difficile au vu du gain de vitesse absolument abyssal sur certaines tâches, ou les LLM produisent en quelques minutes des jours/semaines/mois de travail traditionnel et dans ce cas il est certain que leur consommation est marginale.
Alors certes, la consommation d’un LLM pour produire une illustration de famille en style studio Ghibli est sans doute excessive, mais ces consommation même massives ne sont pas nécessairement démesurées, même en face de services informatiques différents.
Ils perdent de l'argent, certes, mais ils n'ont pas encore (officiellement) ajouté de publicités ou autre dans leurs produits. Beaucoup de boîte pourraient payer très cher pour que ChatGPT recommande d'acheter un PC ou une TV de leur marque, plutôt que celle du concurrent.
Vu le prix par mois des versions payantes, encore heureux 🤫
Le soucis c'est que les LLM actuellement sont utilisés beaucoup pour des tâches qui sont souvent largement faisables sans ou avec des outils plus efficients. Donc se poser la question de l'optimisation des ressources est usage aujourd'hui est pertinent car on a déjà des problèmes actuellement pour limiter les dégâts environnementaux en cours.
Alors que les progrès substantiels dans la santé, l'environnement, etc. promis restent à prouver et ne semblent pas à portée à court terme et restent hypothétiques à long terme.
Perso cela ne me gène pas qu'il y ait de la recherche de pointe sur ces sujets, car si gain substantiel il y a c'est super. Je rapprocherais cela de la fusion nucléaire, on ignore si ça marchera mais ça vaut probablement le coup d'essayer. Mais cela ne doit pas servir d'excuse pour polluer avec des centrales à charbon à côté car de la recherche est en cours pour la fusion.
Alors qu'ici on survend ces technos dont la plupart des usages sont peu utiles voire nuisibles et on affiche avec fierté qu'on peut générer des starters pack avec. Super, ce n'est pas vraiment ce qui était la promesse initiale et on peut se poser la question de la pertinente de tout ceci et si ça vaut le coup avec une telle disponibilité.
Le vrai sujet c’est que probablement personne sur ce forum n’est capable d’évaluer correctement le coût énergétique d’un token par rapport à celui d’une recherche Google ou celui, sans doute largement supérieur, à la lecture d’une vidéo en streaming.
Dans une économie de l’attention, peut être la génération de starters packs a gaspillé plus de ressources que ce qu’auraient fait d’autre les gens, peut être pas, on en sait rien.
Abonné Free pro je tiens à dire que nous en sommes très satisfait (PME < 20 personnes en zone dense)
Le débit est stable et surtout aucun peering. Nous avions une offre grand public avant et les débits réels étaient catastrophiques à certaines heures où sur certains usages.
Avec l’achat d’un Switch tout le bureau est en 10/2,5 Go/s et le confort est quand même assez hallucinant. Mais le peering devient très visible.
La vitesse est sans doute dû au fait que Free pro utilise le réseau jaguar et non Free
Le pb c'est que ce sera du 8GB/s entre la box et le NRA... Chez Free le reste ne suivra pas et probable qu'ils ne soient pas un cas isolé à ces niveaux d'ailleurs. Bref, c'est une offre marketing sans cohérence globale. Reste le backup sur réseau mobile et là... bin le pro qui compte dessus "s'il a free il a pas tout compris"!
Ben non. Dans ma boîte j’ai installé tous les postes en 2,5 ou 10Gb
En l’occurrence avec Free Pro j’ai du 8Gb/s direct sur mon poste.
Je me demande s’il n’y a pas un créneau sur le marchés des entreprises où il est courant d’acheter des téléphones chers pour un usage finalement assez simples.
La durée des mise à jour système serait un argument supplémentaire pour la durabilité de la flotte.
Même si Microsoft et Google vendent un peu de matériel (qu’ils ne fabriquent pas plus qu’Apple), ils vendent beaucoup plus de service qu’Apple.
Et la R&D et les services de marketing et de vente d’Apple sont concentrés sur peu de produits. Cela est comme il l’a dit moins influencé par des ventes plus faibles (le travail est à peu près le même quel que soit le niveau d evente. Pour des services numériques ou du cloud, il faut à la fois innover mais aussi gérer les data centers, faire du support, les effectifs de ces activités suivent plus les évolutions de la demande.
Alors je ne veux pas dire, mais la SEULE boîte des trois qui possède du retail c’est Apple. Leurs 500 magasins doivent représenter entre 1⁄3 et 1⁄2 de leurs salariés (a vue de nez)
Sur le papier ils seraient les plus à même de licencier en masse, puisque des magasins vides c’est de la perte et particulièrement facile à justifier en organisant des pertes aux filiales.
Virons Satya qui a recruté +80k salariés depuis le covid, mais ce gros NUL a oublié pas prévoir la guerre en Ukraine et les diverses crises qui plombent leurs clients, et doit donc en virer 10k. Vraiment, quelle honte à lui.
Pauvre boîte dépendante de la vente de son hardware dont le prix a explosé à cause des méchants russes … Si seulement ils pouvait pivoter et se concentrer sur les services …
Les américains trouvent notre système détestable car ne pouvant pas débaucher ,du coup on ne veut pas embaucher car ça implique des engagements à long terme Chacun voit midi à sa porte
Je sais bien. Je suis contre le système américain inhumain, mais le système français est atroce pour les sociétés souffrant de surcoûts temporaires (au hasard le coût de l’énergie) et qui manquent de liquidités. Très très dur.
Moi je suis pour pour taxer le licenciements des groupes à profits (bénéfices non filialisables) pour permettre de limiter les frais de licenciement des groupes en perte pour les aider à ne pas liquider.
Bonus/malus à l’emploi. Ça encouragerait les sociétés rentables à l’innovation/reconversion et cette mesure sauverait en ce moment des milliers de boîtes françaises.
Ces jugements dignes de Gérard pilier du PMU sont d’un risible … Aucune connaissance, tes affirmations sont réfutées, mais tu as quand même raison. C’est beau.
Je te laisse regarder ici les messages des gens qui sont touchés, et réévaluer ta grande sagesse : LinkedIn
Dire qu’une boîte qui licencie 10000 personnes représentant ~1% de son bénéfice c’est moche c’est du jugement à la petite semaine ?
Non c’est un avis et je pense qu’il est tout aussi respectable et motivé que le tien… Que sais tu sur moi, mon parcours et mes « connaissances » ?
Salaire moyen peut être pas, mais selon la localisation et le poste, ça peut même être le salaire d entré. A Seattle par exemple, la plupart des ingénieurs junior qui viennent de rejoindre la boîte sont à 120k\( salaire de base + 25k\) bonus. Et pour savoir à peu près ce que coûte à la boîte, tu fais x1.3. Donc 145*1.3 = 189k$ par employé
Donc 140 000€ par employé, ça me paraît plutôt juste. Ça peut bien sûr être sous estimé ou surestimé selon le pays et le profil des employés impactés.
Ca n’est pas encore acté pour le rachat d’Activision… Mais peu importe je trouve que parler de manque de responsabilités sans expliquer pourquoi, ben ça ne veut rien dire… Responsabilités par rapport à qui ? Comment ? etc. Je pense qu’on est loin d’être assez compétents et surtout pas informés des raisons pour lesquelles tout ça se fait, et faire une telle affirmation c’est du jugement à l’emporte-pièce, facile à faire de nos positions externes. A moins que d’avoir des infos que personne n’a ? Et dans ce cas ça serait sympa de justifier de telles critiques… 😊
Embaucher et débaucher à la petite semaine c’est clairement du manque de responsabilité.
Gamble a dit:
10000 salariés, ça doit plutôt tourner autour de 1.4 milliards, à raison de 140k$ par tête
Je doute très très très fortement que 140 000 € soit le salaire moyen des employés de Microsoft 😂
Une entreprise ne vit malheuresement pas pour ses salariés mais pour ses propriétaires. Et pour que l’entreprise survive, il faut faire des choix stratégiques : se renforcer dans le jeux vidéo, économiser dans les secteurs moins rentable.
Ce n’est pas très humain c’est vrai, mais dès qu’une entreprise dépasse une certaine taille, l’Humain n’est plus au centre des préoccupations.
Merci je suis au courant : je suis moi même chef d’entreprise. Mais ici il n’est pas question de survie de l’entreprise, juste de croissance du bénéfice.
En l’occurence, le cout de ces 10 000 salariés doit tourner dans les 500 millions d’euros annuels, soit 0,7% de leur bénéfice NET ! (EDIT à 1,2 M. on parle de 1,7% quelle tuile )
Un bon gestionnaire fait plus avec plus, pas plus avec moins. Trouver des relais de croissance en utilisant ces 10 000 salariés serait de l’investissement, les vider sans sommation à comme simple but un retour sur investissement rapide. C’est déplorable.
Surtout qu’au même moment le board valide une dépense de 70 milliards pour racheter une autre entreprise …
Okay merci. C’est étrange de laisser libre une API qui permet d’outre-passer les pub’… Ils avaient vraiment pas envie d’être rentable l’ancienne équipe. Imho l’API reviendra avec un abonnement ce qui est plus cohérent. Abonnement qui empêchera pas la création d’applis tierces ou de faire des études. ;-)
Tu peux télécharger une archive et donc migrer les données ailleurs si ça te change (bon chance). Elle dit quoi exactement cette DSA ?
Rien, mais vraiment RIEN ne les empêche de sortir une API intégrant les tweets publicitaires.
Leur seul petit tweet de justification dit que les applications ne respectent pas les règles. On les cherche encore ces fameuses règles …
Je crois que cette nouvelle application device ne permet pas de synchroniser sa musique. car j’ai l’impression que l’application musique est juste un player de leur plateforme de streaming.
Après je n’ai pas d’iPhone avec de la musique « exotique » pour essayer …
Itunes impose de sauvegarder les appareils sur le disque C, est ce que Device permet de changer de disque ? Si j’ai de la musique dans mon Iphone je dois installer Musique et Device ou Device suffit ?
TV et musique sont surtout des clients permettant de proposer des services payants d’Apple sur PC, pas grand chose à voir avec l’iPhone en fait.
Je veux pas tatillonne mais capteur 50% plus gros prendra BEAUCOUP plus de lumière à focale 1,78 qu’un petit capteur à focale 1,5. En X1 ca sera bcp mieux et le X2 n’est qu’un plus par rapport au système de l’an dernier.
Moi ce que je trouve gênant c’est justement la stagnation atroce du “téléobjectif” qui reste médiocre, peu lumineux, et qui va être encore plus laid a coté du X2 en 12MP natif.
La rumeur veut que les iPhone passe en USBC et periscope l’an prochain, tant mieux.
Je parlais du S7 qui a un écran OLED, le coût en batterie était très marginale. En 2016.
Ca m’étonnerais que ce fut aussi marginal que 0,5% à l’époque. Les premiers OLED consommaient pas mal car leur la luminosité minimale était quand même assez élevée (oui les noirs étaient noirs, mais les blancs bcp trop forts)
D’ailleurs j’ai retrouvé l’article, les 0,5% c’est par HEURE. Et encore, en réalité, ils tournent autour des 12⁄14% de batterie consommés en 18h. soit quasiment % de batterie par jour Oui ca baisse quand le téléphone est dans un sac, mais sinon car consommait à blinde.
1- sans doute déjà parce qu’ils le peuvent , tout simplement. Leur puce graphique consomme tellement peu qu’ils peuvent la multiplier à volonté.
(Les rumeurs qui avaient juste sur le M1Max annoncent une partie graphique à 128 cores pour le Mac Pro)
2- oui pour certains usages pro de niche, c’est extrêmement utile ! (J’ai ai besoin par exemple pour du rendu 3D)
3- les génies du marketing d’Apple ont réussi à maquiller ce qui n’est qu’une option graphique (le M1Max n’améliore le M1Pro que sur la partie graphique) en tout nouveau processeur incroyable. Les gens se jetteront dessus bien plus que sur un upgrade de carte, malin 😂
Ajoutons la TVA aussi ! Non mais ces pauvres qui osent faire sombrer l’économie française en achetant du material d’occasion, quel honte, quelle haine de la France 🇫🇷
Non mais évidemment que l AppStore fait des bénéfices … Le taxe PlayStation store ou Nintendo aussi c’est sans aucun doute >80% bénéfices puisque c’est une taxe d’entrée. Je ne pense pas que le bénéfice de l’AppStore soit un angle d’attaque correct.
De même, la « faible » part d’IOS rend Apple assez protégé de l’argument de la position dominante de l’OS. Et les attaquer sur le fait qu’ils sont dominants dans le chiffre d’affaire des store c’est pire, ça les renforce. Ca prouve la « justesse » de leur politique de vente au utilisateurs d’une sécurité auxquels les gens adhèrent puisqu’ils achètent sur iOS et pas sur Android.
Je pense que le problème est qu’ils s’exonèrent d’une taxe de 30% sur les mêmes produits que leur conçurents sur le même store. C’est forcément problématique puisque cela sous entend qu’ils sont les seuls à pouvoir faire du bénéfice si celui du secteur est communément inférieur à 30%. Du coup ils poussent leurs concurrents à être plus chers (augmentant le % d’apple, double gain) et donc moins compétitifs par rapport à leur service interne. C’est un abus de position.
Soit ils changent les conditions pour les secteurs où ils proposent une concurrence interne soit ils doivent arrêter de fournir un produit profitant d’une croissance vampirique liée à un avantage anti-concurrentiel.
Je pense qu’ils feront évoluer le store sur les applis en concurrence au moins.
Alors on peut avoir deux types de ports ce n’est pas interdit. J’ai fait mon choix, je préfère quand même garder mon mac mais j’ai le droit d’expliquer que l’absence de ports USBA est handicapante au quotidien !
C’est mon opinion, et j’ai encore je droit de penser que l’absence d’USBA est une régression majeure de qualité d’usage.
Quand je mes talents de divination, des pirates ont récupéré les plans d’usines des prochaines produits, font chanter Apple et on publié le plan du châssis du futur MBP ou l’on voit le retour du SD + HDMI.
Mais ça revient au même pendant une période de transition… Soit tu as des adaptateurs pendant qq années le temps que tes vieux appareils rendent l’ame, soit tu en as pour brancher tes nouveaux appareils sur les vieux ports… Apple fait presque toujours le choix de privilégier l’avenir, c’est comme ça. Si c’est un problème pour toi, il y a fort heureusement plein d’autres constructeurs qui vendent encore des machines avec des ports du 20e siècle.
Ben non ça revient pas au même du tout.
J’ai un portable Full USB C depuis 4⁄5 ans, c’est toujours l’horreur au quotidien. Tu n’a jamais le dongle qui faut dans le sac qui faut c’est juste casse bonbon.
On est pas en 1999, les périphériques que l’on possède sont durables, un disque externe ne claque pas en 2 ans, mes clefs logiciels n’existent pas en USB-C, ma souris est toujours USB A et je n’ai pas prévu de la changer.
Alors tu as raison, je peux changer tous mes périphériques, mais c’est encore plus cher et encore moins écologique (et la même boite nous en fait des caisses sur le miracle écologique de ne plus mettre de bloc de charge dans les iPhone)
Vu qu’il y a la place POURQUOI ne pas laisser un seul port USB-A a part nous forcer à tout racheter ? A la limite quand tous les ports sont Thunderbolt je peux comprendre, mais sur cet iMac avec 2 ports en simple USB3 c’est un choix purement marketing pour vendre des dongle ou forcer au renouvellement des périphériques $$$$$ D’ailleurs ils savent tellement que c’est casse bonbons, que le MacBook Pro va réintégrer un port HDMI et SD Card sur la prochaine version.
alors je sais pas trop ou la chaleur se dissipe vu qu’il n’y a pas d’aération sur le côté ?
et le problème de throttling est très présent sur les m1
Les aérations sont dessous comme sur les macs intel d’aujourd’hui. Et non le M1 ne throttle pas DU TOUT sur les machines ventilées.
Les W du processeur c’est une dissipation thermique. Un 5800 fait 105W si j’ai bien lu, un M1 c’est 15W
Je te laisse imaginer lequel va throttle le plus vite.
Le simple fait de POUVOIR en faire une machine fannless c’est hallucinant mais évidemment que sans ventilateur et dans des cas extrêmes il pourra se mettre à ralentir légèrement.
A l’inverse les tests du MacBook Air M1 ont montré qu’en usage extrême, son throttling était réel mais extrêmement minime avec des écarts < 10% avec la version ventilée.
159 commentaires
Modifié le 22/08/2025 à 06h15
C'est loin d'être négligeable. Mais nous sommes loin des quelques minutes pour plusieurs jours de gain. »
En bien si, justement, très bel exemple.
La génération du code qui vous a fait gagner 16h elle a pris combien de temps ? Je pense que ce n’est même pas en minutes et elle vous a fait gagner 3/4 d’une journée.
Et encore je pense que c’est parce que le code est encore médiocre en sortie de LLM, sauf que ceux ci ne font que s’améliorer.
Bientôt vous verrez que le plus long sera la relecture, pas la correction.
C’est quand même assez dingue de m’expliquer que ces outils vous font gagner environ 30% de productivité mais qu’ils sont bof bof, 30% !!!!
Modifié le 22/08/2025 à 06h14
https://3615vincent.com/chatgpt-consomme-autant-quune-recherche-google/
Google vient vient de publier un papier sur les résultats techniques de Gemini, la requête moyenne est passée chez eux à 0,24 Wh.
En gros les modèles lourds consomment entre 0,3Wh et 0,2Wh et la consommation en locale des modèles légers passe entre 0,01 et 0,05 Wh
C’est déjà très très léger, on se rapproche de l’ordre de grandeur de la consommation de ton téléphone pour lire mon commentaire.
Écrire un texte avec chat GPT aujourd’hui est sans doute déjà moins energivore que de l’écrire soit même sur ordinateur.
Et ça c’est sans compter l’énergie humaine pour écrire ou lire les messages car si on veut vraiment rire, un humain c’est 100Wh, et certes on n’est pas rechargés avec une prise, mais ce qu’on mange aussi a un fort bilan carbone.
Modifié le 10/08/2025 à 23h23
Modifié le 10/08/2025 à 18h42
Non, clairement pas.
En vrai on est d’accord sur le fond. Je sous estime peut être la consommation réelle mais je pense que tu sous-estimes énormément les gains -monstrueux- de temps que font gagner les LLM, encore pire si tu code.
Le 10/08/2025 à 15h37
Mais c’est la guerre du futur des grosses boites d’IA, ce n’est pas ce qui se passe dans l’immédiat. Et d’ailleurs c’est un sujet où la France leader de la production électrique nucléaire en Europe aura un atout non négligeable à jouer dans la guerre de croissance que se livreront les sociétés d’IA dans quelques années.
Et pour finir, des sujets de production d’électricité nucléaire dédiée aux gros data center existaient bien avant OpenAI, c’est juste que dans leur cas, c’est l’horizon de compétitivité.
Le 10/08/2025 à 15h31
Si YouTube se lançait maintenant les questions sur la consommation des data centers de Google serait sans doute plus forte, surtout quand on voit les centaines de millions d’utilisateurs qui streament une vidéo pour juste écouter de la musique.
C’est également difficile au vu du gain de vitesse absolument abyssal sur certaines tâches, ou les LLM produisent en quelques minutes des jours/semaines/mois de travail traditionnel et dans ce cas il est certain que leur consommation est marginale.
Alors certes, la consommation d’un LLM pour produire une illustration de famille en style studio Ghibli est sans doute excessive, mais ces consommation même massives ne sont pas nécessairement démesurées, même en face de services informatiques différents.
Le 10/08/2025 à 09h56
Le 10/08/2025 à 09h54
Passé la phase d’aprentissage, on voit que certains modèles tournent sur des configurations particulièrement légères.
Le 10/08/2025 à 09h53
Dans une économie de l’attention, peut être la génération de starters packs a gaspillé plus de ressources que ce qu’auraient fait d’autre les gens, peut être pas, on en sait rien.
Le 10/08/2025 à 09h48
Le 16/01/2025 à 07h17
Le débit est stable et surtout aucun peering.
Nous avions une offre grand public avant et les débits réels étaient catastrophiques à certaines heures où sur certains usages.
Avec l’achat d’un Switch tout le bureau est en 10/2,5 Go/s et le confort est quand même assez hallucinant. Mais le peering devient très visible.
La vitesse est sans doute dû au fait que Free pro utilise le réseau jaguar et non Free
Modifié le 16/01/2025 à 07h12
Je ne dis pas qu’il n’y a pas de pb, juste que c’est sans doute abusif de généraliser.
Dans le milieu pro tu peux avoir quelques énervés TRÈS TRÈS sonores.
Le 16/01/2025 à 07h10
Dans ma boîte j’ai installé tous les postes en 2,5 ou 10Gb
En l’occurrence avec Free Pro j’ai du 8Gb/s direct sur mon poste.
Le 16/01/2025 à 07h09
Je demande à mon technicien
Le 25/09/2023 à 20h23
Au revoir président 🫡
Le 06/06/2023 à 12h31
Vu que le nouveau à le même design, j’imagine qu’elles sont toujours en vente 😝
Le 30/05/2023 à 05h44
Non mais la liberté d’expression ! 🤡
Notons que visiblement Twitter accepte désormais la grande majorité des demandes étatiques, même non réglementaires sans s’y opposer.
Reste à savoir si c’est par complaisance ou par manque de personnel.
Le 25/01/2023 à 18h01
Je me demande s’il n’y a pas un créneau sur le marchés des entreprises où il est courant d’acheter des téléphones chers pour un usage finalement assez simples.
La durée des mise à jour système serait un argument supplémentaire pour la durabilité de la flotte.
Le 23/01/2023 à 18h37
Alors je ne veux pas dire, mais la SEULE boîte des trois qui possède du retail c’est Apple. Leurs 500 magasins doivent représenter entre 1⁄3 et 1⁄2 de leurs salariés (a vue de nez)
Sur le papier ils seraient les plus à même de licencier en masse, puisque des magasins vides c’est de la perte et particulièrement facile à justifier en organisant des pertes aux filiales.
Le 23/01/2023 à 11h23
Merci de confirmer mon propos
Le 23/01/2023 à 10h30
Sinon tu peut arrêter de taper sur les gens ? Ça fait la deuxième fois que tu me critiques personnellement
Le 23/01/2023 à 08h25
Pauvre boîte dépendante de la vente de son hardware dont le prix a explosé à cause des méchants russes …
Si seulement ils pouvait pivoter et se concentrer sur les services …
Oh wait
Le 23/01/2023 à 08h00
Vous avez raison c’est une bonne décision qui prouve un management adapté et un vrai sens du leadership. Une vrai vision d’entreprise.
Quel honte que le rédacteur ne l’ait pas noté 🤔
Le 20/01/2023 à 20h06
Perso je ne trouve pas que les clients alternatifs soient un « service similaire » au client officiel
Le 20/01/2023 à 20h04
Je sais bien.
Je suis contre le système américain inhumain, mais le système français est atroce pour les sociétés souffrant de surcoûts temporaires (au hasard le coût de l’énergie) et qui manquent de liquidités. Très très dur.
Moi je suis pour pour taxer le licenciements des groupes à profits (bénéfices non filialisables) pour permettre de limiter les frais de licenciement des groupes en perte pour les aider à ne pas liquider.
Bonus/malus à l’emploi.
Ça encouragerait les sociétés rentables à l’innovation/reconversion et cette mesure sauverait en ce moment des milliers de boîtes françaises.
Le 20/01/2023 à 19h50
Dire qu’une boîte qui licencie 10000 personnes représentant ~1% de son bénéfice c’est moche c’est du jugement à la petite semaine ?
Non c’est un avis et je pense qu’il est tout aussi respectable et motivé que le tien… Que sais tu sur moi, mon parcours et mes « connaissances » ?
Si mon commentaire est idiot le tien est odieux …
Le 20/01/2023 à 06h25
Le 20/01/2023 à 06h23
Je reformule : je doute que ce soit 10 000 postes de développeurs ou d’ingénieurs
Le 19/01/2023 à 20h21
Embaucher et débaucher à la petite semaine c’est clairement du manque de responsabilité.
Je doute très très très fortement que 140 000 € soit le salaire moyen des employés de Microsoft 😂
Le 19/01/2023 à 12h07
Merci je suis au courant : je suis moi même chef d’entreprise.
Mais ici il n’est pas question de survie de l’entreprise, juste de croissance du bénéfice.
En l’occurence, le cout de ces 10 000 salariés doit tourner dans les 500 millions d’euros annuels, soit 0,7% de leur bénéfice NET !
)
(EDIT à 1,2 M. on parle de 1,7% quelle tuile
Un bon gestionnaire fait plus avec plus, pas plus avec moins.
Trouver des relais de croissance en utilisant ces 10 000 salariés serait de l’investissement, les vider sans sommation à comme simple but un retour sur investissement rapide. C’est déplorable.
Surtout qu’au même moment le board valide une dépense de 70 milliards pour racheter une autre entreprise …
Le 19/01/2023 à 07h16
Ce serait moins gênant s’il ne venaient pas de claquer 70 Milliards pour racheter activision blizzard.
Cette somme couvre environ 1 millions de salaires annuels, soit sans doute plus de 5 ans de masse salariale 🤫
Évidement ce n’est pas le même argent mais ça prouve leur manque complet de sens des responsabilités.
Le 19/01/2023 à 07h09
C’est pour cela sans doute qu’ils ont révoqué les clefs des développeurs de client tiers sans couper l’API.
Le 19/01/2023 à 06h43
Rien, mais vraiment RIEN ne les empêche de sortir une API intégrant les tweets publicitaires.
Leur seul petit tweet de justification dit que les applications ne respectent pas les règles.
On les cherche encore ces fameuses règles …
Le 18/01/2023 à 06h19
Je crois que cette nouvelle application device ne permet pas de synchroniser sa musique. car j’ai l’impression que l’application musique est juste un player de leur plateforme de streaming.
Après je n’ai pas d’iPhone avec de la musique « exotique » pour essayer …
Le 16/01/2023 à 16h26
TV et musique sont surtout des clients permettant de proposer des services payants d’Apple sur PC, pas grand chose à voir avec l’iPhone en fait.
Le 15/01/2023 à 06h34
Non, pas pour le moment et je doute que ça vienne plus tard.
Ils vont surtout vouloir vendre Apple Music
Le 14/09/2022 à 05h59
Snif 😢
Le 12/09/2022 à 20h23
Je veux pas tatillonne mais capteur 50% plus gros prendra BEAUCOUP plus de lumière à focale 1,78 qu’un petit capteur à focale 1,5.
En X1 ca sera bcp mieux et le X2 n’est qu’un plus par rapport au système de l’an dernier.
Moi ce que je trouve gênant c’est justement la stagnation atroce du “téléobjectif” qui reste médiocre, peu lumineux, et qui va être encore plus laid a coté du X2 en 12MP natif.
La rumeur veut que les iPhone passe en USBC et periscope l’an prochain, tant mieux.
Le 12/09/2022 à 20h16
Ca m’étonnerais que ce fut aussi marginal que 0,5% à l’époque.
Les premiers OLED consommaient pas mal car leur la luminosité minimale était quand même assez élevée (oui les noirs étaient noirs, mais les blancs bcp trop forts)
D’ailleurs j’ai retrouvé l’article, les 0,5% c’est par HEURE.
Et encore, en réalité, ils tournent autour des 12⁄14% de batterie consommés en 18h. soit quasiment % de batterie par jour
Oui ca baisse quand le téléphone est dans un sac, mais sinon car consommait à blinde.
Le 08/09/2022 à 11h33
Le bouton de réponse d’appel est déjà en haut, mais c’est réglable pour se remettre en plein écran et le boutons repassent en bas.
Le 19/01/2022 à 12h30
En vrai il est super le player Devialet, j’en suis super satisfait par rapport au player de la révolution
Le 26/11/2021 à 07h56
Hahahaha
Sous Linux, même sur Steam il faut taper une ou deux lignes de comande 😂
Le 19/10/2021 à 07h13
1- sans doute déjà parce qu’ils le peuvent , tout simplement. Leur puce graphique consomme tellement peu qu’ils peuvent la multiplier à volonté.
(Les rumeurs qui avaient juste sur le M1Max annoncent une partie graphique à 128 cores pour le Mac Pro)
2- oui pour certains usages pro de niche, c’est extrêmement utile ! (J’ai ai besoin par exemple pour du rendu 3D)
3- les génies du marketing d’Apple ont réussi à maquiller ce qui n’est qu’une option graphique (le M1Max n’améliore le M1Pro que sur la partie graphique) en tout nouveau processeur incroyable.
Les gens se jetteront dessus bien plus que sur un upgrade de carte, malin 😂
Le 19/10/2021 à 06h04
En gros le M1 pro c’est deux M1 sur le même Die !
Le 06/10/2021 à 17h27
C’est une bonne chose quand même !
Actuellement ce n’était accessible que via canal plus
A ce sujet, on attend tjrs la possibilité de raccorder un abonnement canal plus sans s’abonner SUR la freebox …
Le 02/06/2021 à 05h28
Ajoutons la TVA aussi !
Non mais ces pauvres qui osent faire sombrer l’économie française en achetant du material d’occasion, quel honte, quelle haine de la France 🇫🇷
Le 03/05/2021 à 19h19
Non mais évidemment que l AppStore fait des bénéfices …
Le taxe PlayStation store ou Nintendo aussi c’est sans aucun doute >80% bénéfices puisque c’est une taxe d’entrée.
Je ne pense pas que le bénéfice de l’AppStore soit un angle d’attaque correct.
De même, la « faible » part d’IOS rend Apple assez protégé de l’argument de la position dominante de l’OS.
Et les attaquer sur le fait qu’ils sont dominants dans le chiffre d’affaire des store c’est pire, ça les renforce.
Ca prouve la « justesse » de leur politique de vente au utilisateurs d’une sécurité auxquels les gens adhèrent puisqu’ils achètent sur iOS et pas sur Android.
Je pense que le problème est qu’ils s’exonèrent d’une taxe de 30% sur les mêmes produits que leur conçurents sur le même store.
C’est forcément problématique puisque cela sous entend qu’ils sont les seuls à pouvoir faire du bénéfice si celui du secteur est communément inférieur à 30%.
Du coup ils poussent leurs concurrents à être plus chers (augmentant le % d’apple, double gain) et donc moins compétitifs par rapport à leur service interne. C’est un abus de position.
Soit ils changent les conditions pour les secteurs où ils proposent une concurrence interne soit ils doivent arrêter de fournir un produit profitant d’une croissance vampirique liée à un avantage anti-concurrentiel.
Je pense qu’ils feront évoluer le store sur les applis en concurrence au moins.
Le 26/04/2021 à 11h52
Alors on peut avoir deux types de ports ce n’est pas interdit.
J’ai fait mon choix, je préfère quand même garder mon mac mais j’ai le droit d’expliquer que l’absence de ports USBA est handicapante au quotidien !
C’est mon opinion, et j’ai encore je droit de penser que l’absence d’USBA est une régression majeure de qualité d’usage.
Quand je mes talents de divination, des pirates ont récupéré les plans d’usines des prochaines produits, font chanter Apple et on publié le plan du châssis du futur MBP ou l’on voit le retour du SD + HDMI.
Le 25/04/2021 à 20h56
Ben non ça revient pas au même du tout.
J’ai un portable Full USB C depuis 4⁄5 ans, c’est toujours l’horreur au quotidien. Tu n’a jamais le dongle qui faut dans le sac qui faut c’est juste casse bonbon.
On est pas en 1999, les périphériques que l’on possède sont durables, un disque externe ne claque pas en 2 ans, mes clefs logiciels n’existent pas en USB-C, ma souris est toujours USB A et je n’ai pas prévu de la changer.
Alors tu as raison, je peux changer tous mes périphériques, mais c’est encore plus cher et encore moins écologique (et la même boite nous en fait des caisses sur le miracle écologique de ne plus mettre de bloc de charge dans les iPhone)
Vu qu’il y a la place POURQUOI ne pas laisser un seul port USB-A a part nous forcer à tout racheter ?
A la limite quand tous les ports sont Thunderbolt je peux comprendre, mais sur cet iMac avec 2 ports en simple USB3 c’est un choix purement marketing pour vendre des dongle ou forcer au renouvellement des périphériques $$$$$
D’ailleurs ils savent tellement que c’est casse bonbons, que le MacBook Pro va réintégrer un port HDMI et SD Card sur la prochaine version.
Le 22/04/2021 à 17h26
Les aérations sont dessous comme sur les macs intel d’aujourd’hui.
Et non le M1 ne throttle pas DU TOUT sur les machines ventilées.
Les W du processeur c’est une dissipation thermique.
Un 5800 fait 105W si j’ai bien lu, un M1 c’est 15W
Je te laisse imaginer lequel va throttle le plus vite.
Le simple fait de POUVOIR en faire une machine fannless c’est hallucinant mais évidemment que sans ventilateur et dans des cas extrêmes il pourra se mettre à ralentir légèrement.
A l’inverse les tests du MacBook Air M1 ont montré qu’en usage extrême, son throttling était réel mais extrêmement minime avec des écarts < 10% avec la version ventilée.