Quand l’IA générative épuise ses adeptes
Le 09 février à 12h19
4 min
Logiciel
Logiciel
« J’ai produit davantage de code au dernier trimestre que pendant n’importe quel trimestre de ma carrière. Je me suis aussi senti plus épuisé que pendant n’importe quel autre trimestre de ma carrière. Ces deux faits ne sont pas indépendants. »
C’est par ces mots que le développeur Siddhant Khare introduit un article de blog qui a beaucoup fait réagir, ce 8 février, sur X, Bluesky, Linkedin, Hackernews ou ailleurs. Son propos : si l’IA générative rend de nombreux ingénieurs logiciel plus productifs (ce qui explique leur adoption rapide de ces outils), elle les épuise aussi plus rapidement.
Car qui gagne en productivité ne dégage pas nécessairement plus de temps libre. Au contraire, témoigne Siddhant Khare, « quand chaque tâche prend moins de temps, on ne fait pas moins de tâches, on en fait plus. Nos possibilités semblent s’étendre, donc le travail s’étend en fonction », que ce soit parce que les managers ajustent leurs attentes et demandent que le code soit livré plus vite, ou parce que les développeuses et développeurs eux-mêmes ajustent leurs propres attentes et cherchent à produire plus vite.
Entre autres évolutions, Siddhant Khare souligne notamment le passage d’une gestion lente mais concentrée sur un seul problème à celle de 5 ou 6 sujets différents en une journée, ce qui l’empêche de retrouver le même état de « concentration profonde » qu’il connaissait auparavant – mi-2025, une équipe de chercheurs repérait d’ailleurs une baisse de productivité chez les développeurs recourant à l’IA générative.
Le développeur pointe une autre problématique proche de celle exprimée par les traductrices et traducteurs : de créateur de son texte, il devient « post-éditeur », ou correcteur d’une première version de code déjà produite par les agents conversationnels. Or la correction est une tâche différente (et pas nécessairement moins chronophage) de la production d’un texte ou d’un code inédit.
Il souligne, enfin, un problème persistant dans l’industrie numérique : la peur de manquer le nouveau produit, le nouvel outil, la fonctionnalité qui viendrait réellement changer tout son processus de travail.
Ce FOMO (fear of missing out), dont certains témoignaient déjà auprès de Next à l’été 2025, implique directement de dépenser du temps à tester et évaluer différents outils, pour voir dans certains cas ses efforts d’affinage de prompts (requêtes soumises aux robots conversationnels) disparaître en fumée dès la mise à jour suivante d’un modèle.
Surtout, Siddhant Khare s’inquiète d’une potentielle « atrophie de la pensée » qui n’est pas sans rappeler la potentielle émergence d’une « bêtise artificielle » contre laquelle alerte la philosophe Anne Alombert.
Parmi les pistes qu’il indique avoir mises en place, Siddhant Khare évoque le fait de limiter le temps d’utilisation d’une IA : si, par exemple, le code obtenu au bout de 30 minutes n’est pas satisfaisant, il passe à une écriture à la main plutôt que de s’enfermer dans une boucle d’amélioration de son prompt.
Il sépare le temps de réflexion de celui d’usage de l’IA (pour de l’exécution). Il prend note, aussi, des cas dans lesquels l’IA l’a réellement aidé (plutôt des tâches répétitives, de documentation, ou de génération de tests) de ceux où elle lui a fait perdre du temps (décisions d’architecture, débogage complexe et autres tâches demandant de bien connaître son code).
Le 09 février à 12h19
Commentaires (20)
Abonnez-vous pour prendre part au débat
Déjà abonné ou lecteur ? Se connecter
Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles d'un média expert
Profitez d'au moins 1 To de stockage pour vos sauvegardes
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 09/02/2026 à 12h26
Le 09/02/2026 à 12h29
J'ai du le désactiver quelques heures pour retrouver la concentration requise 😓
Modifié le 09/02/2026 à 12h42
Quand tu lis son blog, c'est accompagné de vignettes sans âme générées par IA. Est-ce qu'il a aussi rédigé son expérience avec le dernier LLM tendance ? C'est presque émouvant de lire quelqu'un se forger sa conscience de classe, malheureusement cela ne rapporte rien alors il a plutôt intérêt à préparer ses prompts pour autre chose.
Le 09/02/2026 à 14h43
Modifié le 10/02/2026 à 21h44
edit: merde, ça a pas ping le bon compte de Flock...
Modifié le 09/02/2026 à 13h20
Avec l'informatisation, les tâches ont changé car d'autres ont été automatisées, les activités se sont diversifiées. Quand elles ne provoquent pas la suppression de postes (cas de projets sur lesquels j'ai bossé qui ont supprimé des besoins en intérimaires). Pensez aux Carrefour/Lidl/etc. de quartier où y'a que 3 ou 4 employés qui sont au four et au moulin (et pour rester dans l'exemple : qui doivent valider les propositions de commande d'un moteur de réappro automatique quand ils ont encore la main dessus).
Les développeurs le découvrent parce que ça leur tombe dessus aussi ?
Le 09/02/2026 à 13h41
Le 09/02/2026 à 14h23
Le 09/02/2026 à 22h07
Mais outre le conflit sur la productivité (les clients et agences s'imaginent que ça va 3x plus vite, qu'on peut demander à un traducteur 3x plus de mots par jour pour 3x moins cher par mot, or si le traducteur veut pas trop saloper le boulot le gain de temps est plutôt de l'ordre de 20%), un problème récurrent est que quand l'IA a imprimé son style, il est presque impossible de revenir en arrière, parce que :
1) modifier du style ça veut dire tout repenser et tout réécrire, donc c'est au moins aussi lent que traduire de zéro
2) de toute façon à partir du moment où t'as lu la proposition de l'IA c'est à moitié mort, ça a pollué ton cerveau et c'est extrêmement compliqué de trouver ta propre voix, et tu as toujours un doute ("c'est vraiment moi qui ai choisi cette formulation ou j'ai été influencé par l'IA ?").
Sur ce dernier point, l'IA pose aussi ce genre de problèmes aux devs, aux concepteurs de jeux vidéo, etc. En fait c'est même pas spécifique à l'IA d'ailleurs : le fait d'avoir le cerveau "pollué" par une première version, c'est un problème connu dans d'autres domaines créatifs : les musiciens appellent ça la demoitis (le fait d'être influencé dans ses goûts par la démo d'une chanson), les compositeurs de musique de film sont influencés par les musiques placeholder...
Mais ouaip, je suis pas dev mais d'après ce que j'ai entendu à droite à gauche, c'est aussi un phénomène qui existe dans le dev.
Le 10/02/2026 à 17h21
Exemple : une application qui va servir de sas de contrôle de données pour faciliter la synchronisation entre 2 logiciels fait par des éditeurs tiers.
En l'occurrence mettre en place une connexion par API à un logiciel RH pour créer correctement, via API également, les salariés dans le logiciel de la Paie.
Je sais ce dont j'ai besoin en terme de donnée et ce que je veux contrôler, j'ai la documentation API de chaque logiciel.
Application et interface 100% développées par Cursor en lui donnant toutes les infos, dans une techno volontairement identique à celle de la boite.
1 jours pour qu'il m'installe tout l'environnement nécessaire au développement (n'étant pas développeur je n'avais rien) et avoir une base d'application qui fonctionne.
2 jours de plus pour avoir amélioré l'ensemble, sécurisé et déployé avec les outils de l'entreprise.
Conclusion : 3 jours de mon temps + environ 40$ de crédit Cursor pour une application qui va fiabiliser le travaille de l'équipe Paie et leur faire gagner beaucoup de temps en supprimant toutes les doubles saisies, et tout ça sans que j'ai à regarder une seule ligne de code.
Pour les cas comme ça, c'est clairement un très utile.
Modifié le 09/02/2026 à 14h23
L'IA est géniale pour documenter clairement en "anglais techniques" (sauf si on est totalement bilingue peut-être), mais elle bute sur la "créativité" : elle ne fait que répéter des "patterns" existants.
Pour les choses complexes, mon dernier développement Userland RCU en C11, elle a du mal à comprendre l'intégralité des invariants et trouve des bugs où il n'y en a pas... et on passe alors plus de temps à essayer de la convaincre que non, il n'y a pas de bug, qu'à avancer sur le code !
Un côté qui manque à l'article, c'est qu'avec le même temps, on peut produire, grâce à l'IA un code qui est plus "propre", c'est à dire plus proche des "patterns habituels", ce qui est essentiel pour la maintenance future selon le principe de la moindre surprise. En effet, les choses "surprenantes", même si elle sont malignes et bien documentées, ne sont pas forcément les plus maintenables dans le temps.
L'IA est aussi excellente pour expliquer ces "patterns" et pourquoi il ne faut pas faire certaines "astuces". Ma dernière question sur pourquoi ne pas copier un champ bitfield via memcpy() plutôt que champ par champ. Réponse : Valgrind! Lorsque les bitfileds ne prennent pas toute la place du "word", Valgrind va râler sur l'utilisation d'une zone non initialisée si on fait une copie mémoire. Je n'y aurais pas pensé d'emblée et l'aurais découvert plus tard en testant sous Valgrind, mais c'est une raison parfaitement valable !
Enfin il faut noter que la merdification ("enshitification") est déjà en route !
Je n'utilise pas Claude car il exige d'avoir mon numéro de téléphone, mais Gemini Pro (AI studio) qui paraissait sans limite (ou très haute) semble désormais bien bridé.
Comme de toute façon le résultat n'est pas parfait et que j'évite de me fier à 100% à du code C11 (avec _Atomics) produit par l'IA, je suis passé chez les Chinois, et c'est "good enough" !..
Modifié le 10/02/2026 à 00h48
Bon il demande une date de naissance par contre, mais ça on peut toujours rentrer n'importe quoi. Surtout qu'il ne demande pas de nom réel, seulement celui par lequel on veut qu'il nous appelle.
Modifié le 11/02/2026 à 21h47
EDIT: eh bien non, l'information est fausse, il demande toujours un numéro de téléphone. Sans doute que tu l'avais déjà donné avec cet e-mail, voila pourquoi il n'a pas demandé, et effectivement la date de naissance est nouvelle ! La séquence exacte :
Donc, non merci !
Le 09/02/2026 à 16h27
Modifié le 09/02/2026 à 19h23
Par exemple, on y a accès dans ma boîte pour "produire" du code. Et les critiques que l'auteur remonte correspondent à peut près à la somme de ce que j'entends autour de moi.
Dans mon cas oui parfois tu t'enfermes dans une boucle où tu perds en fait du temps à lui répondre et à refaire ton prompt. Et tu perd de l'énergie pour rien par rapport à coder sans lui.
Idem quand il a généré pas mal de code. L'énergie que tu dépenses à rentrer dedans parfois pour un résultat pas bien meilleur que si tu l'avais codé sans lui. Pas le sentiment à la fin d'y avoir gagné en temps, en qualité et en énergie.
Ca n'empêche pas que ces outils ont des avantages. Oui par exemple, comme déjà dit par quelqu'un d'autre, parfois il te fait penser à des choses auquel le t'aurais pas fait attention, ou que tu ne savais pas.
Mais c'est un outils qu'il faut apprendre à utiliser et, il a un fort potentiel à t'épuiser si tu y fait pas attention.
Après je suis d'accord, dans d'autres milieux que le dev, pas sur que ça "épuise" autant de monde.
Le 09/02/2026 à 22h34
Le 10/02/2026 à 12h37
Le 11/02/2026 à 22h32
Le 12/02/2026 à 10h54
Et puis on parle de faire "gagner du temps", mais on ne s'interroge jamais sur le "oui mais pour quoi" ?
Le 13/02/2026 à 08h42
En effet le temps c'est de l'argent toussa, de l'argent sous forme de gain, peut-être, aussi et surtout sous forme de dépense.
Coûts directs, et indirects, coût humain, coût sociétal... Combien va nous coûter et nous coute déjà ces "gains" de temps ?
Pour moi, sans chiffrage objectif à date, je mets un belle pièce sur le fait que la balance est très déséquilibrée, et pas dans le sens attendu par les décideurs de tous types.
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?