Connexion Premium

Quand l’IA générative épuise ses adeptes

Le 09 février à 12h19

« J’ai produit davantage de code au dernier trimestre que pendant n’importe quel trimestre de ma carrière. Je me suis aussi senti plus épuisé que pendant n’importe quel autre trimestre de ma carrière. Ces deux faits ne sont pas indépendants. »

C’est par ces mots que le développeur Siddhant Khare introduit un article de blog qui a beaucoup fait réagir, ce 8 février, sur X, Bluesky, Linkedin, Hackernews ou ailleurs. Son propos : si l’IA générative rend de nombreux ingénieurs logiciel plus productifs (ce qui explique leur adoption rapide de ces outils), elle les épuise aussi plus rapidement.

Car qui gagne en productivité ne dégage pas nécessairement plus de temps libre. Au contraire, témoigne Siddhant Khare, « quand chaque tâche prend moins de temps, on ne fait pas moins de tâches, on en fait plus. Nos possibilités semblent s’étendre, donc le travail s’étend en fonction », que ce soit parce que les managers ajustent leurs attentes et demandent que le code soit livré plus vite, ou parce que les développeuses et développeurs eux-mêmes ajustent leurs propres attentes et cherchent à produire plus vite.

Entre autres évolutions, Siddhant Khare souligne notamment le passage d’une gestion lente mais concentrée sur un seul problème à celle de 5 ou 6 sujets différents en une journée, ce qui l’empêche de retrouver le même état de « concentration profonde » qu’il connaissait auparavant – mi-2025, une équipe de chercheurs repérait d’ailleurs une baisse de productivité chez les développeurs recourant à l’IA générative.

Le développeur pointe une autre problématique proche de celle exprimée par les traductrices et traducteurs : de créateur de son texte, il devient « post-éditeur », ou correcteur d’une première version de code déjà produite par les agents conversationnels. Or la correction est une tâche différente (et pas nécessairement moins chronophage) de la production d’un texte ou d’un code inédit.

Il souligne, enfin, un problème persistant dans l’industrie numérique : la peur de manquer le nouveau produit, le nouvel outil, la fonctionnalité qui viendrait réellement changer tout son processus de travail.

Ce FOMO (fear of missing out), dont certains témoignaient déjà auprès de Next à l’été 2025, implique directement de dépenser du temps à tester et évaluer différents outils, pour voir dans certains cas ses efforts d’affinage de prompts (requêtes soumises aux robots conversationnels) disparaître en fumée dès la mise à jour suivante d’un modèle.

Surtout, Siddhant Khare s’inquiète d’une potentielle « atrophie de la pensée » qui n’est pas sans rappeler la potentielle émergence d’une « bêtise artificielle » contre laquelle alerte la philosophe Anne Alombert.

Parmi les pistes qu’il indique avoir mises en place, Siddhant Khare évoque le fait de limiter le temps d’utilisation d’une IA : si, par exemple, le code obtenu au bout de 30 minutes n’est pas satisfaisant, il passe à une écriture à la main plutôt que de s’enfermer dans une boucle d’amélioration de son prompt.

Il sépare le temps de réflexion de celui d’usage de l’IA (pour de l’exécution). Il prend note, aussi, des cas dans lesquels l’IA l’a réellement aidé (plutôt des tâches répétitives, de documentation, ou de génération de tests) de ceux où elle lui a fait perdre du temps (décisions d’architecture, débogage complexe et autres tâches demandant de bien connaître son code).

Le 09 février à 12h19

Commentaires (20)

votre avatar
Et avec Claude 4.6 et Codex 5.3, ça ne va pas s'arranger...
votre avatar
Je suis en train de développer un vimium-like pour mon logiciel métier, et sur ce point de fabrique de l'architecture du code, Claude m'a fait perdre un paquet de temps...
J'ai du le désactiver quelques heures pour retrouver la concentration requise 😓
votre avatar
Car qui gagne en productivité ne dégage pas nécessairement plus de temps libre. Au contraire, témoigne Siddhant Khare, « quand chaque tâche prend moins de temps, on ne fait pas moins de tâches, on en fait plus. Nos possibilités semblent s’étendre, donc le travail s’étend en fonction », que ce soit parce que les managers ajustent leurs attentes et demandent que le code soit livré plus vite, ou parce que les développeuses et développeurs eux-mêmes ajustent leurs propres attentes et cherchent à produire plus vite.
Siddhant Khare découvre le capitalisme perpétré par le libéralisme. Il vaut mieux tard que jamais.

Quand tu lis son blog, c'est accompagné de vignettes sans âme générées par IA. Est-ce qu'il a aussi rédigé son expérience avec le dernier LLM tendance ? C'est presque émouvant de lire quelqu'un se forger sa conscience de classe, malheureusement cela ne rapporte rien alors il a plutôt intérêt à préparer ses prompts pour autre chose.
votre avatar
Quand j'ai lu le titre du paragraphe "The sustainability question" je me suis dit tiens il va peut-être parler de tous les autres problèmes liés à l'écosystème de l'IA générative... naïf je suis.
votre avatar
c'est accompagné de vignettes sans âme générées par IA
tout le monde ne peux pas avoir un ou deux @Flock dans son équipe, hein :D
edit: merde, ça a pas ping le bon compte de Flock...
votre avatar
Car qui gagne en productivité ne dégage pas nécessairement plus de temps libre. Au contraire, témoigne Siddhant Khare, « quand chaque tâche prend moins de temps, on ne fait pas moins de tâches, on en fait plus. Nos possibilités semblent s’étendre, donc le travail s’étend en fonction », que ce soit parce que les managers ajustent leurs attentes et demandent que le code soit livré plus vite, ou parce que les développeuses et développeurs eux-mêmes ajustent leurs propres attentes et cherchent à produire plus vite.
Ce genre de prise de recul me laisse penser combien les acteurs de l'IT sont candides et n'avaient aucune idée que c'était le résultat de leur travail sur les autres.

Avec l'informatisation, les tâches ont changé car d'autres ont été automatisées, les activités se sont diversifiées. Quand elles ne provoquent pas la suppression de postes (cas de projets sur lesquels j'ai bossé qui ont supprimé des besoins en intérimaires). Pensez aux Carrefour/Lidl/etc. de quartier où y'a que 3 ou 4 employés qui sont au four et au moulin (et pour rester dans l'exemple : qui doivent valider les propositions de commande d'un moteur de réappro automatique quand ils ont encore la main dessus).

Les développeurs le découvrent parce que ça leur tombe dessus aussi ?
votre avatar
Je confirme : la post-édition c'est chronophage. Et ça augmente les exigences de productivité... Et surtout la qualité est pas la même que quand c'est fait à la main. On a beau post-éditer, les fondamentaux restent ceux de l'IA, et ça se ressent.
votre avatar
Je serais preneur d'un retour d'expérience détaillé chez Next du type "J'ai créé ce projet avec Claude", avec ses avantages et inconvénients : ça peut être instructif pour les non-initiés, les late-adopters de l'IA et les managers.
votre avatar
La post-édition c'est pas dans le dev (si ce n'est de façon très métaphorique), c'est une variante de la traduction : l'IA traduit et un humain est censé repasser derrière pour corriger, améliorer, adapter.

Mais outre le conflit sur la productivité (les clients et agences s'imaginent que ça va 3x plus vite, qu'on peut demander à un traducteur 3x plus de mots par jour pour 3x moins cher par mot, or si le traducteur veut pas trop saloper le boulot le gain de temps est plutôt de l'ordre de 20%), un problème récurrent est que quand l'IA a imprimé son style, il est presque impossible de revenir en arrière, parce que :

1) modifier du style ça veut dire tout repenser et tout réécrire, donc c'est au moins aussi lent que traduire de zéro
2) de toute façon à partir du moment où t'as lu la proposition de l'IA c'est à moitié mort, ça a pollué ton cerveau et c'est extrêmement compliqué de trouver ta propre voix, et tu as toujours un doute ("c'est vraiment moi qui ai choisi cette formulation ou j'ai été influencé par l'IA ?").

Sur ce dernier point, l'IA pose aussi ce genre de problèmes aux devs, aux concepteurs de jeux vidéo, etc. En fait c'est même pas spécifique à l'IA d'ailleurs : le fait d'avoir le cerveau "pollué" par une première version, c'est un problème connu dans d'autres domaines créatifs : les musiciens appellent ça la demoitis (le fait d'être influencé dans ses goûts par la démo d'une chanson), les compositeurs de musique de film sont influencés par les musiques placeholder...

Mais ouaip, je suis pas dev mais d'après ce que j'ai entendu à droite à gauche, c'est aussi un phénomène qui existe dans le dev.
votre avatar
Il y a quelques cas qui sont vraiment très puissants avec un gros gains de temps :

  • Utiliser l'IA pour fouiller dans le code d'une vieille application qui a 10/15 ans, avec techno ancienne pour s'aider à naviguer, nettoyer et faire des évolutions en limitant les effets de bord. L'IA est très forte pour t'expliquer l'existant et le contexte. Et s'en servir pour créer des petits bouts de code marche très bien.




  • Pour un non développeur (ancien développeur dans mon cas), avec de bonnes connaissances en terme d'application : créer de zéro une application relativement simple fonctionnellement, qu'on n'aurait probablement jamais pris le temps de faire développer par des développeurs.




Exemple : une application qui va servir de sas de contrôle de données pour faciliter la synchronisation entre 2 logiciels fait par des éditeurs tiers.
En l'occurrence mettre en place une connexion par API à un logiciel RH pour créer correctement, via API également, les salariés dans le logiciel de la Paie.

Je sais ce dont j'ai besoin en terme de donnée et ce que je veux contrôler, j'ai la documentation API de chaque logiciel.
Application et interface 100% développées par Cursor en lui donnant toutes les infos, dans une techno volontairement identique à celle de la boite.

1 jours pour qu'il m'installe tout l'environnement nécessaire au développement (n'étant pas développeur je n'avais rien) et avoir une base d'application qui fonctionne.
2 jours de plus pour avoir amélioré l'ensemble, sécurisé et déployé avec les outils de l'entreprise.

Conclusion : 3 jours de mon temps + environ 40$ de crédit Cursor pour une application qui va fiabiliser le travaille de l'équipe Paie et leur faire gagner beaucoup de temps en supprimant toutes les doubles saisies, et tout ça sans que j'ai à regarder une seule ligne de code.

Pour les cas comme ça, c'est clairement un très utile.
votre avatar
cas dans lesquels l’IA l’a réellement aidé (plutôt des tâches répétitives, de documentation, ou de génération de tests) de ceux où elle lui a fait perdre du temps (décisions d’architecture, débogage complexe et autres tâches demandant de bien connaître son code).
C'est bien ça !

L'IA est géniale pour documenter clairement en "anglais techniques" (sauf si on est totalement bilingue peut-être), mais elle bute sur la "créativité" : elle ne fait que répéter des "patterns" existants.

Pour les choses complexes, mon dernier développement Userland RCU en C11, elle a du mal à comprendre l'intégralité des invariants et trouve des bugs où il n'y en a pas... et on passe alors plus de temps à essayer de la convaincre que non, il n'y a pas de bug, qu'à avancer sur le code !

Un côté qui manque à l'article, c'est qu'avec le même temps, on peut produire, grâce à l'IA un code qui est plus "propre", c'est à dire plus proche des "patterns habituels", ce qui est essentiel pour la maintenance future selon le principe de la moindre surprise. En effet, les choses "surprenantes", même si elle sont malignes et bien documentées, ne sont pas forcément les plus maintenables dans le temps.

L'IA est aussi excellente pour expliquer ces "patterns" et pourquoi il ne faut pas faire certaines "astuces". Ma dernière question sur pourquoi ne pas copier un champ bitfield via memcpy() plutôt que champ par champ. Réponse : Valgrind! Lorsque les bitfileds ne prennent pas toute la place du "word", Valgrind va râler sur l'utilisation d'une zone non initialisée si on fait une copie mémoire. Je n'y aurais pas pensé d'emblée et l'aurais découvert plus tard en testant sous Valgrind, mais c'est une raison parfaitement valable !

Enfin il faut noter que la merdification ("enshitification") est déjà en route !
Je n'utilise pas Claude car il exige d'avoir mon numéro de téléphone, mais Gemini Pro (AI studio) qui paraissait sans limite (ou très haute) semble désormais bien bridé.

Comme de toute façon le résultat n'est pas parfait et que j'évite de me fier à 100% à du code C11 (avec _Atomics) produit par l'IA, je suis passé chez les Chinois, et c'est "good enough" !..
votre avatar
Je m'étais aussi arrêté avant au numéro de téléphone demandé par Claude, mais ayant réessayé il y a quelques jours, il n'en demande apparemment plus. Ceci dit je n'ai pas testé plus pour le moment que de lui faire générer un petit script.

Bon il demande une date de naissance par contre, mais ça on peut toujours rentrer n'importe quoi. Surtout qu'il ne demande pas de nom réel, seulement celui par lequel on veut qu'il nous appelle.
votre avatar
Merci pour l'info sur leur changement de politique concernant le numéro de téléphone. Je testerai à nouveau à l'occasion donc !

EDIT: eh bien non, l'information est fausse, il demande toujours un numéro de téléphone. Sans doute que tu l'avais déjà donné avec cet e-mail, voila pourquoi il n'a pas demandé, et effectivement la date de naissance est nouvelle ! La séquence exacte :

  • email (on peut donner un e-mail "poubelle" mais faut pouvoir recevoir le lien)

  • date de naissance (toujours le 1/1/1970 pour moi !)

  • puis numéro de téléphone avec SMS pour vérifier !



Donc, non merci !
votre avatar
J'ai quand même plus l'impression que l'IA épuise UN adepte que SES adeptes pour l'instant.
votre avatar
Pas tout à fait d'accord.
Par exemple, on y a accès dans ma boîte pour "produire" du code. Et les critiques que l'auteur remonte correspondent à peut près à la somme de ce que j'entends autour de moi.

Dans mon cas oui parfois tu t'enfermes dans une boucle où tu perds en fait du temps à lui répondre et à refaire ton prompt. Et tu perd de l'énergie pour rien par rapport à coder sans lui.
Idem quand il a généré pas mal de code. L'énergie que tu dépenses à rentrer dedans parfois pour un résultat pas bien meilleur que si tu l'avais codé sans lui. Pas le sentiment à la fin d'y avoir gagné en temps, en qualité et en énergie.

Ca n'empêche pas que ces outils ont des avantages. Oui par exemple, comme déjà dit par quelqu'un d'autre, parfois il te fait penser à des choses auquel le t'aurais pas fait attention, ou que tu ne savais pas.

Mais c'est un outils qu'il faut apprendre à utiliser et, il a un fort potentiel à t'épuiser si tu y fait pas attention.

Après je suis d'accord, dans d'autres milieux que le dev, pas sur que ça "épuise" autant de monde.
votre avatar
Perso je passe un temps considérable à avoir un résultat potable (on utilise Copilot et Claude au boulot). J'ai toujours l'impression qu'au delà de 3 questions, il n'y a plus d'historique, donc je passe mon temps à dire "on a essayé ça, cela n'a pas fonctionné", et là retour à la 1e version qui n'était pas mieux, en infinite loop...
votre avatar
Micode a fait une chouette vidéo sur les effets neurologiques de la production de code avec une IA, utilisant son collègue comme cobaye : youtube.com YouTube
votre avatar
Très intéressante cette vidéo, merci. Et ça me rassure sur mon usage en "sparring partner" et plutôt pour apprendre que pour viser la rapidité toute faite (je parle de code).
votre avatar
Rien de surprenant / anticipable d'avance.
Et puis on parle de faire "gagner du temps", mais on ne s'interroge jamais sur le "oui mais pour quoi" ?
votre avatar
Et j'ajouterai une question, quel est le coût de ce temps gagné ?
En effet le temps c'est de l'argent toussa, de l'argent sous forme de gain, peut-être, aussi et surtout sous forme de dépense.
Coûts directs, et indirects, coût humain, coût sociétal... Combien va nous coûter et nous coute déjà ces "gains" de temps ?
Pour moi, sans chiffrage objectif à date, je mets un belle pièce sur le fait que la balance est très déséquilibrée, et pas dans le sens attendu par les décideurs de tous types.

Quand l’IA générative épuise ses adeptes