Connexion Premium

De l’enthousiasme au burnout, l’IA ne réduit pas la charge de travail, mais l’intensifie

Le revers du mode IA

De l’enthousiasme au burnout, l’IA ne réduit pas la charge de travail, mais l’intensifie

Une étude de chercheuses de la Business School de Berkeley montre que le recours volontaire à l’IA augmente certes la productivité des employés, mais au prix d’un « nouveau rythme » de travail multitâche et d’un « cercle vicieux » générant workslop, burnout et turnover. Elle appelle les managers et employés à prendre la mesure du phénomène avant qu’il ne soit trop tard.

Le 12 février à 14h14

Dimanche dernier, un billet de blog intitulé « La fatigue liée à l’IA est bien réelle, mais personne n’en parle » faisait le buzz sur les réseaux sociaux. Le développeur Siddhant Khare y déplorait que « quand chaque tâche prend moins de temps, on ne fait pas moins de tâches, on en fait plus. Nos possibilités semblent s’étendre, donc le travail s’étend en fonction ».

Il y soulignait également que le passage d’une gestion lente mais concentrée sur un seul problème à celle de cinq ou six sujets différents en une journée l’empêche de retrouver le même état de « concentration profonde » qu’il connaissait auparavant, s’inquiétant d’une potentielle « atrophie de la pensée ».

Lundi, une étude publiée dans la Harvard Business Review est venue confirmer ses dires. « L’IA ne réduit pas la charge de travail, elle l’intensifie », y écrivent Aruna Ranganathan et Xingqi Maggie Yew, chercheuses à la Business School de l’université de Berkeley.

Elles ont étudié pendant huit mois, d’avril à décembre 2025, la manière dont l’IA générative avait modifié les habitudes de travail dans une entreprise technologique américaine comptant environ 200 employés. Elles y sont allées deux fois par semaine afin d’observer comment y travaillaient les employés, suivant également leurs canaux de communication internes, et procédant à plus de 40 entretiens approfondis :

« Nous avons constaté que les employés travaillaient à un rythme plus soutenu, assumaient un éventail de tâches plus large et prolongeaient leur journée de travail, souvent sans qu’on leur demande de le faire. De leur propre initiative, les employés en faisaient plus parce que l’IA leur donnait le sentiment que « faire plus » était possible, accessible et, dans de nombreux cas, intrinsèquement gratifiant. »

Les chercheuses soulignent que l’entreprise en question ne leur imposait aucunement de recourir à l’IA, se bornant à leur proposer des abonnements d’entreprise à des IA disponibles dans le commerce. « Si cela peut sembler être un rêve devenu réalité pour les dirigeants, les changements induits par l’adoption enthousiaste de l’IA peuvent s’avérer insoutenables et causer des problèmes à long terme », alertent cela dit les autrices :

« Une fois l’enthousiasme des premiers essais retombé, les employés peuvent se rendre compte que leur charge de travail a augmenté discrètement et se sentir dépassés par toutes les tâches qui leur incombent soudainement. Cette augmentation insidieuse de la charge de travail peut à son tour entraîner une fatigue cognitive, un épuisement professionnel et une prise de décision affaiblie. La hausse de productivité observée au début peut laisser place à une baisse de la qualité du travail, à un turnover élevé et d’autres problèmes. »

Un pharmakon : à la fois remède, poison, et bouc émissaire

Les chercheuses ont identifié trois formes principales d’intensification : l’élargissement du périmètre des tâches effectuées, le flou qui s’instaure entre travail et vie privée, la banalisation du multitâches.

L’IA pouvant assister ses utilisateurs dans des domaines où ils n’ont pas de compétences particulières, « les employés ont progressivement assumé des responsabilités qui incombaient auparavant à d’autres », relèvent les chercheuses. Les chefs de produit ont commencé à écrire du code, les chercheurs se sont attelés à des tâches d’ingénierie quand d’autres « se sont essayés à des tâches qu’ils auraient auparavant externalisées, reportées ou évitées ».

L’IA générative a en effet rendu envisageable d’effectuer des tâches qui, jusque-là, paraissaient a priori infaisables, faute de compétences dédiées. Les chercheuses ont constaté que les employés ont commencé à prendre en charge des tâches qui auraient préalablement nécessité une aide ou du personnel supplémentaires. Non content de réduire la dépendance vis-à-vis des autres, ce recours à l’IA offre en outre « une amélioration cognitive stimulante » aux personnes ainsi « augmentées ».

Sauf que, à la manière des prises de risque que peuvent générer de faux sentiments de sécurité, cette émancipation est aussi un pharmakon, et donc à la fois un remède, un poison, et un bouc émissaire, qui n’est pas sans rappeler la potentielle émergence d’une « bêtise artificielle » contre laquelle alerte la philosophe Anne Alombert.

Les chercheuses évoquent par exemple le temps passés par des ingénieurs à devoir réviser et corriger les mémos générés par IA de personnes ne disposant pas de compétences appropriées, ou encore le temps perdu à finaliser des pull requests et à remettre au propre du code développé en mode « vibe-coding » par des dev’ ne maitrisant pas le langage de programmation en question.

Un temps perdu que nous avions déjà chroniqué dans un article consacré au « workslop », terme désignant précisément les travaux de piètre qualité obligeant employés et managers à « refaire le job » que des gens moins qualifiés ont effectué grâce à l’IA dans des domaines qu’ils ne maitrisent pas, ou pas assez.

La frontière entre travail et temps libre devient poreuse

Les chercheuses ont également constaté que le fait de pouvoir expérimenter des tâches jusqu’alors inenvisageables contribue également à alimenter un flou entre ce qui relève du travail et de la vie privée. Des employés ont ainsi commencé à expérimenter de nouvelles compétences professionnelles sur leurs temps de pause déjeuner, le soir ou le week-end.

Le fait de pouvoir avoir des « conversations » avec les chatbots, et que ces tâches s’apparentent à la fois à des défis, énigmes, missions et nouveaux apprentissages, accroît également la propension à pouvoir s’y atteler, ou y retourner, en-dehors de ses horaires de travail.

« La frontière entre le travail et le temps libre n’avait pas disparu, mais elle était devenue plus facile à franchir », résument les chercheuses, à qui des employés ont déclaré avoir réalisé, souvent après coup, qu’à mesure que le fait de travailler pendant les pauses devenait une habitude, les temps morts ne leur procuraient plus le même sentiment de récupération.

Un « nouveau rythme » de travail multitâche

Le fait de pouvoir être assisté par un « partenaire » ou « assistant  » dédié, susceptible de les aider en matière de productivité dans leur charge de travail, a aussi poussé certains employés à vouloir en faire plus qu’avant, dans le même temps. L’IA a ainsi introduit un « nouveau rythme » de travail permettant à des employés de gérer plusieurs tâches actives à la fois.

Si ce mode « multitâches » peut donner l’impression d’être « boosté » voire « dopé », il requiert aussi de devoir fréquemment changer de sujet d’attention, pour vérifier et relancer les propositions de l’IA, et de faire face à un nombre croissant de tâches à la fois. De quoi générer une charge mentale cognitive supplémentaire, facilitant de surcroit les problèmes de concentration.

Cette façon de courir sur plusieurs fronts entraîne elle-même une fatigue accrue. De nombreux travailleurs ont ainsi remarqué qu’ils faisaient plus de choses à la fois et ressentaient plus de pression qu’avant d’utiliser l’IA, « même si le gain de temps résultant de l’automatisation était censé réduire cette pression », soulignent les chercheuses.

Un cercle vicieux : on ne travaille pas moins mais autant, voire plus

Alors que l’IA faisait miroiter des gains de productivité, ces derniers pourraient dès lors et dans le même temps entraîner des risques de burnout et de turnover, et donc de baisse de la productivité. Les chercheuses en concluent que ces combinaisons de travaux et (multi)tâches « augmentés » ont « créé un cercle vicieux », et que « cela place les dirigeants dans une situation délicate », voire au risque de « ne pas se rendre compte du coût de ces gains avant qu’il ne soit trop tard » :

« L’IA a accéléré certaines tâches, ce qui a accru les attentes en matière de rapidité ; cette rapidité accrue a rendu les travailleurs plus dépendants de l’IA. Cette dépendance accrue a élargi le champ d’action des travailleurs, ce qui a encore augmenté la quantité et la densité du travail. Plusieurs participants ont fait remarquer que, même s’ils se sentaient plus productifs, ils ne se sentaient pas moins occupés, et dans certains cas, ils se sentaient même plus occupés qu’auparavant. »

Comme l’a résumé un ingénieur : « On pensait que, peut-être, grâce à l’IA, on serait plus productif, on gagnerait du temps et on travaillerait moins. Mais en réalité, on ne travaille pas moins. On travaille autant, voire plus. »

Or, ce type de surmenage peut altérer le jugement, augmenter le risque d’erreurs, la fatigue voire l’épuisement professionnel, et un sentiment croissant qu’il est plus difficile de se détacher du travail, résument les chercheuses.

Contrer les effets épuisants et individualisants de l’IA

Cherchant à anticiper ce que les managers pourraient faire pour aider leurs employés à sortir de ce « cercle vicieux », elles écartent d’emblée le fait de leur demander de s’autoréguler. Elles estiment que les entreprises devraient élaborer un ensemble de normes et standards destinés à recadrer l’utilisation de l’IA, plutôt que de la laisser dévorer le temps de cerveau disponible des employés.

Elles incitent les managers à mettre en place des « pauses intentionnelles » afin d’évaluer l’état d’avancement des travaux, voire reconsidérer les hypothèses de base avant de continuer plus avant. Des propositions qui font écho à celles de Siddhant Khare, qui recommande de passer à autre chose si 30 minutes de conversation avec un chatbot ne s’avèrent pas satisfaisantes.

Les chercheuses proposent aussi de séquencer le temps de travail, avec des plages horaires protégeant les employés de toute interruption, et le regroupement des notifications non urgentes :

« Plutôt que de réagir à chaque résultat généré par l’IA au fur et à mesure qu’il apparaît, le séquençage encourage le travail à progresser par phases cohérentes. Lorsque la coordination est rythmée de cette manière, les travailleurs subissent moins de fragmentation et moins de changements de contexte coûteux, tandis que les équipes maintiennent leur rendement global. En régulant l’ordre et le calendrier du travail, plutôt qu’en exigeant une réactivité continue, le séquençage peut aider les organisations à préserver l’attention, à réduire la surcharge cognitive et à favoriser une prise de décision plus réfléchie. »

Les chercheuses invitent également les entreprises à organiser des temps de dialogue et de débriefing permettant aux employés d’échanger sur leurs pratiques respectives et ce que l’IA a pu changer. L’objectif serait tout autant d’ « interrompre l’utilisation continue et isolée de l’IA » que d’aider à « retrouver une certaine perspective », réancrer le travail dans un contexte social et « contrer les effets épuisants et individualisants d’un travail rapide et médiatisé par l’IA ».

« L’IA facilite l’accomplissement de tâches supplémentaires, mais rend plus difficile de s’arrêter », concluent les chercheuses, qui appellent à « préserver des moments de récupération et de réflexion, même lorsque le rythme de travail s’accélère » :

« La question qui se pose aux organisations n’est pas de savoir si l’IA va changer le travail, mais si elles vont activement façonner ce changement ou le laisser les façonner discrètement. »

Commentaires (19)

votre avatar
Parfait exemple d'effet rebond à court terme, et bien pire encore sur le long terme.

Ce qu'il faut aussi regarder c'est la quantité de code qu'on produit à plus grande vitesse, son accumulation et la dette technique qui augmente encore plus vite, tout ça à cause de la métrique simpliste de la quantité de code qui ne va pas de pair avec la qualité.
votre avatar
Ce qui est triste, c'est qu'hier, pour schématiser, les ingénieurs étaient les garants et défenseurs de la qualité de code, souvent contre le management. Aujourd'hui ils en deviennent de fait les détracteurs.
votre avatar
C'est dommage de citer la notion de Pharmakon sans pointer vers l'interview d'Anne Alombert par Mathilde Saliou qui avait été réalisée ici sur Next il y a peu de temps ! 
votre avatar
Bien vu, j'ai rajouté la mention, merci !
votre avatar
OK, donc l'IT découvre l'impact de l'informatisation des métiers sur elle même.
votre avatar
C'est un peu mon impression aussi. Jusqu'à présent, c'est l'IT qui créait des outils pour booster la productivité d'autres métiers qui en subissait les conséquences (rythme plus soutenu, stress, etc). Là, des outils arrivent pour booster leur productivité, et ce coup-ci c'est eux qui en subissent les conséquences. Mais malheureusement pour eux, les responsables n'y prêteront certainement pas plus d'attention que les responsables des métiers qui ont été "boostés" avant eux.
Ca fait des décennies que la productivité est mise avant tout autre considération, et ce n'est pas prêt de changer.
Ca me rappelle une chose que me racontait mon père, menuisier qui a commencé dans les années 60. Au début de sa carrière, il lui fallait une journée pour fabriquer une fenêtre, les machines outils n'étant pas démocratisées. Lorsque les machines sont arrivées, ils s'est retrouvé à fabriquer 4 fenêtres par jour au lieu de 1. Comme il travaillait toujours le même nombre d'heure, il n'était pas payé plus mais le rythme était devenu plus usant et il regrettait l'époque moins stressante où il lui fallait une journée pour faire une fenêtre.
60 ans plus tard, on en est toujours au même point à pousser la productivité a fond, peu importe ce qu'en pense les gens impactés.
votre avatar
étant formateur dans le domaine, je conseille aux apprenants et apprenantes que pour la fatigue mentale, il est essentiel de doser son effort.
Vibe-coder non-stop peut amener à faire des conneries monumentales et à perdre du temps. Il est essentiel - comme depuis toujours - de savoir lever les mains du clavier et de réfléchir un peu.
votre avatar
Dans le précédent article j'avais donné l'exemple du retail où les tâches se sont diversifiées en raison de l'automatisation d'une bonne partie du travail. Un employé de centre commercial fait beaucoup plus d'activités qu'auparavant vu qu'une part d'entre elles est désormais automatisée (notamment le back office).

Donc ça me fait doucement marrer que les acteurs de l'IT semblent découvrir l'impact de leurs activités sur celles des autres métiers. Je ne sais pas si c'est de la candeur, de la naïveté, ou un aveuglement trop long.

Outre l'aspect "productivité", l'enjeu des projets IT, c'est aussi de réduire le besoin en personnel.
votre avatar
Mouais alors j'entends ça dans le batiment depuis des années de la part des collègues proches de la retraite surtout chez les plombiers qui regrettent le cuivre (cintrage manuel, collets-battus, brasure oxy) ce qui est assez aberrant quand on sait à quel point c'est globalement fatigant (et obsolète). En fait je constate surtout que les métiers changent et que beaucoup qui ont appris UNE manière de faire en apprentissage il y a des décennies ne veulent plus que rien ne change.

Pour le coup la mécanisation est une vraie opportunité de se simplifier la vie (d'ailleurs c'est marrant de voir les jeunes en sortie de CFA qui regardent avec des gros yeux certains anciens se compliquer la vie en faisant la moitié des trucs à la main) et il est probable que le cas que tu évoques avec ton père était plus lié à la concurrence, notamment le fort développement de la filière menuiserie en pologne qui s'est installée, que de la mécanisation en elle-même.
votre avatar
Selon moi, c'est lié au deux. C'est la concurrence qui a poussé tout le monde au final à passer aux machines qui ont augmenté le rendement. Et je pense que ces anciens sont aussi nostalgique d'une époque où le rendement était moins présent et où tu pouvais passer X heures à travailler sur une fenêtre dont tu devais être fier en tant qu'artisan. Quand tu as fais 4 fenêtres dans la journée pour lesquelles tu as moins besoin de peaufiner vu la précision des machines, tu dois avoir moins l'impression que c'est "ton" travail j'imagine. Et ta fierté d'artisan en prend peut-être un coup.
Tout comme, j'imagine, une personne qui écrit du code doit être un minimum fière après avoir passé X heures/jours à écrire un code qui fonctionne et pour lequel elle s'est creusée la tête. Avoir écrit 3 fois plus de code dans le même laps de temps, aidée par une IA qui lui a prémâché le boulot, ne la rend pas 3 fois plus fière je pense, voir peut-être même moins fière de son code qui n'est plus vraiment le sien.
votre avatar
Une partie de l'IT peut être, mais l'automatisation a toujours été le but fondamental de l'informatique, depuis la machine de Turing.

Et l'informatique a toujours été le premier domaine à s'automatiser lui même.

Mais c'est clair qu'avec l'IA qui se développe au moment où de grosses cohortes de jeunes développeurs arrivent sur le marché du travail, ça va créer un choc dont on se souviendra.
votre avatar
Développeur en apparence. plus ça va moins ce qui sort des écoles est compétent. Avec l'IA en surcouche on aura des incapables (si ce n'est pas déjà le cas). L'IA c'est utilisable quand on maîtrise son domaine. Pas l'inverse.

Plus ça va plus j'y vois un moyen pour les puissances à l’œuvre de retirer la compétence dans le sens d'être le seul à la conserver.
votre avatar
Je dirai que ce n'est pas de l'informatisation car cela implqiue un processus automatique qui donne le même resultat si on fourni les mêmes données initiales.

Je pense que c'est là d'où provient le problème avec ce type d'algorythme.

Pour moin par construction il y a une part d'aléatoire donc sur un processus qui réclame de la rigeur et bien c'est loupé...

Si on faisait une analogie je pense qu'on pourrait parler de Fata morgana.
une double illusion qui montre des choses qui n'existe pas et masque des choses existantes...
votre avatar
Les maagers et autres patrons d’entreprises se précipitent sur cette merde pour supprimer des postes humains. Plus dure sera la chute ... Avec possibles défaillances d'entreprises à la clef.
votre avatar
C'est personnes là n'en n'ont rien à F;;;; car vision courte termiste. Pendant qu'ils installent ces """"IA"""""", la productivité (même de mauvaise qualité) augmente donc ça confirme leurs objectifs donc augmentation de salaires+ part variable managiariale + eventuellement stock option etc.
Et quand ça commencera à se casser la gueule, ils auront déjà recuppérer les billes ...
votre avatar
L'article rappelle une chose importante: l'IA ne donne pas aux utilisateurs des nouveaux savoir faires. Il faut rester en capacité d'analyser et comprendre ce qui est généré.
votre avatar
D'autant que l'IA permet d'augmentation la production d'écrit, et elle est demandée.
Mais en grosse contre-partie l'employé devient responsable de ces nouveaux écrits.

Une belle promotion sans promotion.
votre avatar
et prolongeaient leur journée de travail, souvent sans qu'on leur demande de le faire. De leur propre initiative.
Les gens sont fous.
votre avatar
Il serait plus que temps de criminaliser le travail fait au delà des 35h surtout sans rémunération. Les gens ne le voient pas car la personne n'est pas dans l'entreprise mais faire cela c'est empêcher une personne d'avoir un emploi, la priver de rémunération, la laisser au chômage. Toutes ces minutes ou même heures pour certains faites en plus pour chaque employé ça fait des emplois complets à 35h de perdus. 3 minutes d'avance, 3 minutes de plus à midi, 3 minutes d'avance à 14h, 3 minutes de plus le soir. Ca parait insignifiant mais sur une semaine ça fait 1h ! Et beaucoup sont loins des 3 minutes !

De l’enthousiasme au burnout, l’IA ne réduit pas la charge de travail, mais l’intensifie

  • Un pharmakon : à la fois remède, poison, et bouc émissaire

  • La frontière entre travail et temps libre devient poreuse

  • Un « nouveau rythme » de travail multitâche

  • Un cercle vicieux : on ne travaille pas moins mais autant, voire plus

  • Contrer les effets épuisants et individualisants de l'IA