Au travail, l’IA bas de gamme (« workslop ») freine la productivité et booste la défiance
You've been workslopped
Illustration : Flock
Le 25 septembre 2025 à 16h35
La banalisation du recours à l’IA amène de plus en plus d’employés, mais également de managers, à y recourir pour améliorer leur productivité, travailler plus vite, voire moins. Les contenus de faible qualité qui en émanent parfois doivent pourtant être corrigés et retravaillés par leurs collègues, sapant la confiance au sein des équipes professionnelles.
Au travail, l’IA bas de gamme (« workslop ») freine la productivité et booste la défiance
You've been workslopped
Illustration : Flock
La banalisation du recours à l’IA amène de plus en plus d’employés, mais également de managers, à y recourir pour améliorer leur productivité, travailler plus vite, voire moins. Les contenus de faible qualité qui en émanent parfois doivent pourtant être corrigés et retravaillés par leurs collègues, sapant la confiance au sein des équipes professionnelles.
Le 25 septembre 2025 à 16h35
IA et algorithmes
IA
9 min
Après les sites d’infos générés par IA (GenAI), les contenus, images ou vidéos bas de gamme polluant, eux aussi, de plus en plus les réseaux sociaux (AI slop), voici venir le « workslop », son pendant professionnel, partagé en entreprise entre collègues.
Un sondage effectué auprès de 1 150 employés de bureau, aux États-Unis, indique que 40 % des répondants en avaient reçu le mois dernier et que 63% en auraient reçu au moins 10 %. L’analyse et correction de chaque workslop reçu leur avait fait perdre, en moyenne, près de 2 heures de leur temps, représentant une « taxe invisible » de 186 dollars par employé et par mois, soit l’équivalent de 9 millions de dollars annuel pour une entreprise de 10 000 employés.
Le sondage émane de BetterUp (qui se présente comme l’inventeur du coaching numérique) et du Stanford Social Media Lab, qui étudie l’impact des outils numériques sur la santé et le bien-être, la manière dont les gens comprennent et font confiance aux informations numériques, ainsi que les effets de l’intelligence artificielle sur la communication humaine.
Ils présentent la notion de « workslop » comme un contenu généré par l’IA « qui a une belle apparence, mais qui manque de substance pour faire avancer de manière significative une tâche donnée », comme ils l’expliquent dans un article de la Harvard Business Review (HBR).
Leurs diapositives soignées, code sans contexte, résumés trop succincts ou rapports longs et structurés (voire interminables) feraient certes « illusion », dans un premier temps. Si certains employés recourent à l’IA pour peaufiner un travail de qualité, améliorer la productivité et gagner du temps, le « workslop » transfère quant à lui la charge de travail du créateur au destinataire, obligeant collègues et employés à devoir refaire le job, afin d’en corriger les erreurs et approximations.
Le sondage (auquel tout un chacun peut répondre) leur demandait en effet s’ils avaient déjà «
reçu un contenu professionnel qui, selon vous, a été généré par une IA et qui semble accomplir une tâche au travail, mais qui est en réalité inutile, de mauvaise qualité et/ou donne l’impression que l’expéditeur n’a pas fourni suffisamment d’efforts ».
Quand l’IA transfère le travail cognitif à un autre être humain
Les employés concernés estiment qu’en moyenne 15,4 % du contenu qu’ils reçoivent au travail relèvent du « workslop », émanant principalement de collègues (40 %). 18 % serait par contre envoyé aux managers par leurs subordonnés directs, et 16 % aux employés par leurs hiérarchies et managers, voire depuis des échelons supérieurs.
Au lieu de renforcer le travail d’équipe, le « workslop » rendrait les collègues agacés (53 %), confus (38 %) et offensés (22 %), saperait la confiance des équipes, rendrait contre-productif le recours à l’IA dans les organisations, tout en étant susceptible de miner les rapports hiérarchiques, lorsqu’il émane d’un supérieur ou donneur d’ordre, comme en atteste le témoignage anonymisé d’un des sondés :
« Recevoir ce travail de mauvaise qualité m’a fait perdre beaucoup de temps et m’a causé beaucoup de désagréments. Comme il m’avait été fourni par ma supérieure, je ne me sentais pas à l’aise de lui faire remarquer sa mauvaise qualité et de lui demander de le refaire. J’ai donc dû faire l’effort de faire quelque chose qui aurait dû être de sa responsabilité, ce qui m’a empêché de me consacrer à mes autres projets en cours. »
Contrairement aux promesses de gains de productivité associées à l’« intelligence artificielle », cette externalisation mentale vers une machine « transfère le travail cognitif à un autre être humain », notent les chercheurs.
De quoi alourdir la « charge mentale » des collègues obligés de devoir décoder le contenu et déduire le contexte manquant ou erroné, ce qui peut « entraîner une cascade de processus décisionnels complexes et laborieux, notamment des retouches et des échanges délicats avec les collègues », comme le montrent ces autres témoignages :
- « Il était un peu difficile de comprendre ce qui se passait réellement dans l’e-mail et ce qu’il voulait vraiment dire. Il a probablement fallu une heure ou deux pour rassembler tout le monde et réagencer l’information de manière claire et concise.
- J’ai dû perdre encore plus de temps à vérifier les informations et à les recouper avec mes propres recherches. J’ai ensuite dû perdre encore plus de temps à organiser des réunions avec d’autres superviseurs pour régler le problème. Puis j’ai continué à perdre mon temps en refaisant moi-même le travail. »
Le coût le plus dommageable se situerait du côté des relations interpersonnelles. Environ la moitié des personnes interrogées considéraient les personnes leur ayant envoyé du workslop comme moins créatifs (54 %), moins compétents (50 %) et moins fiables (49 %) qu’ils ne l’estimaient jusqu’alors. 42 % les considéraient également comme moins dignes de confiance et 37 % les jugeaient moins intelligents.
De plus, 34 % des personnes ayant reçu du workslop en informent leurs collègues ou leurs supérieurs, ce qui peut attiser les tensions au sein des équipes, et 32 % déclarent être moins enclines à vouloir retravailler avec l’expéditeur à l’avenir.
Les femmes utilisant l’IA sont deux à quatre fois plus pénalisées
Cela fait écho à une autre étude récente effectuée auprès de 1 026 ingénieurs au sujet de leur perception supposée des compétences associées à l’utilisation de l’IA au travail, elle aussi relayée par la HBR. Lorsqu’on leur faisait croire que le code présenté avait été généré avec l’aide d’une IA, les notes étaient en moyenne inférieures de 9 %, une « pénalité » visant la capacité perçue de la personne l’ayant écrit.
Cette pénalité était en outre plus de deux fois plus sévère pour les femmes ingénieures : 13 % contre 6 % pour les ingénieurs masculins : « Lorsque les évaluateurs pensaient qu’une femme avait utilisé l’IA pour écrire du code, ils remettaient beaucoup plus en question ses compétences fondamentales que lorsqu’ils évaluaient le même code assisté par l’IA écrit par un homme ».
Une méfiance accrue du côté de ceux qui n’utilisent pas l’IA, bien plus sévères dans leurs critiques, allant jusqu’à pénaliser 26 % plus sévèrement les ingénieures femmes que leurs pairs masculins pour une utilisation identique de l’IA.
La HBR souligne qu’un moyen de lutter contre les effets de bord du « workslop » et des préjugés associés à l’IA serait, paradoxalement, d’organiser des hackathons ouverts à l’ensemble des employés, qu’ils soient techniciens ou non, afin de les acculturer, et de les faire monter en compétence.
Pinterest a ainsi invité ses dirigeants à jouer le rôle de « hack doctors » et de chefs d’équipe, apportant leur crédibilité à l’expérimentation de l’IA. Résultats : 96 % des participants ont déclaré continuer à utiliser l’IA chaque mois, et 78 % des ingénieurs ont reconnu que l’IA leur avait permis de gagner du temps.
« IT’s complicated »
BetterUp rappelle pour sa part qu’il ne faudrait surtout pas, pour autant, systématiser le recours à l’IA, mais uniquement lorsque son utilité a été démontrée, de façon transparente et supervisée, tant pour éviter le « shadow IT », les risques de fuites de secrets d’affaires et données personnelles, que pour amoindrir la probabilité de « workslop ».
« Si l’IA est l’affaire de tous, il incombe avant tout aux dirigeants de l’organisation d’élaborer des lignes directrices à l’intention des employés afin de les aider à utiliser cette nouvelle technologie de manière à ce qu’elle corresponde au mieux à la stratégie, aux valeurs et à la vision de l’organisation », et donc « élaborer ses propres politiques et recommandations rigoureuses concernant les meilleures pratiques, les meilleurs outils et les normes à respecter ».
« Le workslop peut sembler facile à créer, mais il a un coût pour l’organisation », souligne BetterUp, pour qui « les dirigeants ont tout intérêt à montrer l’exemple en utilisant l’IA de manière réfléchie, avec un objectif et une intention précis » :
« Définissez des garde-fous clairs pour vos équipes en matière de normes et d’utilisation acceptable. Présentez l’IA comme un outil collaboratif, et non comme un raccourci. Adoptez un état d’esprit pionnier, avec beaucoup d’initiative et d’optimisme, en utilisant l’IA pour accélérer l’obtention de résultats spécifiques grâce à une utilisation ciblée. Et appliquez les mêmes normes d’excellence au travail effectué par des duos humains-IA bioniques qu’à celui effectué par des humains seuls. »
Ce n’est pas la première fois, et certainement pas la dernière, que le recours à l’IA en entreprise s’avère contre-productif. En mai, une enquête d’IBM effectuée auprès de 2 000 CEO indiquait ainsi que 25 % seulement des projets d’intégration d’intelligence artificielle avaient produit le retour sur investissement attendu, et que 16 % seulement avaient été étendus à l’ensemble de l’entreprise.
En juillet, une étude qualitative comparant le travail de 16 développeurs expérimentés montraient, « de façon surprenante », que l’IA générative rendrait les développeurs « plus lents » : « ils prennent 19 % plus de temps que sans ».
En août, une étude du laboratoire dédié à l’IA décentralisée du MIT concluait que 95% des projets internes d’IA générative menés à des fins productives en entreprise n’engendraient aucun impact visible sur le résultat d’exploitation.
Commentaires (15)
Le 25/09/2025 à 17h02
Le 25/09/2025 à 17h59
Je n'imagine pas il y a 5 ans avoir "faire xxx recherches sur Google", mais pour l'IA ça passe. Probablement parce que je dois participer à créer le monstre qui contribuera à me mettre au chômage (chose que Google ne pouvait pas faire)...
Le 25/09/2025 à 18h23
Le 26/09/2025 à 09h02
Et vérifier une énième fois ce bon vieux principe de Peter.
Le 26/09/2025 à 09h37
Le 26/09/2025 à 09h44
Le 26/09/2025 à 12h35
Dans un ou deux ans ils se rendront compte que la qualité n'est plus là, mais ce cera trop tard (pour les produits, et les externes qui ne reviendront pas).
Le 25/09/2025 à 19h27
Le 26/09/2025 à 09h00
Le 26/09/2025 à 09h30
(1) Le contexte traité fait 3 phrases.
Modifié le 25/09/2025 à 21h32
Il y a aussi ceux qui te font un rapport qui est un puzzle de phrases ou paragraphes pompés sur Internet, puzzle assemblé de manière parfois dégueulasse.
Bref, ces mêmes personnes utilisent l’IA aujourd'hui.
Le 25/09/2025 à 22h06
Un enfer au boulot 🔥
Le 26/09/2025 à 15h30
Le 26/09/2025 à 17h36
Modifié le 01/10/2025 à 08h47
Ma réponse est plus rapide maintenant : me fait pas perdre mon temps avec ton GPT-à-la-con.
Le pire est quand tu livres un truc et que le gus demande à GPT ce qu'il en pense.
On va droit dans le mur avec ces saloperies...
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?