Le remplacement des travailleurs par l’IA, un récit peu nuancé

Travail déplacé

Le remplacement des travailleurs par l'IA, un récit peu nuancé

Le 24 juillet 2023 à 15h01

Commentaires (21)

votre avatar

On a parfois l’impression en ce début de l’IA que c’est l’humain qui est au service de l’IA pour lui permettre d’accomplir sa promesse alors qu’au final, ce devrait être, j’espère, l’IA qui est au service de l’humain.



Bon, d’un point de vue pragmatique, c’est surtout l’IA au service de la maximisation du bénéfice.

votre avatar

Une IA médicale qui a des hallucinations, normal quoi :D

votre avatar

Si des métiers risquent de disparaître/changer/se transformer (comme ce qui arrive à chaque fois qu’une nouvelle techno d’automatisme arrive sur le marché), considérer l’IA génératrice comme une remplaçante dans son état actuel est une chimère.



Tout au mieux, l’IA génératrice est une assistante. Elle est capable de produire du contenu en très peu de temps avec, en principe, une bonne cohérence avec le besoin. Elle est capable de synthétiser une grande quantité d’information et d’en extraire des éléments moyennant une requête bien écrite (au même titre que du SQL standard, sauf que là c’est du langage naturel). N’utiliser que les données du modèle d’entraînement est l’erreur de base car celui-ci n’a que pour seul but de permettre à l’IA de fonctionner, de comprendre ce qu’on lui demande et de savoir répondre. Pour faire une comparaison imagée, c’est comme considérer que l’apprentissage scolaire suffit à lui seul pour exercer une activité professionnelle intellectuelle.



Personnellement, la façon dont je travaille avec les outils basés sur l’IA génératrice est qu’elle me sert à dégrossir de manière rapide un sujet (comparaison de solutions / choix techniques / matrice pour et contre, maquetter rapidement quelque chose / etc) et derrière j’affine et approfondi le résultat. L’outil peut aider aussi à approfondir mais il n’est pas capable de “gratter” comme un humain sait le faire, il n’a pas la notion d’intuition comme nous avons qui nous permet de détecter une fausse piste ou une déviation du but recherché. En bonus, c’est également un bon soutien type canard en plastique. Pour faire une autre comparaison imagée, l’IA génératrice c’est l’outil qui dégrossi le marbre, et l’humain applique la touche qui en fait un David.



C’est pour ça que je suis toujours déçu des discours commerciaux vendant monts et merveille (OpenAI est en train de se tirer dans le pied au bazooka avec ses conneries sur ce point) d’Oracle-qui-sait-tout alors que c’est faux. Ce sont des outils puissants, qui peuvent faire gagner du temps, et très intelligents, mais aussi super cons si mal configurés ou exploités.



J’ai d’ailleurs fait l’exercice dans le cadre d’une étude pour un client sur la pertinence des assistants d’IA génératrice comme GitHub Copilot. Sur un panel de développeurs assez varié en matière de technos et finalité, les réponses furent assez nuancées. Certains ressentaient le gain de temps, d’autres pas plus que ça, et d’autres encore ont considéré l’inverse total, une perte de temps. C’était plutôt intéressant comme sujet, surtout quand on le traite de manière objective.

votre avatar

Personnellement, la façon dont je travaille avec les outils basés sur l’IA génératrice
est qu’elle me sert à dégrossir de manière rapide un sujet (comparaison de solutions / choix techniques / matrice pour et contre, maquetter rapidement quelque chose / etc) et derrière j’affine et approfondi le résultat. L’outil peut aider aussi à approfondir mais il n’est pas capable de “gratter” comme un humain sait le faire, il n’a pas la notion d’intuition comme nous avons qui nous permet de détecter une fausse piste ou une déviation du but recherché. En bonus, c’est également un bon soutien type canard en plastique. Pour faire une autre comparaison imagée, l’IA génératrice c’est l’outil qui dégrossi le marbre, et l’humain applique la touche qui en fait un David.



certains n’ont pas, encore, ça !
ils font un simple “C/Coller” (grrr) !!! :mad:

votre avatar

Si des personnes considèrent que l’IA génératrice peut remplacer leur travail en faisant des copier/coller de ses suggestions, au même titre des devs qui faisaient du copier/coller de stackoverflow sans remise en question, dans ce cas leur emploi mérite en effet une suppression.



Perso si j’embauche un dev, c’est parce qu’il est compétent, pas parce qu’il sait copier/coller du code. Ca, n’importe quel teubé dans mon genre sait le faire donc autant embaucher GitHub Copilot, il produira la même merde pour moins cher.

votre avatar

C’est moi ou bien le texte de l’intro est super difficile à lire ?



“Bill Gates qui promeut d’intenses gains de productivité, des chiffres inquiétants sur le nombre de métiers susceptibles d’être remplacés… quand on se penche sur la relation de l’intelligence artificielle au travail, pourtant, le tableau mériterait d’être nuancé.”

votre avatar

On comprend ce que Mathilde voulait dire mais c’est vrai que c’est pas simple à relire.
J’ai l’impression que c’est le placement du “pourtant” qui pose soucis.



Bill Gates qui promeut d’intenses gains de productivité, des chiffres inquiétants sur le nombre de métiers susceptibles d’être remplacés… Pourtant, quand on se penche sur la relation de l’intelligence artificielle au travail, le tableau mériterait d’être nuancé.”



Sinon, pour l’IA, rien que de très nouveau avec la technologie.
Les superbes machines-outils de nos usines ont eu besoin d’une phase d’intégration importante pour les faire fonctionner.
Et ensuite, il faut toujours de l’humain pour les entretenir, les réparer, …



Ce qui me gêne profondément, c’est cette énorme fracture que l’on constate par la disponibilité d’une pléthore de main d’œuvre non qualifiée, disponible et connectée.
On a d’un côté des profils qualifiés bien payés qui sont de plus en plus techniques et compétents qui entretiennent de gros systèmes (mécaniques, électroniques, informatiques, médicaux, …)



Et de l’autre côté, une compensation de tous les petits trucs merdiques censés être automatisés mais jamais corrigés car trop chers/pas intéressants/pas rentables qui sont fait par des petites mains, payé à l’acte à un tarif ridicule.



Et la mise à disposition du service global à tout un chacun crée un peu d’emploi très qualifié… mais surtout beaucoup d’emplois précarisés.



C’est quand même dingue à l’époque de l’informatique automatisée, on a des plateformes comme Amazon Mechanical Turk, Scale AI ou Appen qui prospèrent au lieu de disparaitre.



Mais ils trouvent … donc des gens prêts à bosser pour ça, il y en a.



Monde de merde.

votre avatar

Au final, c’est juste un énième tentative de se débarrasser des employés coûteux et revêches pour faire plus d’argent.



Une énième bulle qui finira par éclater tant les capacités réelles de ces outils sont très différentes des capacités qui ont été vantées aux divers think tank pour drainer de l’argent.



Jusqu’à présent, c’est pour des tâches physiquement difficiles et/ou à faible valeur ajoutée que l’on cherchait à remplacer l’homme. Là, on s’attaque à l’intelligence. C’est l’aspect nouveau.



Personnellement je pense qu’il existe bien un métier réellement en danger avec cette technologie : le rédacteur de discours politiques.
En effet, c’est le type de métier où les grosses approximations et les fausses promesses sont courantes voir les changements d’avis. Je suis persuadé que chat gpt doit être super doué pour la langue de bois.

votre avatar

Les pseudo études mitées comme celle sur WhatsApp sont de bonnes candidates aussi, globalement tout ce qui relève du discours qui n’a pas besoin de fond, mais juste la forme sans soucis de véracité, les IA sont très prolifique pour ça.



C’est pour ça que je n’ai pas compris les quelques initiatives d’utiliser des IA pour produire des articles, quel intérêt sans relecture ? C’est complétement stupide d’avoir brancher la machine en direct sur le site sans passer par aucune relecture ni validation.
Sûrement un effet de bords des grands discours miraculeux sur le potentiels des IA, ont-ils été produit par une IA et publiés sans relecture ? :transpi:

votre avatar

L’intelligence artificielle (IA) pourrait remplacer 80 % des métiers humains


Dit autrement, 80% des métiers sont des jobs qu’une IA pourrait faire.



Et là, ca pose le problème de la “valeur travail”. Vous préférez:




  1. vous épanouir au chômage en sachant qu’une IA fait votre job.

  2. vous épanouir au travail en sachant que vous faites un job qu’une IA pourrait faire.



Difficile de répondre…



Exemple: This CEO replaced 90% of support staff with an AI chatbot

votre avatar

En tout cas, ne pas confondre “80% des métiers” et “80% des emplois”…
Mais même 80% des métiers, j’ai du mal à y croire.

votre avatar

Bonne remarque, car le chatbot aura du mal à installer une fenêtre ou faire la vidange d’une bagnole. Et même pour rester dans l’IT, il aura du mal à installer le PC dans un bureau tout seul.

votre avatar

entre ça…




  1. Dit autrement, 80% des métiers sont des jobs qu’une IA pourrait faire.



et…




  1. il est des “métiers* où les employeurs ont dû mal à recruter”



on est mal barrés ! :fumer:




  • trop pénibles + pas assez payés, pour !

votre avatar

SebGF a dit:




Tout au mieux, l’IA génératrice est une assistante. Elle est capable de produire du contenu en très peu de temps avec, en principe, une bonne cohérence avec le besoin.
(…)
Personnellement, la façon dont je travaille avec les outils basés sur l’IA génératrice est qu’elle me sert à dégrossir de manière rapide un sujet (comparaison de solutions / choix techniques / matrice pour et contre, maquetter rapidement quelque chose / etc) et derrière j’affine et approfondi le résultat.


J’ai une expérience assez similaire à toi, l’IA est bien pour :




  • Dégrossir et donner un plan sur lequel se baser pour faire son travail

  • Proposer des pistes de réflexion auxquelles on n’aurait pas pensé spontanément

  • Occasionnellement, nous débloquer sur un problème très spécifique en apportant une réponse à une question très précise.



Cela est vrai même dans l’un des domaines où l’IA est réputée la plus à l’aise aujourd’hui, comme la traduction. Ça peut t’aider à dégrossir avec un premier jet crade, ça peut aussi répondre à des questions très spécifiques quand tu butes sur un mot ou une expression en particulier. Ça peut aussi te donner des pistes de réflexion par exemple en te proposant des expressions idiomatiques dans un contexte donné. Mais ça fait pas le boulot à ta place non plus. En tout cas pas correctement.



Ceci étant, il y a deux raisons de penser que l’IA va faire disparaître pas mal de jobs :




  • Gains de productivité obligent, le boulot qui était fait avant par 10 personnes, pourra être fait demain par 1 ou 2 personnes assistées de l’IA. De fait, les 8 ou 9 autres devront se trouver une autre activité, sauf à ce que cela entraîne une explosion de la demande sur ce type d’activité (les gains de productivité permettent de baisser les prix, la baisse de prix permet de faire appel à ce type de service pour des besoins auxquels on l’envisageait pas avant, parce que trop cher).



  • L’un des problèmes de l’IA est qu’elle est très impressionnante au premier abord. Il y a un espèce de principe de pareto qui s’applique dans les tâches qu’on lui confie : elle fait, au moins en apparence, 80% du boulot… mais ces 80% du boulot ne représentent que 20% du temps de travail. C’est très visible dans la traduction : elle fait un “premier jet”, une traduction naïve, et on a l’impression que le boulot est “presque” fait : “reste plus qu’à corriger un peu les tournures, vérifier les erreurs de terminologie, reformuler ici ou là, trouver la bonne formule qui fait mouche en français”… Sauf que cette traduction naïve, c’est tout au plus 20% du temps de travail pour un traducteur. C’est quelque chose qu’il fait quasiment en temps réel, quasiment aussi vite qu’il est capable de taper au clavier. “Corriger un peu les tournures, vérifier la terminologie, reformuler, trouver la formule qui fait mouche”, c’est ce qui occupe 80% du temps de travail…
    … reste donc à savoir si les donneurs d’ordres seront prêts à payer l’humain à 80%, alors que de son point de vue l’humain ne fait que 20% du boulot. M’est avis que c’est pas gagné.


votre avatar

Pour l’exemple de la traduction, l’IA génératrice est quand même très bonne sur ce point. Mais évidemment toujours imparfaite.



Pour le coup, ce qui est amusant, c’est que la capacité des LLM de “traduire” est un effet de bord de leur fonctionnement. Comme ils n’ont pas spécialement de “langue maternelle”, ils sont capables de passer d’une langue à l’autre tout en maintenant le contexte et produisant un texte correct. C’est un des effets de leur fonctionnement basé sur un modèle prédictif de suite de tokens. Ce qui est différent de ce que fait DeepL par exemple qui utilise aussi des réseaux neuronaux pour son moteur, mais sur des algo différents (ça n’empêche pas que DeepL est aussi un excellent produit).



Mais je te rejoins aussi sur ce point et j’en ai fait l’expérience avec DeepL pour traduire l’histoire d’un petit jeu que j’ai bricolé. Je l’ai écrite en français par facilité, puis je l’ai traduite en anglais avec DeepL. De prime abord, le résultat était bon, mais en grattant un peu j’ai dû corriger quelques tournures ou mauvaises interprétations du moteur.



Au sujet de la suppression de postes, oui ça risque d’arriver. Et les vendeurs de solutions d’IA génératrice ont même des matrices permettant de calculer le “ROI” de l’outil versus un ETP. Perso je m’en suis un peu méfié car on est encore trop dans l’effet d’aubaine pour les commerciaux, mais il faut garder en tête qu’ils ont des métriques basées sur les utilisations publiques des produits et des différents feedback.

votre avatar

SebGF a dit:




Mais je te rejoins aussi sur ce point et j’en ai fait l’expérience avec DeepL pour traduire l’histoire d’un petit jeu que j’ai bricolé. Je l’ai écrite en français par facilité, puis je l’ai traduite en anglais avec DeepL. De prime abord, le résultat était bon, mais en grattant un peu j’ai dû corriger quelques tournures ou mauvaises interprétations du moteur.


Connaissant bien DeepL, je ne dirais pas qu’il est très bon. Il est suffisant pour comprendre le sens d’un texte mais pas pour obtenir un résultat professionnel. Le problème n’est pas seulement celui des mauvaises interprétations, c’est un problème plus général de style : il a une fâcheuse tendance à garder le style de la langue source, ce qui produit un résultat peu naturel. C’est très visible, par exemple, sur le choix des temps, avec sa foutue tendance à foutre du passé composé absolument partout dans le sens anglais=>français.



J’ai eu récemment à faire du “MTPE” sur un projet : c’est-à-dire prendre le texte traduit par une IA et devoir le corriger… j’y ai passé un temps fou, presque aussi long que si je l’avais traduit moi-même, pour un résultat final probablement moins bon. Là encore, le problème n°1 était le style vraiment dégueulasse. Le souci est qu’une fois que tu as lu une traduction, fut-elle dégueulasse, il est très long et difficile de la “dé-lire” et de trouver la formule la plus naturelle en français. Ton cerveau a été comme “conditionné” par la proposition de la machine, même si tu sais qu’aucun français ne s’exprimerait ainsi dans sa langue maternelle.



Les IA ont tendance à vouloir coller de très près au texte, notamment dans la nature et la fonction des mots. ou dans la répartition des idées d’une phrase en différentes propositions. Mais souvent, pour obtenir un bon résultat, il faut reformuler les phrases. Répartir différemment les concepts dans les propositions, changer un sujet en complément,



À l’heure actuelle je dirais que DeepL reste meilleur que GPT, mais ça ne durera peut-être pas parce que c’est l’un des éléments sur lesquels l’IA générative a une carte à jouer à mon avis : elle sait déjà reformuler quand on lui demande explicitement, elle a une certaine capacité à traiter les concepts, les idées, indépendamment de leur formulation. Il est donc pas exclu qu’elle apprenne assez vite à traduire des idées dans un style vraiment naturel dans n’importe quelle langue qu’elle maîtrise. J’ai l’impression que les DeepL et cie. sont arrivés à une impasse de ce côté là. Le style de DeepL n’a quasiment pas progressé depuis son lancement en 2017.

votre avatar

Merci pour ce retour, perso je n’ai pas trop de soucis avec DeepL mais il faut dire que je m’en sers plus comme support de vérification qu’autre chose (en dehors du précédent exemple que j’ai cité). D’ailleurs est-ce que tu as éventuellement testé leur outil “Writer” en beta ? Apparemment il est justement fait pour aider à reformuler les textes.



Et je te rejoins sur le fait que GPT a des chances de remplacer les algo plus traditionnels de traduction. Non seulement il sait comprendre le contexte et reformuler comme tu l’indiques, mais en plus il est paramétrable. Si on veut en faire un outil déterministe, c’est faisable. Tout comme si on veut lui laisser plus de libre arbitre dans le choix des tokens, on peut le faire. Sans aller trop loin, sinon il risque d’halluciner et partir en vrille.

votre avatar

Et j’ajoute que si tu as pu/dû corriger l’IA dans une langue qui pour toi est une langue étrangère, c’est qu’elle a été plutôt mauvaise. Parce que s’il y a un truc pour lequel l’humain est pas à l’aise, c’est ça. Il y a une raison pour laquelle les traducteurs professionnels traduisent vers leur langue maternelle. Tu n’as probablement pas vu le quart des erreurs (même si tu considères avoir un anglais courant), et en particulier la plupart des erreurs de type “c’est grammaticalement correct, c’est bien des mots en anglais, mais c’est pas une tournure naturelle en anglais, ça sonne comme du français traduit” nous échappent totalement, même quand on se considère à peu près bilingue.



C’est d’ailleurs peut-être pour ça que les IA ont tendance à avoir le même défaut : entraînées sur un corpus qui comprenait probablement son lot de traductions humaines de qualité discutable, par exemple faites par des traducteurs peu scrupuleux ayant traduit depuis leur langue maternelle vers une langue étrangère, elles en imitent peut-être aussi les défauts.

votre avatar

Ce qui est intéressant, c’est qu’à un moment, on se reposera peut-être tellement sur l’I.A. qu’on ne produira presque plus de contenu digne d’entraîner des I.A.



Je pense surtout aux langages de programmation où l’émergence de nouveaux langages sera encore plus difficile qu’avant car faute d’humains pour adopter un nouveau langage, les I.A. n’auront presque rien à imiter.



L’I.A. est peut-être un moment où notre espèce va plafonner, faute d’ambition…

votre avatar

à un un moment à force de se reposer sur l’I.A, on ne produira
presque plus de contenu



j’en veut pour preuve : ces ‘App.’ de traductions instantanées sur Smartphones !



(on ne fait plus l’effort d’apprendre ‘une langue’, à quoi bon…..) :fumer:

votre avatar

ragoutoutou a dit:


Ce qui est intéressant, c’est qu’à un moment, on se reposera peut-être tellement sur l’I.A. qu’on ne produira presque plus de contenu digne d’entraîner des I.A.



Je pense surtout aux langages de programmation où l’émergence de nouveaux langages sera encore plus difficile qu’avant car faute d’humains pour adopter un nouveau langage, les I.A. n’auront presque rien à imiter.



L’I.A. est peut-être un moment où notre espèce va plafonner, faute d’ambition…


À mettre en lien avec cette actu. On peut envisager que ce problème constaté sur la génération d’image se produise aussi sur les grands modèles de langage et autres domaines de l’IA générative.

Le remplacement des travailleurs par l’IA, un récit peu nuancé

  • Des évolutions de productivité…

  • … sujettes à débat

  • Remplacement des cadres de travail ? 

Fermer