Bill Gates promet d’intenses gains de productivité, les chiffres disponibles ont de quoi inquiéter sur le nombre de métiers susceptibles d’être remplacés… Quand on se penche sur la relation de l’intelligence artificielle au travail, pourtant, le tableau mériterait d’être nuancé.
« L’intelligence artificielle (IA) pourrait remplacer 80 % des métiers humains » a déclaré début mai le CEO de l’entreprise SingularitytNET Ben Goertzel, que l’AFP décrit comme un « gourou de l’IA ». Un emploi sur quatre sera touché par l’IA, selon une étude légèrement moins alarmiste de l’OCDE, dont 9 % pourraient être purement remplacés. En volume, Goldman Sachs estime de son côté que 300 millions d’emplois pourraient être remplacés dans le monde.
Les chiffres font peur : fin 2022, 42 % des gens interrogés à travers 17 pays pour une étude atlas VPN pensaient probable que leur emploi soit remplacé par des IA (selon une autre étude du cabinet PwC, les Français feraient néanmoins partie des plus sereins). En avril, la BBC signait même un article sur l' « AI anxiety », l’anxiété des travailleurs à se voir, bientôt, remplacés par des machines. Lorsque l’on se pose la question de la manière qu’aurait l’IA de remplacer toutes ces activités hypothétiques, pourtant, le remplacement des humains n’a rien d’évident.
Des évolutions de productivité…
Quand ce n’est pas le remplacement pur et simple de l’humanité qui est annoncé, c’est l’augmentation de la productivité qui est vantée. Ainsi de l’article de blog « les risques de l’IA sont réels, mais maitrisables » qu’a posté Bill Gates la semaine dernière, et dans lequel le fondateur de Microsoft s’est voulu rassurant. « Au cours des prochaines années, le principal impact de l'IA sur le travail sera d'aider les gens à faire leur travail plus efficacement », écrit le milliardaire. Et plus loin : « L'augmentation de la productivité est bénéfique pour la société. Cela donne aux gens plus de temps pour faire d'autres choses, au travail comme à la maison. »
Publié dans la revue Science, un récent travail scientifique démontre effectivement un gain de productivité sur des tâches de rédactions d’e-mails, de courts rapports, d’analyses diverses chez des travailleurs en col blanc (professionnels du marketing et des ressources humaines, consultants, analystes, etc). Outre avoir fait baisser le temps de production et augmenter la qualité du total des travaux reçus, l’usage du modèle a participé à réduire les inégalités de résultat dans les productions des 453 personnes ayant participé à l’expérimentation.
… sujettes à débat
Mais tels ne sont pas les seuls effets des modèles algorithmiques. Trois mois seulement après le lancement de ChatGPT, le rédacteur en chef de la revue de science-fiction Clarkesworld Neil Clarke signalait par exemple un bond dans les soumissions de textes générés par IA qu’il recevait. Jusqu’ici, l’éditeur devait toujours trier entre les propositions de textes valides et les rares textes problématiques : la plupart consistaient en des plagiats de textes existants. Pendant la pandémie, son équipe a commencé à voir arriver des plagiats légèrement réarrangés à l’aide de logiciels spécialisés.
Avec les modèles génératifs, en revanche, Neil Clarke s’est retrouvé à voir un afflux inédit de textes relevant du spam, généré grâce à de l’IA (38 % de la fournée reçue en février 2023). Devant l'ampleur du mouvement, il a même dû stopper la réception d’articles le temps de trouver une manière de trier le bon grain de l’ivraie. En pratique, l’IA avait compliqué son travail plutôt qu’elle ne l’avait facilité.
L’étude de l’OCDE sur les effets de l’IA sur l’emploi va dans le même sens, lorsqu’elle met en évidence des « préoccupations concrètes », notamment « liées à l’intensification du travail », parmi les réponses de 2 000 employeurs et 5 300 salariés qu’elle a interrogés.
L’analyse des pratiques chez Shopify dessine un autre type de baisse de productivité. Sur Twitter (X), un ancien employé raconte comment l’entreprise a décidé de licencier des employés (trois mois après avoir dit qu’elle cesserait de réduire ses effectifs) pour se tourner vers des contrats moins chers et beaucoup de technologies d’IA. Certains des effets de cette évolution se retrouvent dans la baisse de la satisfaction client et dans celle de l’efficacité de la lutte contre la fraude.
De même, le cyber a compté parmi les premiers risques identifiés à la sortie des récents modèles génératifs : une plus grande « efficacité » des attaquants (ainsi de « WormGPT », un outil de génération de masse de campagnes de phishing créé a partir du modèle open source GPT-J), c’est aussi de plus grosses charges de travail sur un secteur déjà en manque de bras (15 000 postes sont vacants en France, plus de 3 millions à l’échelle du globe).
Remplacement des cadres de travail ?
Outre le recul que demandent les discussions sur les gains de productivité réellement apportés par les IA, un autre grand axe de réflexion concerne la manière dont ces outils fonctionnent, les risques qu’ils posent… mais aussi les compétences humaines qu’ils demandent. Exemple récent avec la société DeepScribe, qui vend aux médecins américains un logiciel censé prendre note de leurs discussions avec leurs patients pour faciliter leurs tâches administratives (dont une partie consiste, précisément, à consigner ces échanges pour assurer un bon suivi) grâce à un modèle algorithmique.
Selon une enquête du Wall Street Journal, DeepScribe recourt en réalité à pas moins de 200 contractuels pour relire et corriger les productions du modèle. En effet, celui-ci commet de nombreuses erreurs, notamment sur le nom des médicaments. Il a par ailleurs tendance à ajouter des médicaments que les patients ne déclarent pas prendre, dysfonctionnement classique des modèles génératifs que les spécialistes qualifient parfois d’ « hallucinations ». Pas étonnant, donc, que des bras soient nécessaires pour améliorer le « produit fini » que sont les retranscriptions d’entretien. Sauf que les implications pour la vie privée sont légion…
Sans parler de la mystification qui consiste, pour une telle start-up, de vendre un produit comme totalement automatisé alors qu’il est en réalité amendé par des humains (les fondateurs expliquent au Wall Street Journal que les révisions humaines sont mentionnées dans les contrats de vente). Mystification relativement courante : dans un entretien accordé au média Le Grand Continent, le sociologue Antonio Casilli décrit trois grands types d’activité en l’absence desquelles l’infrastructure de l’IA ne saurait fonctionner : les tâches d’entraînement, celles de vérification et celles d’imitation.
L’auteur d’En attendant les robots insiste, d’ailleurs, sur le fait que ces tâches sont proposées aux travailleurs dans des modalités de « freelancing extrême », « parce qu’on vous recrute pendant une minute pour regarder 15 photos ou pour laisser un commentaire sur un moteur de recherche ». Chez DeepScribe, on demande notamment à des travailleurs peu entraînés de réaliser des tâches habituellement attendues de personnes qui ont une formation médicale spécifique, notamment lorsqu’il s’agit de renseigner ou corriger les codes de facturation relatifs aux différentes pathologies.
Surtout, les tâches d’entraînement, de vérification et d’imitation de l’industrie de l’IA sont facilement délocalisées par les entreprises occidentales vers des pays où le droit du travail est peu contraignant. Le travail, fourni par l’intermédiaire de plateformes comme Amazon Mechanical Turk, Scale AI ou Appen est souvent rémunéré une poignée de centimes, à l’acte.
- Des Kényans payés moins de 2 dollars de l'heure pour entraîner ChatGPT
- IA : la majorité du travail du clic « à la française » externalisée à Madagascar
- Kenya : 150 travailleurs de l’industrie de l’IA créent un syndicat
Et, selon un récent rapport de l’Oxford Internet Institute, aucune de ces sociétés n’est proche de respecter les éléments les plus basiques du droit du travail dans les pays occidentaux : alors qu’il a étudié quinze plateformes de travail du clic pour les noter sur douze points sur des éléments comme l’équité salariale, le management, les conditions de travail ou encore les contrats fournis, l’institut constate que trois entreprises seulement ont atteint 5/10, et qu’aucune des autres ne dépasse 3/10.
Pour Antonio Casilli, « nous sommes dans un processus de précarisation et de remplacement de personnes par d’autres moins bien protégées ». Dans une logique moins artificielle, mais toute aussi liée à l’économie des plateformes, le phénomène ressemble à l’approche adoptée par Uber lors de son arrivée dans de nouveaux pays et notamment en France.
D'un point de vue macro, le problème est donc moins de voir un emploi qui disparaît être remplacé par une IA, que de le voir divisé en milliers de micro-tâches destinées à faire tourner la machine censées produire le résultat final.
Commentaires (21)
#1
On a parfois l’impression en ce début de l’IA que c’est l’humain qui est au service de l’IA pour lui permettre d’accomplir sa promesse alors qu’au final, ce devrait être, j’espère, l’IA qui est au service de l’humain.
Bon, d’un point de vue pragmatique, c’est surtout l’IA au service de la maximisation du bénéfice.
#2
Une IA médicale qui a des hallucinations, normal quoi
#3
Si des métiers risquent de disparaître/changer/se transformer (comme ce qui arrive à chaque fois qu’une nouvelle techno d’automatisme arrive sur le marché), considérer l’IA génératrice comme une remplaçante dans son état actuel est une chimère.
Tout au mieux, l’IA génératrice est une assistante. Elle est capable de produire du contenu en très peu de temps avec, en principe, une bonne cohérence avec le besoin. Elle est capable de synthétiser une grande quantité d’information et d’en extraire des éléments moyennant une requête bien écrite (au même titre que du SQL standard, sauf que là c’est du langage naturel). N’utiliser que les données du modèle d’entraînement est l’erreur de base car celui-ci n’a que pour seul but de permettre à l’IA de fonctionner, de comprendre ce qu’on lui demande et de savoir répondre. Pour faire une comparaison imagée, c’est comme considérer que l’apprentissage scolaire suffit à lui seul pour exercer une activité professionnelle intellectuelle.
Personnellement, la façon dont je travaille avec les outils basés sur l’IA génératrice est qu’elle me sert à dégrossir de manière rapide un sujet (comparaison de solutions / choix techniques / matrice pour et contre, maquetter rapidement quelque chose / etc) et derrière j’affine et approfondi le résultat. L’outil peut aider aussi à approfondir mais il n’est pas capable de “gratter” comme un humain sait le faire, il n’a pas la notion d’intuition comme nous avons qui nous permet de détecter une fausse piste ou une déviation du but recherché. En bonus, c’est également un bon soutien type canard en plastique. Pour faire une autre comparaison imagée, l’IA génératrice c’est l’outil qui dégrossi le marbre, et l’humain applique la touche qui en fait un David.
C’est pour ça que je suis toujours déçu des discours commerciaux vendant monts et merveille (OpenAI est en train de se tirer dans le pied au bazooka avec ses conneries sur ce point) d’Oracle-qui-sait-tout alors que c’est faux. Ce sont des outils puissants, qui peuvent faire gagner du temps, et très intelligents, mais aussi super cons si mal configurés ou exploités.
J’ai d’ailleurs fait l’exercice dans le cadre d’une étude pour un client sur la pertinence des assistants d’IA génératrice comme GitHub Copilot. Sur un panel de développeurs assez varié en matière de technos et finalité, les réponses furent assez nuancées. Certains ressentaient le gain de temps, d’autres pas plus que ça, et d’autres encore ont considéré l’inverse total, une perte de temps. C’était plutôt intéressant comme sujet, surtout quand on le traite de manière objective.
#3.1
Personnellement, la façon dont je travaille avec les outils basés sur l’IA génératrice
est qu’elle me sert à dégrossir de manière rapide un sujet (comparaison de solutions / choix techniques / matrice pour et contre, maquetter rapidement quelque chose / etc) et derrière j’affine et approfondi le résultat. L’outil peut aider aussi à approfondir mais il n’est pas capable de “gratter” comme un humain sait le faire, il n’a pas la notion d’intuition comme nous avons qui nous permet de détecter une fausse piste ou une déviation du but recherché. En bonus, c’est également un bon soutien type canard en plastique. Pour faire une autre comparaison imagée, l’IA génératrice c’est l’outil qui dégrossi le marbre, et l’humain applique la touche qui en fait un David.
certains n’ont pas, encore, ça !
ils font un simple “C/Coller” (grrr) !!!
#3.2
Si des personnes considèrent que l’IA génératrice peut remplacer leur travail en faisant des copier/coller de ses suggestions, au même titre des devs qui faisaient du copier/coller de stackoverflow sans remise en question, dans ce cas leur emploi mérite en effet une suppression.
Perso si j’embauche un dev, c’est parce qu’il est compétent, pas parce qu’il sait copier/coller du code. Ca, n’importe quel teubé dans mon genre sait le faire donc autant embaucher GitHub Copilot, il produira la même merde pour moins cher.
#4
C’est moi ou bien le texte de l’intro est super difficile à lire ?
“Bill Gates qui promeut d’intenses gains de productivité, des chiffres inquiétants sur le nombre de métiers susceptibles d’être remplacés… quand on se penche sur la relation de l’intelligence artificielle au travail, pourtant, le tableau mériterait d’être nuancé.”
#4.1
On comprend ce que Mathilde voulait dire mais c’est vrai que c’est pas simple à relire.
J’ai l’impression que c’est le placement du “pourtant” qui pose soucis.
Bill Gates qui promeut d’intenses gains de productivité, des chiffres inquiétants sur le nombre de métiers susceptibles d’être remplacés… Pourtant, quand on se penche sur la relation de l’intelligence artificielle au travail, le tableau mériterait d’être nuancé.”
Sinon, pour l’IA, rien que de très nouveau avec la technologie.
Les superbes machines-outils de nos usines ont eu besoin d’une phase d’intégration importante pour les faire fonctionner.
Et ensuite, il faut toujours de l’humain pour les entretenir, les réparer, …
Ce qui me gêne profondément, c’est cette énorme fracture que l’on constate par la disponibilité d’une pléthore de main d’œuvre non qualifiée, disponible et connectée.
On a d’un côté des profils qualifiés bien payés qui sont de plus en plus techniques et compétents qui entretiennent de gros systèmes (mécaniques, électroniques, informatiques, médicaux, …)
Et de l’autre côté, une compensation de tous les petits trucs merdiques censés être automatisés mais jamais corrigés car trop chers/pas intéressants/pas rentables qui sont fait par des petites mains, payé à l’acte à un tarif ridicule.
Et la mise à disposition du service global à tout un chacun crée un peu d’emploi très qualifié… mais surtout beaucoup d’emplois précarisés.
C’est quand même dingue à l’époque de l’informatique automatisée, on a des plateformes comme Amazon Mechanical Turk, Scale AI ou Appen qui prospèrent au lieu de disparaitre.
Mais ils trouvent … donc des gens prêts à bosser pour ça, il y en a.
Monde de merde.
#5
Au final, c’est juste un énième tentative de se débarrasser des employés coûteux et revêches pour faire plus d’argent.
Une énième bulle qui finira par éclater tant les capacités réelles de ces outils sont très différentes des capacités qui ont été vantées aux divers think tank pour drainer de l’argent.
Jusqu’à présent, c’est pour des tâches physiquement difficiles et/ou à faible valeur ajoutée que l’on cherchait à remplacer l’homme. Là, on s’attaque à l’intelligence. C’est l’aspect nouveau.
Personnellement je pense qu’il existe bien un métier réellement en danger avec cette technologie : le rédacteur de discours politiques.
En effet, c’est le type de métier où les grosses approximations et les fausses promesses sont courantes voir les changements d’avis. Je suis persuadé que chat gpt doit être super doué pour la langue de bois.
#5.1
Les pseudo études mitées comme celle sur WhatsApp sont de bonnes candidates aussi, globalement tout ce qui relève du discours qui n’a pas besoin de fond, mais juste la forme sans soucis de véracité, les IA sont très prolifique pour ça.
C’est pour ça que je n’ai pas compris les quelques initiatives d’utiliser des IA pour produire des articles, quel intérêt sans relecture ? C’est complétement stupide d’avoir brancher la machine en direct sur le site sans passer par aucune relecture ni validation.
Sûrement un effet de bords des grands discours miraculeux sur le potentiels des IA, ont-ils été produit par une IA et publiés sans relecture ?
#6
Dit autrement, 80% des métiers sont des jobs qu’une IA pourrait faire.
Et là, ca pose le problème de la “valeur travail”. Vous préférez:
Difficile de répondre…
Exemple: This CEO replaced 90% of support staff with an AI chatbot
#6.1
En tout cas, ne pas confondre “80% des métiers” et “80% des emplois”…
Mais même 80% des métiers, j’ai du mal à y croire.
#6.2
Bonne remarque, car le chatbot aura du mal à installer une fenêtre ou faire la vidange d’une bagnole. Et même pour rester dans l’IT, il aura du mal à installer le PC dans un bureau tout seul.
#6.3
entre ça…
et…
on est mal barrés !
#7
J’ai une expérience assez similaire à toi, l’IA est bien pour :
Cela est vrai même dans l’un des domaines où l’IA est réputée la plus à l’aise aujourd’hui, comme la traduction. Ça peut t’aider à dégrossir avec un premier jet crade, ça peut aussi répondre à des questions très spécifiques quand tu butes sur un mot ou une expression en particulier. Ça peut aussi te donner des pistes de réflexion par exemple en te proposant des expressions idiomatiques dans un contexte donné. Mais ça fait pas le boulot à ta place non plus. En tout cas pas correctement.
Ceci étant, il y a deux raisons de penser que l’IA va faire disparaître pas mal de jobs :
Gains de productivité obligent, le boulot qui était fait avant par 10 personnes, pourra être fait demain par 1 ou 2 personnes assistées de l’IA. De fait, les 8 ou 9 autres devront se trouver une autre activité, sauf à ce que cela entraîne une explosion de la demande sur ce type d’activité (les gains de productivité permettent de baisser les prix, la baisse de prix permet de faire appel à ce type de service pour des besoins auxquels on l’envisageait pas avant, parce que trop cher).
L’un des problèmes de l’IA est qu’elle est très impressionnante au premier abord. Il y a un espèce de principe de pareto qui s’applique dans les tâches qu’on lui confie : elle fait, au moins en apparence, 80% du boulot… mais ces 80% du boulot ne représentent que 20% du temps de travail. C’est très visible dans la traduction : elle fait un “premier jet”, une traduction naïve, et on a l’impression que le boulot est “presque” fait : “reste plus qu’à corriger un peu les tournures, vérifier les erreurs de terminologie, reformuler ici ou là, trouver la bonne formule qui fait mouche en français”… Sauf que cette traduction naïve, c’est tout au plus 20% du temps de travail pour un traducteur. C’est quelque chose qu’il fait quasiment en temps réel, quasiment aussi vite qu’il est capable de taper au clavier. “Corriger un peu les tournures, vérifier la terminologie, reformuler, trouver la formule qui fait mouche”, c’est ce qui occupe 80% du temps de travail…
… reste donc à savoir si les donneurs d’ordres seront prêts à payer l’humain à 80%, alors que de son point de vue l’humain ne fait que 20% du boulot. M’est avis que c’est pas gagné.
#7.1
Pour l’exemple de la traduction, l’IA génératrice est quand même très bonne sur ce point. Mais évidemment toujours imparfaite.
Pour le coup, ce qui est amusant, c’est que la capacité des LLM de “traduire” est un effet de bord de leur fonctionnement. Comme ils n’ont pas spécialement de “langue maternelle”, ils sont capables de passer d’une langue à l’autre tout en maintenant le contexte et produisant un texte correct. C’est un des effets de leur fonctionnement basé sur un modèle prédictif de suite de tokens. Ce qui est différent de ce que fait DeepL par exemple qui utilise aussi des réseaux neuronaux pour son moteur, mais sur des algo différents (ça n’empêche pas que DeepL est aussi un excellent produit).
Mais je te rejoins aussi sur ce point et j’en ai fait l’expérience avec DeepL pour traduire l’histoire d’un petit jeu que j’ai bricolé. Je l’ai écrite en français par facilité, puis je l’ai traduite en anglais avec DeepL. De prime abord, le résultat était bon, mais en grattant un peu j’ai dû corriger quelques tournures ou mauvaises interprétations du moteur.
Au sujet de la suppression de postes, oui ça risque d’arriver. Et les vendeurs de solutions d’IA génératrice ont même des matrices permettant de calculer le “ROI” de l’outil versus un ETP. Perso je m’en suis un peu méfié car on est encore trop dans l’effet d’aubaine pour les commerciaux, mais il faut garder en tête qu’ils ont des métriques basées sur les utilisations publiques des produits et des différents feedback.
#8
Connaissant bien DeepL, je ne dirais pas qu’il est très bon. Il est suffisant pour comprendre le sens d’un texte mais pas pour obtenir un résultat professionnel. Le problème n’est pas seulement celui des mauvaises interprétations, c’est un problème plus général de style : il a une fâcheuse tendance à garder le style de la langue source, ce qui produit un résultat peu naturel. C’est très visible, par exemple, sur le choix des temps, avec sa foutue tendance à foutre du passé composé absolument partout dans le sens anglais=>français.
J’ai eu récemment à faire du “MTPE” sur un projet : c’est-à-dire prendre le texte traduit par une IA et devoir le corriger… j’y ai passé un temps fou, presque aussi long que si je l’avais traduit moi-même, pour un résultat final probablement moins bon. Là encore, le problème n°1 était le style vraiment dégueulasse. Le souci est qu’une fois que tu as lu une traduction, fut-elle dégueulasse, il est très long et difficile de la “dé-lire” et de trouver la formule la plus naturelle en français. Ton cerveau a été comme “conditionné” par la proposition de la machine, même si tu sais qu’aucun français ne s’exprimerait ainsi dans sa langue maternelle.
Les IA ont tendance à vouloir coller de très près au texte, notamment dans la nature et la fonction des mots. ou dans la répartition des idées d’une phrase en différentes propositions. Mais souvent, pour obtenir un bon résultat, il faut reformuler les phrases. Répartir différemment les concepts dans les propositions, changer un sujet en complément,
À l’heure actuelle je dirais que DeepL reste meilleur que GPT, mais ça ne durera peut-être pas parce que c’est l’un des éléments sur lesquels l’IA générative a une carte à jouer à mon avis : elle sait déjà reformuler quand on lui demande explicitement, elle a une certaine capacité à traiter les concepts, les idées, indépendamment de leur formulation. Il est donc pas exclu qu’elle apprenne assez vite à traduire des idées dans un style vraiment naturel dans n’importe quelle langue qu’elle maîtrise. J’ai l’impression que les DeepL et cie. sont arrivés à une impasse de ce côté là. Le style de DeepL n’a quasiment pas progressé depuis son lancement en 2017.
#8.1
Merci pour ce retour, perso je n’ai pas trop de soucis avec DeepL mais il faut dire que je m’en sers plus comme support de vérification qu’autre chose (en dehors du précédent exemple que j’ai cité). D’ailleurs est-ce que tu as éventuellement testé leur outil “Writer” en beta ? Apparemment il est justement fait pour aider à reformuler les textes.
Et je te rejoins sur le fait que GPT a des chances de remplacer les algo plus traditionnels de traduction. Non seulement il sait comprendre le contexte et reformuler comme tu l’indiques, mais en plus il est paramétrable. Si on veut en faire un outil déterministe, c’est faisable. Tout comme si on veut lui laisser plus de libre arbitre dans le choix des tokens, on peut le faire. Sans aller trop loin, sinon il risque d’halluciner et partir en vrille.
#9
Et j’ajoute que si tu as pu/dû corriger l’IA dans une langue qui pour toi est une langue étrangère, c’est qu’elle a été plutôt mauvaise. Parce que s’il y a un truc pour lequel l’humain est pas à l’aise, c’est ça. Il y a une raison pour laquelle les traducteurs professionnels traduisent vers leur langue maternelle. Tu n’as probablement pas vu le quart des erreurs (même si tu considères avoir un anglais courant), et en particulier la plupart des erreurs de type “c’est grammaticalement correct, c’est bien des mots en anglais, mais c’est pas une tournure naturelle en anglais, ça sonne comme du français traduit” nous échappent totalement, même quand on se considère à peu près bilingue.
C’est d’ailleurs peut-être pour ça que les IA ont tendance à avoir le même défaut : entraînées sur un corpus qui comprenait probablement son lot de traductions humaines de qualité discutable, par exemple faites par des traducteurs peu scrupuleux ayant traduit depuis leur langue maternelle vers une langue étrangère, elles en imitent peut-être aussi les défauts.
#10
Ce qui est intéressant, c’est qu’à un moment, on se reposera peut-être tellement sur l’I.A. qu’on ne produira presque plus de contenu digne d’entraîner des I.A.
Je pense surtout aux langages de programmation où l’émergence de nouveaux langages sera encore plus difficile qu’avant car faute d’humains pour adopter un nouveau langage, les I.A. n’auront presque rien à imiter.
L’I.A. est peut-être un moment où notre espèce va plafonner, faute d’ambition…
#10.1
à un un moment à force de se reposer sur l’I.A, on ne produira
presque plus de contenu
j’en veut pour preuve : ces ‘App.’ de traductions instantanées sur Smartphones !
(on ne fait plus l’effort d’apprendre ‘une langue’, à quoi bon…..)
#11
À mettre en lien avec cette actu. On peut envisager que ce problème constaté sur la génération d’image se produise aussi sur les grands modèles de langage et autres domaines de l’IA générative.