Antonio Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »
Les moyens derrière la fin

Rencontre avec le sociologue Antonio Casilli à l’occasion de la diffusion du documentaire Les sacrifiés de l’IA.
Le 10 février à 08h14
15 min
Droit
Droit
Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l'auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d'IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.
À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.
>> Comment en êtes-vous arrivé à travailler sur Les Sacrifiés de l’IA ?
Ce projet est l’un des résultats d’un partenariat entre le projet de recherche DipLab, que j’ai co-fondé à Polytechnique, et France Télévisions. Avec Henry Poulain, le réalisateur, et Julien Goetz, l’autre co-auteur, qui sont connus pour l’émission #Datagueule, nous avons commencé à travailler sur un premier documentaire en 2020 : ça a donné Invisibles, les travailleurs du clic. Les sacrifiés de l’IA, c’est le deuxième volet de cette collaboration, qui doit aboutir à une trilogie.
De mon point de vue d’universitaire, cela dit, c’est avant tout un partenariat de recherche. Ces documentaires s’appuient sur les travaux du DipLab, soit plus de 4 000 enquêtes dans trente pays, plusieurs centaines de personnes interviewées dans des lieux qui ne sont habituellement pas considérés comme les lieux de production de l’intelligence artificielle…
Pour moi, ça croise aussi des enjeux de militance : si au début des Sacrifiés de l’IA, on rencontre des travailleuses du clic dans des prisons finlandaises, c’est à cause d’un souci personnel d’abolitionnisme. Faire parler des personnes réfugiées de la guerre en Ukraine ou montrer la mobilisation des annotateurs au Kenya, c’est aussi une manière de montrer la diversité des situations de celles et ceux qui font tourner les systèmes.
>> Si la mobilisation des travailleurs du clic kenyans a réussi à gagner en visibilité au fil des ans, le rôle des annotateurs européens est moins connu. C’est pour les visibiliser que vous ouvrez le documentaire sur ces personnes qui vivent en Finlande, en Bulgarie, en Allemagne ?
C’est aussi le résultat d’un rapport intitulé « Who trains the data for European Artificial Intelligence » (qui entraîne les données de l’IA européenne ?), que nous avons rendu au Parlement européen sur les annotateurs européens fin 2024. Quand on a commencé à explorer les travailleurs du clic européens, en 2018 - 2019, on s’imaginait que le marché serait plus réduit cinq ans plus tard.
Nous avons été surpris de constater le contraire, et de voir les profils changer. En 2019, nous rencontrions principalement des femmes, qui réalisaient ces tâches comme une activité complémentaire, avec une gestion très fragmentaire de leur temps. À cause d’un biais dans l’échantillonnage de notre étude, qui consistait par exemple à interroger des usagers de plateformes demandant leurs papiers d’identités aux travailleurs, nous constations que la plupart des annotateurs rencontrés en France y étaient nés, qu'ils n’étaient pas issus de trajectoires migratoires.
En 2024, la situation se renverse. Cela s’explique par une explosion du nombre de plateformes qui donnent l’occasion de travailler sur des données d’entraînement, de se faire un peu d’argent grâce à cela. On constate aussi la présence moins importante de femmes, que le travail se fait de plus en plus à temps plein, une tendance que nous avions jusqu’ici plutôt observée dans les pays du Sud global.
Surtout, dans 21 % des cas, c’est-à-dire dans une proposition bien plus grande que dans la population générale, les profils recoupent les trajectoires migratoires typiques de pays européens. En France, nous avons surtout rencontré des personnes issues des diasporas africaines. En Allemagne, plutôt des pays d’Asie, de Turquie, d'Iran, d'Azerbaïdjan. En Espagne, plutôt des personnes d’Amérique du Sud…
La superposition entre ce type de travail pour l’intelligence artificielle et les trajectoires migratoires n’est pas un hasard. C’est la reproduction de certaines formes de dépendance que certains n’hésitent pas à définir comme coloniales.
>> Le documentaire indique que des pressions ont eu lieu sur certains des témoins. Que s’est-il passé ?
C’est quelque chose qui arrive assez régulièrement : les fabricants de système d’IA ne nous ouvrent pas les portes en grand pour nous laisser étudier leurs activités. On travaille avec des bouts de ficelle, on s’appuie sur des entretiens menés par les cadres dirigeants, les ingénieurs de ces entreprises, mais notre but est aussi d’aller écouter ce que racontent les entraîneurs de données.
De ce côté-là, les situations peuvent être plus complexes. On réalise quelquefois des entretiens, puis les personnes retirent leur consentement à participer à l'étude. On a déjà vu la police débarquer pendant le tournage. Et puis il nous est arrivé de travailler dans des situations politiques tendues. Ça n’a pas eu lieu pour ce documentaire précis, mais des collègues et moi avons traversé des périodes difficiles. En Bolivie, par exemple, le coup d'État de 2019 contre Evo Morales a conduit à une forme de paranoïa ambiante. À Madagascar, la crise post-électorale de 2023 a aussi été source de tension.
>> En termes d’entreprise, Les sacrifiés de l’IA cite seulement OpenAI. Qui sont les autres acteurs impliqués dans la chaîne de production de ces technologies ?
Si je fais une cartographie générale des acteurs de l’IA, il y a sept institutions hégémoniques qui détiennent les données : Amazon, Microsoft (qui est derrière OpenAI), Meta, le géant des télécommunications AT&T, et des universités états-uniennes et chinoises. Pour les utiliser, ces géants numériques ont besoin d’annoter ces données. Généralement, ils se tournent vers de grandes entreprises qui les dispatchent vers des annotateurs.
Cela dit, il y a toute une chaîne de sous-traitance. Une des entreprises qui est certainement derrière le succès d’OpenAI, par exemple, s’appelle Scale AI. D’autres noms connus sont Appen ou Lionbridge. Ensuite, on arrive dans la superposition entre les sociétés spécialisées dans l’annotation qui furent autrefois des call centers. Dans cette catégorie, il y a des entreprises françaises comme Teleperformance, Majorel, etc. Tous ceux-là forment la couche intermédiaire.
Ensuite, vous avez plein de petites entreprises, plateformes, applications, qui captent des travailleurs directement chez eux, ou quelquefois en petits groupes, partout dans le monde. Ensemble, ils forment ce système à trois couches : grands acteurs principalement états-uniens, entreprises qui répartissent les travaux, et puis la grande masse des travailleurs.
>> Le documentaire illustre longuement les difficultés de ces travailleurs à faire respecter leurs droits. Vous-même travaillez sur cette question depuis près de 10 ans : est-ce que les choses évoluent, dans le domaine ?
Elles évoluent, car les gens eux-mêmes évoluent dans la compréhension de leur métier. Si vous ne connaissez pas vos droits, vous ne pouvez pas les défendre. Il y a dix ans, lorsqu’on s’entretenait avec des usagers d’Amazon Mechanical Turk, ou avec une plateforme française de l’époque, Foule Factory, il fallait leur faire comprendre qu’ils étaient en train de créer un nouveau groupe professionnel, un nouveau corps de métier presque. Sans cette prise de conscience, sans une forme de conscience de classe même, il est difficile d’aller devant un juge ou de faire appel à un avocat pour lui dire « il faut m’assurer des droits ».
Depuis, il y a eu pas mal d’actions en justice. C’est plus dur pour les annotateurs d’organiser une manifestation comme pourraient le faire des livreurs Deliveroo ou des chauffeurs Uber, pour la simple et bonne raison qu'ils ne travaillent pas dans la rue. Pour la majorité, et c’est aussi ce qu’on a voulu montrer dans le documentaire, ils travaillent dans des endroits dans lesquels on ne s’attendrait pas à trouver du travail.
À partir de 2020 - 2022, on a donc vu deux grands épicentres se former : au Kenya, où a été créé un syndicat des annotateurs, et au Brésil. En France aussi, il y a eu des tentatives d'action en justice, mais la Cour de cassation a décrété que les travailleurs du clic n’étaient pas des salariés, donc ça n’a pas fonctionné. Mais il y a des affaires ailleurs, une class action aux États-Unis… donc oui, ça bouge.
>> Jeff Bezos pour Amazon, Elon Musk chez Tesla… Plusieurs patrons des géants numériques sont connus pour casser les tentatives de leurs employés de faire respecter leurs droits. Comment interprétez-vous la situation politique aux États-Unis ? Dans quelle mesure pensez-vous qu’elle va toucher les annotateurs de données ?
Elon Musk, depuis son ministère de l’efficacité gouvernementale (DOGE), est en train de tout casser aux États-Unis. Mais il faut suivre ce qu'il se passe, parce que juste après l’investiture de Donald Trump, ils ont lancé cet énorme projet qu’est Stargate, et puis Donald Trump a très rapidement révoqué l’executive order qu’avait pris Joe Biden en 2023 pour limiter les risques de l’intelligence artificielle…
Donc ils dérégulent complètement le secteur de l’IA, et dans le même souffle, ils lancent Stargate qui risque en plus d’avoir un impact environnemental énorme. OpenAI est déjà connu pour être partisane d’une IA qui se fiche de son impact carbone, des extractions de minerais qu’elle provoque, qui veut ré-ouvrir des centrales nucléaires fermées à cause d’accident, etc. Donc ce sont déjà les pires criminels en termes environnementaux, mais en plus Donald Trump a déclaré qu’il leur permettrait d’avoir accès à de l’énergie supplémentaire via des déclarations d’urgence…
Il est clair que l’intelligence artificielle est devenue l’une des industries extractives à laquelle on se confronte aujourd’hui. Et si on est concerné par la question de la crise climatique, ces entreprises sont devenues équivalentes à celles qui font du fracking (fracturation hydraulique) : le gouvernement états-unien les traite comme celles qui font du fracking ou des stations pétrolières.
>> Dans le documentaire, vous faites d’ailleurs un parallèle entre travail des données et traitement des déchets, vous évoquez aussi l’extraction minière…
Oui, DipLab s’intéresse à la double empreinte de l’intelligence artificielle, sur le travail humain et sur les environnements naturels. Outre rencontrer des travailleurs, on va aussi voir directement dans des mines. Ce qu’on cherche à montrer, c’est que ces questions se déploient aux mêmes endroits. À quelques dizaines de kilomètres des lieux où se trouvent les travailleurs, quelques centaines de kilomètres maximum, vous allez trouver des mines d’extraction de matières nécessaires pour faire tourner l’IA.
Dans le documentaire, on l’a évoqué de manière métaphorique. Mais par exemple à Madagascar, à 90 km du lieu où on a interviewé des centaines de personnes, vous trouvez la plus grande mine de nickel et de cobalt d’Afrique de l’Est. En Bolivie, au Chili et en Argentine, on a fait passer des questionnaires à des milliers de personnes : c’est aussi à l’intersection de ces trois pays que vous trouvez le triangle du lithium.
>> La dernière partie du documentaire s’intéresse aux questions idéologiques, et notamment à l’influence du long-termisme. Pourquoi c’était important d’évoquer ces idées ?
Parce qu’il faut un cadre analytique pour comprendre ce que l’on a vu. Souvent, dans les médias, on voit des articles qui s’étonnent du salaire très faible des travailleurs du clic, et puis qui passent à autre chose. Mais il faut expliquer pourquoi ils sont payés de cette manière, en quoi c’est différent des salaires de misère de ceux qui ciraient des chaussures ou cultivaient du chocolat, il y a 20 ans, 50 ans, et même encore aujourd’hui. Si on ne systématise pas, si on n’apporte pas le cadre d’interprétation, on ne comprend pas que l’idéologie long-termiste est un problème sérieux.
Le philosophe Émile Torres le dit très bien : leur manière de penser, c’est de faire des calculs bénéfice/risques. On a, parmi les promoteurs de l’IA, des gens qui se la jouent philosophes, alors qu'en réalité, ils sont plutôt comptables. Leur mode de pensée, c’est : « le profit que j’espère, pour moi, ou – disent-ils – pour l’humanité, est de X, mais pour l’atteindre, il faut accepter un coût, qui est de tuer ou d’exploiter des centaines de milliers de personnes. Suis-je prêt à le faire ? »
C’est un premier problème, mais le second, c’est qu’il ne s’agit pas seulement d’une idéologie. Si vous prêtez attention aux débats autour de l’éthique de l’intelligence artificielle, les discussions sont complètement dominées par ce type d’approche. Les philosophes les qualifient d’utilitaristes, mais la logique, grosso modo, est de dire : la fin justifie les moyens.
Dans le contexte de l’IA, les moyens qu’on met en place, c’est ce système grotesque qui ne se soucie ni de détruire la planète ni les environnements humains. C’est important de le rappeler en même temps qu’on donne à entendre et à voir les travailleurs eux-mêmes, où ils travaillent, comment, ce qu’ils en disent, etc.
Car par ailleurs, quand on nous vend des choses comme les voitures autonomes, dont on a l’impression qu’il s’agit de technologies extrêmement poussées, on n’imagine pas du tout que les annotateurs sont comme cette femme, seule dans sa chambre, avec des chips et un coca, en train de réaliser une tâche foncièrement ennuyeuse.
Donc voilà, c’est important de montrer l’envers du décor, mais aussi de systématiser. On a tendance à oublier facilement l'envers du décor, certainement parce que ce récit ne cadre pas avec la représentation que l’on fait habituellement de l’intelligence artificielle… Pourtant, on commence à avoir beaucoup d’études et de travaux qui détaillent toutes ces problématiques.
>> Est-ce que l’AI Act vous paraît à la hauteur des enjeux ? Y a-t-il d’autres formes de régulation qui vous sembleraient nécessaires ?
En réalité, entre 2020 et 2023, l’Europe a passé un paquet de législations, et dans le lot, l’AI Act, même si on en a beaucoup parlé, c’est le plus bâclé. Ce texte a été empoisonné par les lobbys de l’armement, des forces de l’ordre, par certains gouvernements dont celui de la France, et par les Big Tech qui ont fait un travail affreux pour créer tellement de trous dans son application qu’il devient désormais nul et non avenu.
Il reste toutefois la possibilité d’utiliser certains de ses instruments pour faire en sorte de veiller à la protection des annotateurs de données. Cela passerait notamment par le fait de déclarer à haut risque tout un tas d’application d’intelligence artificielle dont on sait qu’elles ont besoin de beaucoup d’annotation et de beaucoup de travailleurs.
Par ailleurs, parmi les directives déjà passées, si la transposition nationale fonctionne bien, la directive sur le travail via des plateformes numériques, et celle sur le devoir de vigilance des entreprises pourraient avoir un vrai pouvoir transformateur en matière d’intelligence artificielle. La première parce qu’elle prend des dispositions relatives aux micro-travailleurs – qu'on les appelle micro-travailleurs, travailleurs du clic, travailleurs de la donnée, même si ce sont des personnes qui travaillent dans de petites entreprises informelles, dans une maison ou en périphérie de Madagascar, elles sont, in fine, rattachées à une plateforme.
La deuxième impose un droit de vigilance sur les enjeux environnementaux et les droits humains et droits des travailleurs sur toute la chaîne de production. La France et l’Allemagne avaient déjà des régulations en ce sens, mais l’enjeu est que l’obligation de publication annuelle atteste de l’application de « best practices » en termes de respect des droits de l’environnement, droits humains et droits des travailleurs.
Commentaires (3)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 10/02/2025 à 09h57
Le 10/02/2025 à 22h54
Nous voyons les IA naître, mais nous ne comprenons pas tous et nous nous savons pas encore coment elles vont évoluer.
Modifié le 11/02/2025 à 01h49
https://next.ink/916/captcha-machines-prouvent-plus-rapidement-quelles-sont-humains/