Tracking exposed, AI Forensics : tenir les constructeurs d’algorithmes responsables
Analyse en cours
Le 06 juin 2023 à 15h09
7 min
Société numérique
Société
Début mai, l'association AI Forensics était lancée, prenant la place de Tracking Exposed, active pendant sept ans. Next INpact a rencontré Claudio Agosti, co-fondateur des deux projets.
Début mai 2023, un message a fleuri sur Linkedin, Mastodon et ailleurs. Le projet Tracking exposed, qui avait alimenté plusieurs enquêtes sur les effets des algorithmes de recommandation de grandes plateformes sur la société, arrivait à son terme. À la place, son cocréateur Claudio Agosti annonçait la création d’AI Forensics, une organisation à but non lucratif dont le but consiste, comme son prédécesseur, à décortiquer le fonctionnement d’« algorithmes opaques » pour découvrir et faire connaître les éventuels dommages que ces machines provoquent et demander des comptes à leurs constructeurs.
Au même moment, du côté du Parlement européen, le travail sur une régulation européenne de l’intelligence artificielle (IA) arrivait à un nouveau palier. L’occasion était parfaite pour que Next INpact interroge Claudio Agosti et lui fasse raconter son projet autant que l’évolution qu’il avait constatée, au fil des ans, dans les discours autour des effets de l’IA sur la société.
- AI Act : le texte interdit désormais la reconnaissance faciale, la notation sociale et la police prédictive
- Promesses et limites de l’éthique de l’intelligence artificielle
- L’industrie prise d’une frénésie autour de la régulation de l’IA
La première chose qu’il tient à mettre au clair, c’est que Tracking exposed comme AI forensics adoptent une « approche adverse : nous construisons des méthodes et des technologies robustes, qui fonctionnent même quand les entreprises concernées ne veulent pas être analysées ». Or ces dernières sont rarement ouvertes à l’exposition de leur cuisine interne, sourit-il.
Tracking exposed : sensibilisation et « empowerment »
En 2015, militant pour les droits numériques depuis déjà une quinzaine d’années, Claudio Agosti s'est donc inquiété : à l'époque, « on est avant le scandale Cambridge Analytica, les critiques contre les technologies de suivi des internautes sont relativement faibles. » De son côté, le développeur considère que les algorithmes de personnalisation des plateformes numériques sont « l’une des multiples manières que les outils de décision automatique (ADM, automated decision-making tools) avaient d’interagir avec la société ».
Or, la personnalisation des contenus que nous consommons – sur Facebook, YouTube ou TikTok, sur Amazon, même, voire Pornhub –, « c’est un enjeu de pouvoir » estime Claudio Agosti. Si on ne comprend pas comment l’algorithme qui nous les envoie les trie, les sélectionne et les affiche, l’internaute n’a pas de pouvoir sur son « régime informationnel ».
Partant de ce constat, l’activiste crée Tracking exposed, une structure qui commence par travailler de manière bénévole. Le but : sensibiliser aux effets des systèmes automatisés et créer des outils logiciels gratuits pour aider chercheurs, activistes, « et tous ceux qui souhaitent utiliser nos outils pour mener leurs propres recherches, ou juste parce qu’ils soutiennent la cause ».
À l’aide d’une batterie de faux profils, Tracking exposed permet ainsi à de jeunes chercheurs à analyser la manière dont Amazon fait varier les prix des produits ou leur ordonnancement selon le lieu où se trouve l’utilisateur. Autre exemple, en 2021, avec l’aide de 600 volontaires, l’association décortique les effets de ces publications dans le contexte des élections néerlandaises.
L’observation collaborative, un mélange d’automatisation et d’usage humain
« Nous avons aussi organisé une observation collaborative des logiques de recommandation de YouTube », raconte Claudio Agosti.
Au fil des ans, l’association a en effet testé différentes manières de procéder : demander à des volontaires de télécharger des extensions construites exprès pour récupérer des traces de leurs activités sur la plateforme étudiée, construire des sockpuppets (faux profils), des robots « qui nous permettent de gérer exactement comme nous le souhaitons la multitude de paramètres qui peuvent jouer sur le type de contenu présenté sur un fil », scrapper des données…
Le mélange de toutes ces techniques a permis à Tracking exposed de mettre au point la pratique de l’« observation collective », dont Claudio Agosti résume ainsi les différents éléments dans le post-mortem de Tracking exposed :
La multiplication des projets et des bourses permet aussi à l’association de créer et former un réseau de quelque 250 chercheurs et de voir leurs différents outils téléchargés par plusieurs milliers de personnes. Au bout d’un moment, cela dit, le projet est pris dans un paradoxe : « nous nous adressions aussi bien au grand public qu’à des universitaires », une double spécialisation qui complique les activités de la structure.
AI forensics pour recentrer les activités
Et puis le paysage change. « À nos débuts, le RGPD n’existait même pas. » Adopté puis promulgué en 2016, le texte est entré en vigueur en 2018. Claudio Agosti n’est pas extrêmement convaincu par l’approche réglementaire, « longue à mettre en place et insuffisante : depuis, on a découvert plein de zones grises dans le texte ». L’AI Act ne le convainc pas vraiment non plus, le texte est écrit de manière trop « positive pour les entreprises » à son goût.
Surtout, sa « déception est que l’intérêt pour la question ne soit pas arrivé parce qu’on a écouté les chercheurs, mais uniquement par des scandales ». Une affaire à la Cambridge Analytica, par exemple, a plus démontré « l’ambivalence des politiques vis-à-vis de ces technologies que permis de débattre de leur développement, estime le développeur. On les a plus entendus dire "oh, nos adversaires utilisent ces outils !" que se pencher sur la signification de leur diffusion. »
La discussion autour de l’IA s’est tout de même développée, note l’expert, « le nombre d’acteurs spécialisés dans certaines des activités que nous faisions augmente ». Avec Marc Faddoul, Claudio Agosti a donc pris le parti de construire AI forensics, association de loi 1901 qui partage les valeurs de Tracking exposed : « informer les citoyens connectés sur le pouvoir des plateformes, sur la manière dont leurs algorithmes interagissent avec la société civile, permettre aux législateurs de mieux comprendre les effets de ces technologies, etc ».
L’idée, cela dit, est de se recentrer sur la fabrication de technologies gratuites, à disposition de chercheurs. « Il est probable que le marché ait besoin d’auditeurs », pointe aussi son co-fondateur, se référant à nouveau aux textes en préparation, direction vers laquelle AI forensics pourrait s’orienter.
Quoi qu'il en soit, « les débats sur la manière de réguler, sur les pratiques à déployer et faire adopter aux géants numériques sont toujours en cours », que l’on parle d’études d’impact, du développement de technologies dans des environnements sandbox, d’audits indépendants… « Et tant que c’est en cours, il y aura toujours besoin de militantisme, de discours public, de démonstration des effets des algorithmes. » Des missions qu’AI forensics continuera de porter.
Tracking exposed, AI Forensics : tenir les constructeurs d’algorithmes responsables
-
Tracking exposed : sensibilisation et « empowerment »
-
L’observation collaborative, un mélange d’automatisation et d’usage humain
-
AI forensics pour recentrer les activités
Commentaires (2)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 07/06/2023 à 07h58
Merci pour l’article Mathilde !
Si un jour NXI veut faire des tutos sur les manières de supporter ses structures (e.g., avec les extensions comme énoncé dans l’article), je pense que nous serions plusieurs à être intéressés.
Le 08/06/2023 à 13h52
On peut blâmer les politiques de ne pas prendre les choses sur le fond mais tout ce domaine a connu une telle accélération qu’on ne peut pas trop leur en vouloir.
Je pense qu’une proportion considérable de la société est totalement ignorante de tout ça, les politiques n’en sont que le reflet.
A t on atteint un point où l’intelligence humaine moyenne n’est plus suffisante pour se gouverner tant les outils pour influer sur cette gouvernance sont devenus plus sophistiqués que les capacités critiques/d’autonomie des personnes ?