Quelques jours après la publication d’une lettre ouverte signée par plusieurs pontes de l’industrie numérique et appelant à une pause de six mois des laboratoires de recherche en intelligence artificielle, les chercheuses Angelina McMillan-Major, Margaret Mitchell, Emily Bender et Timnit Gebru ont publié leur propre réponse.
En 2020, les quatre femmes avaient cosigné l’article « À propos des dangers des perroquets stochastiques : les modèles de langages peuvent-ils être trop gros ? 🦜 » qui alertait, déjà, contre les multiples problématiques posées par les grands modèles de langages (LLM).
À l’époque, cet article avait valu à Margaret Mitchell et Timnit Gebru d’être licenciées par Google : la première travaille désormais chez Hugging Face et la seconde a co-fondé l’institut de recherche indépendant DAIR (Distributed AI Research Institute).
Dans un entretien accordé à Politico, Timnit Gebru revient sur le fond du message que ses collègues et elle souhaitent faire passer.
Pour la scientifique, les constructeurs de modèles d’IA générative comme OpenAI partent de plusieurs hypothèses sujettes à débat, à commencer par celle qu’il faudrait « un modèle susceptible de fonctionner pour tout le monde, partout, pour que nous n’ayons à payer qu’une ou deux entreprises pour accomplir littéralement toutes les tâches de notre quotidien ». Or, ce présupposé n’a rien d’obligatoire, selon elle.
Par ailleurs, le vocabulaire employé dans la lettre ouverte initiale et dans les prises de parole d’acteurs comme Sam Altman, co-fondateur d’OpenAI, laisse entendre qu’il faudrait « adapter » la société pour faire face aux « perturbations » que les LLM créent pour la démocratie.
« Ça me paraît ridicule » déclare l’informaticienne, qui rejette l’idée de présenter ces innovations comme des technologies qui doivent nécessairement exister, plutôt que comme des outils destinés « à nous aider à exister comme nous souhaitons exister ».
Recadrant le débat dans ses propres termes – ceux de technologies créées par les humains, et donc sur lesquelles les humains ont la main –, la chercheuse appelle donc à des régulations qui s’appliqueraient aux entreprises plutôt qu’aux usagers, et qui demanderaient auxdites sociétés de prouver avant commercialisation que leurs produits d’IA remplissent un certain nombre de prérequis fixés par les législateurs.
Commentaires