Timnit Gebru demande des régulations ex ante de l’intelligence artificielle

Timnit Gebru demande des régulations ex ante de l’intelligence artificielle

Timnit Gebru demande des régulations ex ante de l’intelligence artificielle

Quelques jours après la publication d’une lettre ouverte signée par plusieurs pontes de l’industrie numérique et appelant à une pause de six mois des laboratoires de recherche en intelligence artificielle, les chercheuses Angelina McMillan-Major, Margaret Mitchell, Emily Bender et Timnit Gebru ont publié leur propre réponse.

En 2020, les quatre femmes avaient cosigné l’article « À propos des dangers des perroquets stochastiques : les modèles de langages peuvent-ils être trop gros ? 🦜 » qui alertait, déjà, contre les multiples problématiques posées par les grands modèles de langages (LLM).

À l’époque, cet article avait valu à Margaret Mitchell et Timnit Gebru d’être licenciées par Google : la première travaille désormais chez Hugging Face et la seconde a co-fondé l’institut de recherche indépendant DAIR (Distributed AI Research Institute).

Dans un entretien accordé à Politico, Timnit Gebru revient sur le fond du message que ses collègues et elle souhaitent faire passer.

Pour la scientifique, les constructeurs de modèles d’IA générative comme OpenAI partent de plusieurs hypothèses sujettes à débat, à commencer par celle qu’il faudrait « un modèle susceptible de fonctionner pour tout le monde, partout, pour que nous n’ayons à payer qu’une ou deux entreprises pour accomplir littéralement toutes les tâches de notre quotidien ». Or, ce présupposé n’a rien d’obligatoire, selon elle.

Par ailleurs, le vocabulaire employé dans la lettre ouverte initiale et dans les prises de parole d’acteurs comme Sam Altman, co-fondateur d’OpenAI, laisse entendre qu’il faudrait « adapter » la société pour faire face aux « perturbations » que les LLM créent pour la démocratie.

« Ça me paraît ridicule » déclare l’informaticienne, qui rejette l’idée de présenter ces innovations comme des technologies qui doivent nécessairement exister, plutôt que comme des outils destinés « à nous aider à exister comme nous souhaitons exister ».

Recadrant le débat dans ses propres termes – ceux de technologies créées par les humains, et donc sur lesquelles les humains ont la main –, la chercheuse appelle donc à des régulations qui s’appliqueraient aux entreprises plutôt qu’aux usagers, et qui demanderaient auxdites sociétés de prouver avant commercialisation que leurs produits d’IA remplissent un certain nombre de prérequis fixés par les législateurs.

Commentaires (7)


Un peu comme les médocs qui doivent faire des essais cliniques à fin de pouvoir obtenir l’autorisation d’être commercialisé.


Mettez ces femmes à la direction des gafa et virez les dirigeants qui ont mis sur le marché Bart Galactica ChatGPT et autres “perroquets” mimétiques.



Ça va finir comme Djingo, ces affaires là. ^^



(reply:2129111:consommateurnumérique)




Ce que je ne comprends pas très bien c’est que ces IA semblent être assez bonne à ce qu’elles doivent faire. Générer une conversation.



Je pense par exemple que ça a été testé pour faire maitre de jeu et ça fonctionne pas trop mal.



Là où elles ne fonctionnent pas c’est pour avoir une information fiable, mais normalement ce n’est pas leur rôle.



« Ça me paraît ridicule » déclare l’informaticienne, qui rejette l’idée de présenter ces innovations comme des technologies qui doivent nécessairement exister, plutôt que comme des outils destinés « à nous aider à exister comme nous souhaitons exister ».




Enfin quelqu’un avec une réponse sensée. Ca fait du bien de rappeler que ChatGPT c’est juste un outil informatique et pas la naissance d’une déité ex machina.


Tiens, on ne peut pas signaler une erreur sur ce type d’article ?
Allez, je me lâche ici du coup :)



KO “Timnit Gebru revient sur le fond du message que ses collègues et elles souhaitent faire passer.”
OK ? “Timnit Gebru revient sur le fond du message que ses collègues et elle souhaitent faire passer.”


Bonjour, on peut bien sûr signaler des erreurs, avec le même bouton que pour les articles. La faute a été corrigée en tout cas, merci !


Des “perroquets stochastiques”, j’aurais aimé la trouver celle là. Rien d’intelligent au sens propre dans l’IA.


Fermer