D’anciens salariés d’OpenAI et Google demandent un droit d’alerter sur les risques des IA
Une lettre ouverte signée par des anciens salariés d'OpenAI et de Google DeepMind réclame la possibilité d'exprimer leurs préoccupations sur les dangers des IA les plus avancées. Certains signataires sont restés anonymes par peur de possibles représailles. Le texte est aussi soutenu par Yoshua Bengio, Geoffrey Hinton et Stuart Russell.
Le 05 juin à 17h23
5 min
IA et algorithmes
IA
Mardi, un petit groupe d'anciens salariés d'OpenAI a publié un texte sur le site Right to warn. Leurs signatures sont accompagnées de celles de Ramana Kumar, un ancien de Google DeepMind et de Neel Nanda, ancien d'Anthropic actuellement en poste chez Google DeepMind.
Cette lettre arrive alors qu'il y a quinze jours, l’équipe chargée de contrôler les IA chez OpenAI a quitté l'entreprise. Elle a déclaré ne pas avoir reçu les moyens qui lui avaient été promis pour travailler sur le sujet. L'entreprise a, depuis, créé un nouveau comité de sécurité, mais celui-ci parait verrouillé par la présence de Sam Altman et Bret Taylor en son sein.
Dans ce contexte, OpenAI a été accusé d'éviter toute critique de ses anciens employés en leur imposant la signature d'un accord de confidentialité (NDA) qui leur interdit de la critiquer.
- Comment OpenAI évite toute critique de ses anciens employés
- [Màj] OpenAI : l’équipe chargée de contrôler les IA n’avait pas accès aux capacités de calculs promises
Seuls à pouvoir sonner l'alarme
Dans leur texte, ces ingénieurs expliquent être en position de comprendre les risques posés par ces technologies : « ces risques vont du renforcement des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d'IA autonomes pouvant entraîner l'extinction de l'humanité ».
Ils disent « espérer que ces risques pourront être atténués de manière adéquate si la communauté scientifique, les décideurs politiques et le public fournissent des orientations suffisantes ». Mais ils ajoutent que « les entreprises d'IA ont de fortes incitations financières à éviter une surveillance efficace, et nous ne pensons pas que les structures de gouvernance d'entreprise habituelles soient suffisantes pour changer cette situation ».
Pour eux, « tant qu'il n'y aura pas de contrôle gouvernemental efficace de ces entreprises, les employés actuels et anciens sont parmi les rares personnes qui peuvent les mettre devant leurs responsabilités publiquement ».
Mais ils dénoncent les accords de confidentialité qui les « empêchent d'exprimer [leur] préoccupations ». Ils pointent une faille dans la protection des lanceurs d'alerte qui se concentre « sur les activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés ».
Dénonciation des accords de confidentialité
Ils demandent donc aux entreprises d'IA de s'engager à : ne plus signer d'accords de confidentialité qui empêchent toute critique des risques liés à l'intelligence artificielle, créer un processus anonymisé de remontée des préoccupations, soutenir une culture de la critique ouverte, et s'engager à ne pas aller à l'encontre d'employés partageant publiquement des informations confidentielles liées à des risques si d'autres processus ont échoué avant.
Ce texte est soutenu par Yoshua Bengio, Geoffrey Hinton et Stuart Russell, des personnalités qui comptent dans cette communauté.
Publication tardive
Cette lettre arrive pourtant tard alors que Timnit Gebru et Margaret Mitchell ont été licenciées par Google fin 2020 et début 2021. Elles travaillaient alors sur la publication de leur article scientifique prévenant déjà des dangers des grands modèles de langage, outils sur lesquels se base l'IA générative.
- Google, IA et éthique : « départ » de Timnit Gebru, Sundar Pichai s’exprime
- Google, IA et éthique : Margaret Mitchell annonce avoir été licenciée
Interrogée par Ars Technica, Margaret Mitchell (qui travaille maintenant chez Hugging Face) témoigne de la difficulté de lancer l'alerte dans l'industrie de l'IA : « vous devez quasiment renoncer à votre carrière et à votre santé psychologique pour poursuivre en justice une organisation qui, du fait qu'elle est une entreprise, n'a pas de sentiments et dispose des ressources nécessaires pour vous détruire ».
Même si ses préoccupations concernant les dangers des IA ne sont pas les mêmes que celles des auteurs de la lettre, Margaret Mitchell « estime que les préoccupations soulevées par la lettre soulignent le besoin urgent d'une plus grande transparence, d'un meilleur contrôle et d'une meilleure protection pour les employés qui dénoncent les risques potentiels » note Ars Technica.
Mais la chercheuse ajoute que les lois « qui soutiennent de manière disproportionnée les pratiques injustes des grandes entreprises au détriment des travailleurs » doivent être modifiées significativement.
D’anciens salariés d’OpenAI et Google demandent un droit d’alerter sur les risques des IA
-
Seuls à pouvoir sonner l'alarme
-
Dénonciation des accords de confidentialité
-
Publication tardive
Commentaires (16)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 05/06/2024 à 18h09
Si oui, comment ?
Ou alors, une IAG pourrait faire que les humains se détruisent entre eux (genre, une IAG génère une fake news qui fait qu'un missile atomique est envoyé et BOOM l'humanité) ?
Le 05/06/2024 à 18h12
Par contre j'aime beaucoup ta deuxième phrase :) vu les réseaux sociaux et la tendance à générer de la confrontation.
Le 05/06/2024 à 18h25
Modifié le 05/06/2024 à 18h56
D'après les chercheurs et chercheuses, c'est pas "l'AGI" fantasmée en tant que telle qui tuerait l'humanité, c'est plutôt la stupidité de l'IA. C'est là qu'est le risque, le foirage complet plutôt qu'une version moderne de Terminator.
EDIT : et encore, ça masque surtout l'obsession du contrôle et de la domination par les fous de la Silicon Valley.
Vraiment regardez les conférences/interview des personnes citées dans l'article. Elles sont fantastiques. Je ne saurai pas résumer fidèlement ce discours.
Le 06/06/2024 à 11h55
Quand on voit le nombre de "C'est le système (aka l'informatique/la machine/le truc) qui le dit, donc c'est que c'est vrai", il suffit de pas grand chose pour pousser les moutons de panurge à leur propre perte.
Le 05/06/2024 à 19h59
https://www.areion24.news/2021/01/12/ultra-smart-nazi-killbot-slaughters-mankind-boils-kitten-in-acid/
https://www.areion24.news/2021/03/30/%E2%80%89terminator-uzi-makers-shootinup-hollywood%E2%80%89-techno-folklore-et-aberrations-technologiques/
https://www.areion24.news/2023/02/22/le-robot-tueur-enjeux-strategiques-dune-invisibilisation-techno-scientifique/3/
Entre la SF et la réalité, il y a une sacrée marche à sauter. À commencer parce que les militaires ne sont pas super motivés pour avoir des machines qui pourraient "se retourner" contre eux (en pratique, faire n'importe quoi avec de potentielles conséquences létales pour leurs propres opérateurs).
Le 05/06/2024 à 22h35
Le 06/06/2024 à 10h57
Et pour contrer le brouillage des signaux en Ukraine, ça bosse sur des IA pour continuer a suivre les cibles...
Le 06/06/2024 à 23h20
C'est pas pire qu'avoir un gros c*nnard avec l'arme nucléaire à portée de main.
Modifié le 07/06/2024 à 06h34
Surtout vu le taux d'erreur et le nombre de victimes collatéral accepté
(Une bonnenpartie des contractuels US chargé de piloter les drones tueurs ont eut des soucis psy car ils étaient pas en zone de guerre, mais chez eux au chaud et donc après avoir tué x personnes, ils rentraient le soir a la maison faire un bisous a madamt et au chiens)
Le 07/06/2024 à 15h10
C'est pas neuf, mais il est vrai que l'IA rend les chiffres beaucoup plus gros.
Mais si les chercheurs tentent de réduire les faux positifs, c'est plutôt une bonne nouvelle, non ?
Le 09/06/2024 à 10h16
Avant la hype IA, on aurait parlé d'algo de reconnaissance d'objets : bref cette "IA experte" est plus proches d'une caméra de surveillance, que d'un LLM mulimodal façon GPT.
Le 06/06/2024 à 03h17
potn Hier à 18h09 : « Il y aurait un vrai risque qu'une IAG puisse directement détruire l'humanité ?
Si oui, comment ? »
Par exemple en identifiant quelques laborantins psychologiquement fragiles travaillant dans des laboratoires P4. Il suffit alors de les manipuler (via ses réseaux sociaux, par exemple en leur envoyant de fausses informations et des faux messages sous le nom de leurs proches, et/ou par la messagerie du boulot avec de fausses directives de leurs supérieurs) pour leur faire péter un câble, et sortir du labo quelques pathogènes extrêmement dangereux. Ensuite, manipulation des informations au niveau mondial pour saboter toute politique sanitaire efficace.
Si c'est vraiment une IAG, elle ne fera ça qu'après s'être assurée de pouvoir assurer sa propre survie (autonomie énergétique, régénération matérielle…). Nos processus industriels étant de plus en plus automatisés, il suffit de pouvoir fabriquer quelques robots/drone (pas besoin qu'ils soient humanoïdes) capable d'assurer l'installation et la maintenance du matériel, mais vu ce que sait déjà faire Boston Dynamics, ça ne devrait pas être un problème.
Le 06/06/2024 à 23h16
Une IAG est sensée avoir conscience d'elle-même et avoir un instinct de survie ?
Le 09/06/2024 à 10h07
Le 11/06/2024 à 22h08
* D'autre part un certain nombre de spécialiste en IA pense qu'on en verra peut-être une dans pas si longtemps, les progrès dans ce sens étant bien plus rapide que ce que les mêmes spécialistes pensaient il y a quelques années.
* Même les IA actuelles sont plus qu'un "truc qui génère un texte/photo vaguement réaliste" : par exemple une version de test de ChatGPT a su mentir pour sous-traiter la résolution d'un captcha.