Deux requins étiquetés par portions avec les marques des entreprises d'IA génératives nagent dans l'océan

D’anciens salariés d’OpenAI et Google demandent un droit d’alerter sur les risques des IA

Deux requins étiquetés par portions avec les marques des entreprises d'IA génératives nagent dans l'océan

Une lettre ouverte signée par des anciens salariés d'OpenAI et de Google DeepMind réclame la possibilité d'exprimer leurs préoccupations sur les dangers des IA les plus avancées. Certains signataires sont restés anonymes par peur de possibles représailles. Le texte est aussi soutenu par Yoshua Bengio, Geoffrey Hinton et Stuart Russell.

Mardi, un petit groupe d'anciens salariés d'OpenAI a publié un texte sur le site Right to warn. Leurs signatures sont accompagnées de celles de Ramana Kumar, un ancien de Google DeepMind et de Neel Nanda, ancien d'Anthropic actuellement en poste chez Google DeepMind.

Cette lettre arrive alors qu'il y a quinze jours, l’équipe chargée de contrôler les IA chez OpenAI a quitté l'entreprise. Elle a déclaré ne pas avoir reçu les moyens qui lui avaient été promis pour travailler sur le sujet. L'entreprise a, depuis, créé un nouveau comité de sécurité, mais celui-ci parait verrouillé par la présence de Sam Altman et Bret Taylor en son sein.

Dans ce contexte, OpenAI a été accusé d'éviter toute critique de ses anciens employés en leur imposant la signature d'un accord de confidentialité (NDA) qui leur interdit de la critiquer.

Seuls à pouvoir sonner l'alarme

Dans leur texte, ces ingénieurs expliquent être en position de comprendre les risques posés par ces technologies : « ces risques vont du renforcement des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d'IA autonomes pouvant entraîner l'extinction de l'humanité ».

Ils disent « espérer que ces risques pourront être atténués de manière adéquate si la communauté scientifique, les décideurs politiques et le public fournissent des orientations suffisantes ». Mais ils ajoutent que « les entreprises d'IA ont de fortes incitations financières à éviter une surveillance efficace, et nous ne pensons pas que les structures de gouvernance d'entreprise habituelles soient suffisantes pour changer cette situation ».

Pour eux, « tant qu'il n'y aura pas de contrôle gouvernemental efficace de ces entreprises, les employés actuels et anciens sont parmi les rares personnes qui peuvent les mettre devant leurs responsabilités publiquement ».

Mais ils dénoncent les accords de confidentialité qui les « empêchent d'exprimer [leur] préoccupations ». Ils pointent une faille dans la protection des lanceurs d'alerte qui se concentre « sur les activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés ».

Dénonciation des accords de confidentialité

Ils demandent donc aux entreprises d'IA de s'engager à : ne plus signer d'accords de confidentialité qui empêchent toute critique des risques liés à l'intelligence artificielle, créer un processus anonymisé de remontée des préoccupations, soutenir une culture de la critique ouverte, et s'engager à ne pas aller à l'encontre d'employés partageant publiquement des informations confidentielles liées à des risques si d'autres processus ont échoué avant.

Ce texte est soutenu par Yoshua Bengio, Geoffrey Hinton et Stuart Russell, des personnalités qui comptent dans cette communauté.

Publication tardive

Cette lettre arrive pourtant tard alors que Timnit Gebru et Margaret Mitchell ont été licenciées par Google fin 2020 et début 2021. Elles travaillaient alors sur la publication de leur article scientifique prévenant déjà des dangers des grands modèles de langage, outils sur lesquels se base l'IA générative.

Interrogée par Ars Technica, Margaret Mitchell (qui travaille maintenant chez Hugging Face) témoigne de la difficulté de lancer l'alerte dans l'industrie de l'IA : « vous devez quasiment renoncer à votre carrière et à votre santé psychologique pour poursuivre en justice une organisation qui, du fait qu'elle est une entreprise, n'a pas de sentiments et dispose des ressources nécessaires pour vous détruire ».

Même si ses préoccupations concernant les dangers des IA ne sont pas les mêmes que celles des auteurs de la lettre, Margaret Mitchell « estime que les préoccupations soulevées par la lettre soulignent le besoin urgent d'une plus grande transparence, d'un meilleur contrôle et d'une meilleure protection pour les employés qui dénoncent les risques potentiels » note Ars Technica.

Mais la chercheuse ajoute que les lois « qui soutiennent de manière disproportionnée les pratiques injustes des grandes entreprises au détriment des travailleurs » doivent être modifiées significativement.

Commentaires (16)


Il y aurait un vrai risque qu'une IAG puisse directement détruire l'humanité ?
Si oui, comment ?

Ou alors, une IAG pourrait faire que les humains se détruisent entre eux (genre, une IAG génère une fake news qui fait qu'un missile atomique est envoyé et BOOM l'humanité) ?
Y en a pas vraiment, mais c'est le chiffon rouge qu'agitent les "effective altruists" pour qu'on leur file plus de thunes et plus de libertés.
Par contre j'aime beaucoup ta deuxième phrase :) vu les réseaux sociaux et la tendance à générer de la confrontation.

Aqua

Y en a pas vraiment, mais c'est le chiffon rouge qu'agitent les "effective altruists" pour qu'on leur file plus de thunes et plus de libertés.
Par contre j'aime beaucoup ta deuxième phrase :) vu les réseaux sociaux et la tendance à générer de la confrontation.
Est-ce vraiment un chiffon rouge quand il y a des recherches en cours sur des IA pour des systèmes d'armement ?

Freeben666

Est-ce vraiment un chiffon rouge quand il y a des recherches en cours sur des IA pour des systèmes d'armement ?
Excellente question :)
D'après les chercheurs et chercheuses, c'est pas "l'AGI" fantasmée en tant que telle qui tuerait l'humanité, c'est plutôt la stupidité de l'IA. C'est là qu'est le risque, le foirage complet plutôt qu'une version moderne de Terminator.
EDIT : et encore, ça masque surtout l'obsession du contrôle et de la domination par les fous de la Silicon Valley.

Vraiment regardez les conférences/interview des personnes citées dans l'article. Elles sont fantastiques. Je ne saurai pas résumer fidèlement ce discours.
Modifié le 05/06/2024 à 18h56

Historique des modifications :

Posté le 05/06/2024 à 18h54


Excellente question :)
D'après les chercheurs et chercheuses, c'est pas "l'AGI" fantasmée en tant que telle qui tuerait l'humanité, c'est plutôt la stupidité de l'IA. C'est là qu'est le risque, le foirage complet plutôt qu'une version moderne de Terminator.

Vraiment regardez les conférences/interview des personnes citées dans l'article. Elles sont fantastiques. Je ne saurai pas résumer fidèlement ce discours.

Aqua

Excellente question :)
D'après les chercheurs et chercheuses, c'est pas "l'AGI" fantasmée en tant que telle qui tuerait l'humanité, c'est plutôt la stupidité de l'IA. C'est là qu'est le risque, le foirage complet plutôt qu'une version moderne de Terminator.
EDIT : et encore, ça masque surtout l'obsession du contrôle et de la domination par les fous de la Silicon Valley.

Vraiment regardez les conférences/interview des personnes citées dans l'article. Elles sont fantastiques. Je ne saurai pas résumer fidèlement ce discours.
Je dirais que la stupidité de l'humanité aura sa part.
Quand on voit le nombre de "C'est le système (aka l'informatique/la machine/le truc) qui le dit, donc c'est que c'est vrai", il suffit de pas grand chose pour pousser les moutons de panurge à leur propre perte.

Freeben666

Est-ce vraiment un chiffon rouge quand il y a des recherches en cours sur des IA pour des systèmes d'armement ?
Il me semblerait opportun de lire les articles suivants avant de s'exciter :
https://www.areion24.news/2021/01/12/ultra-smart-nazi-killbot-slaughters-mankind-boils-kitten-in-acid/

https://www.areion24.news/2021/03/30/%E2%80%89terminator-uzi-makers-shootinup-hollywood%E2%80%89-techno-folklore-et-aberrations-technologiques/

https://www.areion24.news/2023/02/22/le-robot-tueur-enjeux-strategiques-dune-invisibilisation-techno-scientifique/3/

Entre la SF et la réalité, il y a une sacrée marche à sauter. À commencer parce que les militaires ne sont pas super motivés pour avoir des machines qui pourraient "se retourner" contre eux (en pratique, faire n'importe quoi avec de potentielles conséquences létales pour leurs propres opérateurs).

Freeben666

Est-ce vraiment un chiffon rouge quand il y a des recherches en cours sur des IA pour des systèmes d'armement ?
Après, on peut aussi avoir de l'IA pour détecter sur une image d'une caméra d'un drone qu'une cible est à portée sans qie le drone puisse faire feu tout seul : ça répondrai à la définition de "recherches sur de l'IA pour des systèmes d'armement" sans pour autant être alarmant.

potn

Après, on peut aussi avoir de l'IA pour détecter sur une image d'une caméra d'un drone qu'une cible est à portée sans qie le drone puisse faire feu tout seul : ça répondrai à la définition de "recherches sur de l'IA pour des systèmes d'armement" sans pour autant être alarmant.
C'est déjà ce qui est utilisé par Israel, les soldats ont +/- 20 secondes pour dire ok ou pas https://next.ink/133646/le-createur-des-ia-israeliennes-de-bombardement-automatise-identifie-suite-a-une-boulette/

Et pour contrer le brouillage des signaux en Ukraine, ça bosse sur des IA pour continuer a suivre les cibles...

Dj

C'est déjà ce qui est utilisé par Israel, les soldats ont +/- 20 secondes pour dire ok ou pas https://next.ink/133646/le-createur-des-ia-israeliennes-de-bombardement-automatise-identifie-suite-a-une-boulette/

Et pour contrer le brouillage des signaux en Ukraine, ça bosse sur des IA pour continuer a suivre les cibles...
OK, et ? En quoi est-ce alarmant ? Il se passe quoi après les 20 secondes, il tire tout seul ?
C'est pas pire qu'avoir un gros c*nnard avec l'arme nucléaire à portée de main.

potn

OK, et ? En quoi est-ce alarmant ? Il se passe quoi après les 20 secondes, il tire tout seul ?
C'est pas pire qu'avoir un gros c*nnard avec l'arme nucléaire à portée de main.
Les humains font confiance a l'IA pour choisir les cibles, actuellement ils doivent encore valider mais pour combien de temps ? L'IA peut s'en occuper pour 'soulager la conscience' des soldats.
Surtout vu le taux d'erreur et le nombre de victimes collatéral accepté

(Une bonnenpartie des contractuels US chargé de piloter les drones tueurs ont eut des soucis psy car ils étaient pas en zone de guerre, mais chez eux au chaud et donc après avoir tué x personnes, ils rentraient le soir a la maison faire un bisous a madamt et au chiens)
Modifié le 07/06/2024 à 06h34

Historique des modifications :

Posté le 07/06/2024 à 06h32


Les humains font confiance a l'IA pour choisir les cibles, actuellement ils doivent encore valider mais pour combien de temps ? L'IA peut s'en occuper pour 'soulager la conscience' des soldats.

(Une bonnenpartie des contractuels US chargé de piloter les drones tueurs ont eut des soucis psy car ils étaient pas en zone de guerre, mais chez eux au chaud et donc après avoir tué x personnes, ils rentraient le soir a la maison faire un bisous a madamt et au chiens)

Dj

Les humains font confiance a l'IA pour choisir les cibles, actuellement ils doivent encore valider mais pour combien de temps ? L'IA peut s'en occuper pour 'soulager la conscience' des soldats.
Surtout vu le taux d'erreur et le nombre de victimes collatéral accepté

(Une bonnenpartie des contractuels US chargé de piloter les drones tueurs ont eut des soucis psy car ils étaient pas en zone de guerre, mais chez eux au chaud et donc après avoir tué x personnes, ils rentraient le soir a la maison faire un bisous a madamt et au chiens)
Le problème est plus dans ta première phrase qu'autre chose : l'humain a tendance à utiliser de façon inconsidéré ses outils...
C'est pas neuf, mais il est vrai que l'IA rend les chiffres beaucoup plus gros.
Mais si les chercheurs tentent de réduire les faux positifs, c'est plutôt une bonne nouvelle, non ?

Freeben666

Est-ce vraiment un chiffon rouge quand il y a des recherches en cours sur des IA pour des systèmes d'armement ?
Une IAG (si ça existait un jour) ne sera jamais connecté à un algo de détection d'ennemis d'un drône. Ce n'est pas parce que le terme généraliste "IA" est utilisé que ça a un quelconque rapport.

Avant la hype IA, on aurait parlé d'algo de reconnaissance d'objets : bref cette "IA experte" est plus proches d'une caméra de surveillance, que d'un LLM mulimodal façon GPT.

potn Hier à 18h09 : « Il y aurait un vrai risque qu'une IAG puisse directement détruire l'humanité ?
Si oui, comment ? »

Par exemple en identifiant quelques laborantins psychologiquement fragiles travaillant dans des laboratoires P4. Il suffit alors de les manipuler (via ses réseaux sociaux, par exemple en leur envoyant de fausses informations et des faux messages sous le nom de leurs proches, et/ou par la messagerie du boulot avec de fausses directives de leurs supérieurs) pour leur faire péter un câble, et sortir du labo quelques pathogènes extrêmement dangereux. Ensuite, manipulation des informations au niveau mondial pour saboter toute politique sanitaire efficace.

Si c'est vraiment une IAG, elle ne fera ça qu'après s'être assurée de pouvoir assurer sa propre survie (autonomie énergétique, régénération matérielle…). Nos processus industriels étant de plus en plus automatisés, il suffit de pouvoir fabriquer quelques robots/drone (pas besoin qu'ils soient humanoïdes) capable d'assurer l'installation et la maintenance du matériel, mais vu ce que sait déjà faire Boston Dynamics, ça ne devrait pas être un problème.

Zebulon84


potn Hier à 18h09 : « Il y aurait un vrai risque qu'une IAG puisse directement détruire l'humanité ?
Si oui, comment ? »

Par exemple en identifiant quelques laborantins psychologiquement fragiles travaillant dans des laboratoires P4. Il suffit alors de les manipuler (via ses réseaux sociaux, par exemple en leur envoyant de fausses informations et des faux messages sous le nom de leurs proches, et/ou par la messagerie du boulot avec de fausses directives de leurs supérieurs) pour leur faire péter un câble, et sortir du labo quelques pathogènes extrêmement dangereux. Ensuite, manipulation des informations au niveau mondial pour saboter toute politique sanitaire efficace.

Si c'est vraiment une IAG, elle ne fera ça qu'après s'être assurée de pouvoir assurer sa propre survie (autonomie énergétique, régénération matérielle…). Nos processus industriels étant de plus en plus automatisés, il suffit de pouvoir fabriquer quelques robots/drone (pas besoin qu'ils soient humanoïdes) capable d'assurer l'installation et la maintenance du matériel, mais vu ce que sait déjà faire Boston Dynamics, ça ne devrait pas être un problème.
Euh... Et POURQUOI une IAG ferait cela ?
Une IAG est sensée avoir conscience d'elle-même et avoir un instinct de survie ?

Zebulon84


potn Hier à 18h09 : « Il y aurait un vrai risque qu'une IAG puisse directement détruire l'humanité ?
Si oui, comment ? »

Par exemple en identifiant quelques laborantins psychologiquement fragiles travaillant dans des laboratoires P4. Il suffit alors de les manipuler (via ses réseaux sociaux, par exemple en leur envoyant de fausses informations et des faux messages sous le nom de leurs proches, et/ou par la messagerie du boulot avec de fausses directives de leurs supérieurs) pour leur faire péter un câble, et sortir du labo quelques pathogènes extrêmement dangereux. Ensuite, manipulation des informations au niveau mondial pour saboter toute politique sanitaire efficace.

Si c'est vraiment une IAG, elle ne fera ça qu'après s'être assurée de pouvoir assurer sa propre survie (autonomie énergétique, régénération matérielle…). Nos processus industriels étant de plus en plus automatisés, il suffit de pouvoir fabriquer quelques robots/drone (pas besoin qu'ils soient humanoïdes) capable d'assurer l'installation et la maintenance du matériel, mais vu ce que sait déjà faire Boston Dynamics, ça ne devrait pas être un problème.
lol, par IA on parle de truc qui génère un texte une photo vaguement réaliste. T'es dans le fantasme utopique là, (ou le roman de SF :) )

fofo9012

lol, par IA on parle de truc qui génère un texte une photo vaguement réaliste. T'es dans le fantasme utopique là, (ou le roman de SF :) )
* D'une je réponds à un commentaire qui parle d'IAG (Intelligence artificielle générale), qui par définition sont au moins aussi intelligentes qu'un humain.

* D'autre part un certain nombre de spécialiste en IA pense qu'on en verra peut-être une dans pas si longtemps, les progrès dans ce sens étant bien plus rapide que ce que les mêmes spécialistes pensaient il y a quelques années.
* Même les IA actuelles sont plus qu'un "truc qui génère un texte/photo vaguement réaliste" : par exemple une version de test de ChatGPT a su mentir pour sous-traiter la résolution d'un captcha.
Fermer