Comment OpenAI évite toute critique de ses anciens employés
NDIA
La semaine dernière, des employés d’OpenAI, dont Ilya Sutskever et Jan Leike, ont quitté l'entreprise, laissant l’équipe de « Superalignement » vide. Mais leur message pour annoncer leur départ était laconique. La raison ? OpenAI imposait jusqu’à présent à ses salariés voulant quitter l’entreprise la signature d’un accord de confidentialité (NDA) à vie, au risque de perdre leurs actions.
Le 20 mai à 17h49
6 min
IA et algorithmes
IA
Les déclarations des démissionnaires d’OpenAI envers leur ancien employeur étaient plus que succinctes. Ilya Sutskever affirmait ainsi être « convaincu qu'OpenAI construira une AGI à la fois sûre et bénéfique ». Étonnement positif pour quelqu’un quittant l’entreprise. Jan Leike a seulement écrit « « j'ai démissionné ».
Vendredi, OpenAI a finalement annoncé la dissolution pure et simple de leur équipe tout en expliquant intégrer les personnes restantes dans ses autres équipes de recherche « afin d'aider l'entreprise à atteindre ses objectifs en matière de sécurité ».
Le média Vox a trouvé une raison au mutisme des employés : l'entreprise leur a simplement fait signer un accord de confidentialité (NDA) qui leur interdit de la critiquer.
Interdiction de critique à vie
Ce genre de clause existe dans des contrats de cadres dirigeants et est même assez fréquent. Dans les documents que faisait signer OpenAI à ses employés voulant partir, l’interdiction était cependant sans durée limitée. Plus inhabituel encore, un ancien salarié enfreignant cet accord perdait les actions qu’il avait acquises pendant son contrat, explique Vox, qui a pu consulter un de ses documents. Le média américain explique que l'accord impose le silence sur son existence même.
Si un salarié refusait de signer un tel document, il renonçait aussi à ses actions acquises au cours de son contrat. Vox évoque le cas de Daniel Kokotajlo qui a quitté l’entreprise, car il avait perdu confiance dans sa capacité d’encadrer l’émergence d’une IA générale en refusant de signer ce document. Celui-ci a confirmé récemment, dans un commentaire sur le blog LessWrong proche de la communauté transhumaniste, avoir abandonné l’idée de toucher une importante somme.
Sam Altman « gêné » par l’existence de cette clause
Réagissant à l’article, Sam Altman a tweeté samedi que l’entreprise n’a « jamais récupéré les capitaux propres acquis par quiconque, et nous ne le ferons pas non plus si les gens ne signent pas d'accord de séparation (ou n'acceptent pas un accord de non-dénigrement). Les capitaux propres acquis sont des capitaux propres acquis, point final ».
Mais le CEO ne nie pas l’existence de cette clause, au contraire. Il la confirme : « il y avait une disposition concernant une éventuelle annulation de capitaux propres dans nos précédents documents de sortie ; même si nous n’avons jamais rien récupéré, cela n’aurait jamais dû figurer dans aucun document ou communication. C'est ma faute et l'une des rares fois où j'ai été vraiment gêné de diriger OpenAI ; je ne savais pas que cela se produisait et j'aurais dû ».
Il ajoute que l’entreprise était déjà en train de revoir la rédaction de ces documents. Et finit en affirmant que « si un ancien employé ayant signé l'un de ces anciens accords s'en inquiète, il peut me contacter et nous réglerons également ce problème. Vraiment désolé à ce sujet ». Dans son tweet, Sam Altman ne mentionne par contre pas le cas des anciens salariés qui n’ont pas signé ce contrat à cause de cette clause.
Communication sur la gestion d’une éventuelle IA générale
Si OpenAI a fermé son équipe « Superalignement », elle ne change pas de position officielle sur le fait qu’elle imagine arriver dans peu de temps à l’émergence d’une intelligence artificielle générale (AGI).
Samedi, Greg Brockman et Sam Altman ont salué le travail de Jan Leike par deux tweets (un court premier de Sam Altman et un deuxième publié par Brockman, mais signé par les deux cofondateurs d’OpenAI) après que celui-ci a publié un thread sur les dangers de l’avènement d’une AGI.
Dans le deuxième long tweet signé par Altman et Brockman, ils affirment avoir « mis en place les bases nécessaires au déploiement en toute sécurité de systèmes de plus en plus performants ». Mais ils sont beaucoup plus positifs sur l’arrivée d’intelligences artificielles toujours plus puissantes : « nous pensons que de tels systèmes seront incroyablement bénéfiques et utiles aux gens, et qu’il sera possible de les mettre en œuvre en toute sécurité, mais cela nécessitera un énorme travail de fond ».
Comme pour donner des gages à leurs anciens salariés, ils ajoutent qu’ils ne peuvent pas « imaginer tous les scénarios possibles ». « Nous devons donc disposer d’une boucle de rétroaction très étroite, de tests rigoureux, d’un examen attentif à chaque étape, d’une sécurité de classe mondiale et d’une harmonie entre la sécurité et les capacités. Nous continuerons à mener des recherches sur la sécurité en ciblant différentes échelles de temps. Nous continuons également à collaborer avec les gouvernements et de nombreuses parties prenantes en matière de sécurité », commentent-ils.
Ils ajoutent cependant, pour faire comprendre qu’ils n’ont pas besoin de l’ancienne équipe « Superalignment », qu’ « il n’existe aucun manuel éprouvé sur la manière de naviguer vers l’AGI ».
Cette bataille au sein d’OpenAI, perdue par les tenants les plus vifs d’une arrivée proche de l’AGI, a pris la place des critiques sur les dangers déjà existants des modèles de langage et notamment les biais, la prolifération de la désinformation et leur consommation énergétique très importante.
La voix des démos de GPT-4o trop proche de celle de Scarlett Johansson dans Her ?
OpenAI a aussi dû répondre à d’autres critiques. Nous faisions remarquer lors de la présentation de GPT-4o que la voix simulait de façon très fidèle les intonations et les traits d'humour que pourrait avoir un être humain dans ce genre de conversation, allant jusqu'à rappeler le film Her.
L’entreprise semble avoir eu beaucoup de remarques à ce sujet, au point de mettre en pause l’utilisation de cette voix. Dans un billet publié ce lundi, OpenAI affirme que « nous pensons que les voix d'IA ne doivent pas imiter délibérément la voix caractéristique d'une célébrité. La voix de Sky n'est pas une imitation de Scarlett Johansson, mais celle d'une actrice professionnelle différente qui utilise sa propre voix naturelle. Pour protéger leur vie privée, nous ne pouvons pas divulguer les noms de nos talents vocaux ».
Pourtant, Sam Altman n’avait pas manqué de tweeter « her » en référence au film le jour de cette présentation.
Comment OpenAI évite toute critique de ses anciens employés
-
Interdiction de critique à vie
-
Sam Altman « gêné » par l’existence de cette clause
-
Communication sur la gestion d’une éventuelle IA générale
-
La voix des démos de GPT-4o trop proche de celle de Scarlett Johansson dans Her ?
Commentaires (10)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 20/05/2024 à 18h02
La version en anglais :
Modifié le 20/05/2024 à 18h07
Edit : c'est corrigé.
Le 20/05/2024 à 18h18
Le 21/05/2024 à 08h07
Le 21/05/2024 à 10h12
Modifié le 21/05/2024 à 11h44
Un clause interdisant les critiques (ou autre), un peu discutable, mais pourquoi pas...
Mais une clause interdisant qu'on n'a cette clause même, ça me choque, (bien que je sache, c'est une une clause répandue).
Dis autrement, -surtout dans ce cas sans limite de temps- c'est une clause que je perçois (je suis profane en droit) comme restreignant la liberté d'expression... Alors pourquoi pas (on ne peux pas dire n'importe quoi publiquement, certes).
Mais être "muselé" sur le fait qu'on n'a accepté de signé une clause de ce type est -encore a mon sentiment- très problématique...
Le 21/05/2024 à 12h46
Y'a pas un manque de cohérence, t'es pas ok, tu te barres, tu vends tes actions, et tu dis ce qu'il y a à dire... Non ?
Le 21/05/2024 à 13h12
Le 21/05/2024 à 14h13
Souvent la considération du personnel ne le permet pas. Malheureusement, trop souvent, la seule manière de faire évoluer les choses est de démissionner, en groupe c'est encore plus efficace.
Ça ne veut pas dire renier tout le travail que tu as pu faire précédemment.
Le 23/05/2024 à 15h50
Par contre, le fait qu'ils gardent leur action peut signifier 2 choses :
* soit ils croient que le modèle économique ou que la politique de l'entreprise va entraîner une augmentation de la valeur de leurs actions,
* soit ils ont dans leur contrat une clause qui leur interdit de vendre ces actions avant un certain délai (exemple des actions acquises en France dans le cadre d'un PEE, par exemple)