Connexion
Abonnez-vous

Comment OpenAI évite toute critique de ses anciens employés

NDIA

Comment OpenAI évite toute critique de ses anciens employés

La semaine dernière, des employés d’OpenAI, dont Ilya Sutskever et Jan Leike, ont quitté l'entreprise, laissant l’équipe de « Superalignement » vide. Mais leur message pour annoncer leur départ était laconique. La raison ? OpenAI imposait jusqu’à présent à ses salariés voulant quitter l’entreprise la signature d’un accord de confidentialité (NDA) à vie, au risque de perdre leurs actions.

Le 20 mai à 17h49

Les déclarations des démissionnaires d’OpenAI envers leur ancien employeur étaient plus que succinctes. Ilya Sutskever affirmait ainsi être « convaincu qu'OpenAI construira une AGI à la fois sûre et bénéfique ». Étonnement positif pour quelqu’un quittant l’entreprise. Jan Leike a seulement écrit « « j'ai démissionné ».

Vendredi, OpenAI a finalement annoncé la dissolution pure et simple de leur équipe tout en expliquant intégrer les personnes restantes dans ses autres équipes de recherche « afin d'aider l'entreprise à atteindre ses objectifs en matière de sécurité ».

Le média Vox a trouvé une raison au mutisme des employés : l'entreprise leur a simplement fait signer un accord de confidentialité (NDA) qui leur interdit de la critiquer.

Interdiction de critique à vie

Ce genre de clause existe dans des contrats de cadres dirigeants et est même assez fréquent. Dans les documents que faisait signer OpenAI à ses employés voulant partir, l’interdiction était cependant sans durée limitée. Plus inhabituel encore, un ancien salarié enfreignant cet accord perdait les actions qu’il avait acquises pendant son contrat, explique Vox, qui a pu consulter un de ses documents. Le média américain explique que l'accord impose le silence sur son existence même.

Si un salarié refusait de signer un tel document, il renonçait aussi à ses actions acquises au cours de son contrat. Vox évoque le cas de Daniel Kokotajlo qui a quitté l’entreprise, car il avait perdu confiance dans sa capacité d’encadrer l’émergence d’une IA générale en refusant de signer ce document. Celui-ci a confirmé récemment, dans un commentaire sur le blog LessWrong proche de la communauté transhumaniste, avoir abandonné l’idée de toucher une importante somme.

Sam Altman « gêné » par l’existence de cette clause

Réagissant à l’article, Sam Altman a tweeté samedi que l’entreprise n’a « jamais récupéré les capitaux propres acquis par quiconque, et nous ne le ferons pas non plus si les gens ne signent pas d'accord de séparation (ou n'acceptent pas un accord de non-dénigrement). Les capitaux propres acquis sont des capitaux propres acquis, point final ».

Mais le CEO ne nie pas l’existence de cette clause, au contraire. Il la confirme : « il y avait une disposition concernant une éventuelle annulation de capitaux propres dans nos précédents documents de sortie ; même si nous n’avons jamais rien récupéré, cela n’aurait jamais dû figurer dans aucun document ou communication. C'est ma faute et l'une des rares fois où j'ai été vraiment gêné de diriger OpenAI ; je ne savais pas que cela se produisait et j'aurais dû ».

Il ajoute que l’entreprise était déjà en train de revoir la rédaction de ces documents. Et finit en affirmant que « si un ancien employé ayant signé l'un de ces anciens accords s'en inquiète, il peut me contacter et nous réglerons également ce problème. Vraiment désolé à ce sujet ». Dans son tweet, Sam Altman ne mentionne par contre pas le cas des anciens salariés qui n’ont pas signé ce contrat à cause de cette clause.

Communication sur la gestion d’une éventuelle IA générale

Si OpenAI a fermé son équipe « Superalignement », elle ne change pas de position officielle sur le fait qu’elle imagine arriver dans peu de temps à l’émergence d’une intelligence artificielle générale (AGI).

Samedi, Greg Brockman et Sam Altman ont salué le travail de Jan Leike par deux tweets (un court premier de Sam Altman et un deuxième publié par Brockman, mais signé par les deux cofondateurs d’OpenAI) après que celui-ci a publié un thread sur les dangers de l’avènement d’une AGI.

Dans le deuxième long tweet signé par Altman et Brockman, ils affirment avoir « mis en place les bases nécessaires au déploiement en toute sécurité de systèmes de plus en plus performants ». Mais ils sont beaucoup plus positifs sur l’arrivée d’intelligences artificielles toujours plus puissantes : « nous pensons que de tels systèmes seront incroyablement bénéfiques et utiles aux gens, et qu’il sera possible de les mettre en œuvre en toute sécurité, mais cela nécessitera un énorme travail de fond ».

Comme pour donner des gages à leurs anciens salariés, ils ajoutent qu’ils ne peuvent pas « imaginer tous les scénarios possibles ». « Nous devons donc disposer d’une boucle de rétroaction très étroite, de tests rigoureux, d’un examen attentif à chaque étape, d’une sécurité de classe mondiale et d’une harmonie entre la sécurité et les capacités. Nous continuerons à mener des recherches sur la sécurité en ciblant différentes échelles de temps. Nous continuons également à collaborer avec les gouvernements et de nombreuses parties prenantes en matière de sécurité », commentent-ils.

Ils ajoutent cependant, pour faire comprendre qu’ils n’ont pas besoin de l’ancienne équipe « Superalignment », qu’ « il n’existe aucun manuel éprouvé sur la manière de naviguer vers l’AGI ».

Cette bataille au sein d’OpenAI, perdue par les tenants les plus vifs d’une arrivée proche de l’AGI, a pris la place des critiques sur les dangers déjà existants des modèles de langage et notamment les biais, la prolifération de la désinformation et leur consommation énergétique très importante.

La voix des démos de GPT-4o trop proche de celle de Scarlett Johansson dans Her ?

OpenAI a aussi dû répondre à d’autres critiques. Nous faisions remarquer lors de la présentation de GPT-4o que la voix simulait de façon très fidèle les intonations et les traits d'humour que pourrait avoir un être humain dans ce genre de conversation, allant jusqu'à rappeler le film Her.

L’entreprise semble avoir eu beaucoup de remarques à ce sujet, au point de mettre en pause l’utilisation de cette voix. Dans un billet publié ce lundi, OpenAI affirme que « nous pensons que les voix d'IA ne doivent pas imiter délibérément la voix caractéristique d'une célébrité. La voix de Sky n'est pas une imitation de Scarlett Johansson, mais celle d'une actrice professionnelle différente qui utilise sa propre voix naturelle. Pour protéger leur vie privée, nous ne pouvons pas divulguer les noms de nos talents vocaux ».

Pourtant, Sam Altman n’avait pas manqué de tweeter « her » en référence au film le jour de cette présentation.

Commentaires (10)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Pour protéger leur vie privée, nous ne pouvons pas divulguer les noms de nos chanteurs.
C'est traduit par une IA ?

La version en anglais :
To protect their privacy, we cannot share the names of our voice talents.
votre avatar
Trop rapide utilisation de Deepl sur ce coup, désolé (et des petits soucis techniques d'édition).

Edit : c'est corrigé.
votre avatar
Si ça n'avait pas parlé d'IA, j'aurais signalé comme d'habitude, mais, là, désolé, c'était trop tentant.
votre avatar
Quels apprentis sorciers...
votre avatar
Du coup, cette-actrice-dont-on-ne-doit-pas-diffuser-le-nom ne s'appellerait pas Scarlett Johansson? Parce que je vois mal le rapport avec une voix pour IA et la vie privée...
votre avatar
Je suis toujours très choqué par "Le média américain explique que l'accord impose le silence sur son existence même.".
Un clause interdisant les critiques (ou autre), un peu discutable, mais pourquoi pas...
Mais une clause interdisant qu'on n'a cette clause même, ça me choque, (bien que je sache, c'est une une clause répandue).

Dis autrement, -surtout dans ce cas sans limite de temps- c'est une clause que je perçois (je suis profane en droit) comme restreignant la liberté d'expression... Alors pourquoi pas (on ne peux pas dire n'importe quoi publiquement, certes).
Mais être "muselé" sur le fait qu'on n'a accepté de signé une clause de ce type est -encore a mon sentiment- très problématique...
votre avatar
Du coup, je ne comprends pas, ils quittent la boîte parce qu'ils ne sont pas ok avec les pratiques. Pratiques qu'ils étaient en mesure d'éviter ou contrer en étant chez OpenAI. Mais alors ils gardent leurs actions, autrement dit ils cautionnent par leur financement la politique de la boîte, et acceptent donc de ne rien en dire...

Y'a pas un manque de cohérence, t'es pas ok, tu te barres, tu vends tes actions, et tu dis ce qu'il y a à dire... Non ?
votre avatar
Tu peux très bien te barrer pcq tu ne supportes pas le fonctionnement interne d'une entreprise, mais conserver tes actions qui vont sans doute t'apporter plus d'argent. Comme ceux qui ont sans doute eu des actions Apple à l'époque, qui sont parti mais se sont dit « on ne sait jamais ».
votre avatar
Penser que chacun peut faire évoluer l'entreprise dans laquelle il travaille est une belle idée.
Souvent la considération du personnel ne le permet pas. Malheureusement, trop souvent, la seule manière de faire évoluer les choses est de démissionner, en groupe c'est encore plus efficace.
Ça ne veut pas dire renier tout le travail que tu as pu faire précédemment.
votre avatar
s'ils gardent leurs actions, ils ne cautionnent pas la politique de la boîte par leur financement : à partir du moment où l'action est émise et est sortie du marché primaire elle ne rapporte plus le moindre "financement" à l'entreprise.
Par contre, le fait qu'ils gardent leur action peut signifier 2 choses :
* soit ils croient que le modèle économique ou que la politique de l'entreprise va entraîner une augmentation de la valeur de leurs actions,
* soit ils ont dans leur contrat une clause qui leur interdit de vendre ces actions avant un certain délai (exemple des actions acquises en France dans le cadre d'un PEE, par exemple)

Comment OpenAI évite toute critique de ses anciens employés

  • Interdiction de critique à vie

  • Sam Altman « gêné » par l’existence de cette clause

  • Communication sur la gestion d’une éventuelle IA générale

  • La voix des démos de GPT-4o trop proche de celle de Scarlett Johansson dans Her ?

Fermer