Connexion
Abonnez-vous

OpenAI : « trompeur et chaotique », Sam Altman aurait sacrifié la sécurité pour le profit

For the greater good

OpenAI : « trompeur et chaotique », Sam Altman aurait sacrifié la sécurité pour le profit

Depuis quelques jours, la presse américaine évoque les « OpenAI Files ». Ce regroupement d’informations, essentiellement des témoignages, a été créé par deux ONG pour sensibiliser sur la gouvernance actuelle d’OpenAI. Particulièrement visé, Sam Altman n’est pas jugé digne de mener la course vers l’AGI.

Le 20 juin à 08h41

Les « OpenAI Files » ne sont pas une compilation de documents volés, comme l’ont été en leur temps les fameux Pentagon Papers ou, plus récemment, les publications de WikiLeaks et les Panama Papers. Il s’agit d’une bibliothèque regroupant de nombreux témoignages, dont d’anciens employés de l’entreprise.

Ces « dossiers OpenAI », et le site qui les accompagne, ont été créés par deux organisations, Midas Project et Tech Oversight Project, spécialisées dans la surveillance technologique. Ils se veulent « la collection la plus complète à ce jour de préoccupations documentées concernant les pratiques de gouvernance, l'intégrité du leadership et la culture organisationnelle d'OpenAI ».

Que disent ces dossiers ?

Le site contient de nombreuses informations faisant le tour d’une thématique centrale : la gouvernance d’OpenAI et donc l’influence de Sam Altman, son CEO actuel.

On rappelle ainsi qu’OpenAI a été fondée en 2015 en tant qu’organisation à but non lucratif dans un seul but : parvenir à l’AGI (intelligence artificielle générale) et s’assurer qu’elle profite à toute l’humanité. Mais, dès 2019, une filiale à but lucratif est créée pour faciliter les investissements. Elle fonctionne sur la base d’un facteur 100x. Ainsi, chaque dollar investi ne peut rapporter qu’un maximum de 100 dollars. Au-delà, les profits partent à la structure d’origine, qui a en théorie le contrôle sur toutes les décisions. Ce chiffre aurait depuis été abaissé à 20x, puis à « un seul chiffre », selon un article du New York Times en 2021.

Les dossiers dressent un inventaire de tout ce qui s’est passé dans l’entreprise, à travers le prisme d’une AGI qui profiterait véritablement à tout le monde.

Éviction de Sam Altman, le choc de 2023

L’idée de constituer cette base n’est pas neuve. Elle est née en 2023 avec l’épisode rocambolesque de l’éviction de Sam Altman du conseil d’administration et de sa place de CEO. On apprenait peu après que le conseil d’administration lui reprochait un « manque constant de franchise dans ses communications ». Il n’avait donc plus confiance en la capacité d'Altman à diriger et à respecter la mission d’origine.

Mais, comme nous l’avions relaté, tout s’est très vite déréglé. La quasi-totalité des employés (plus de 700 sur 770) a menacé de démissionner pour suivre Altman, où qu’il aille. Dès le lendemain, Microsoft faisait une annonce tonitruante : Sam Altman est embauché pour créer une nouvelle division IA au sein du géant et tous ceux qui le voudront pour l’accompagner. Microsoft est à ce moment, et de très loin, le plus gros investisseur d’OpenAI, avec 13 milliards de dollars et des contrats d’exclusivité.

La pression qui s’exerce alors sur le conseil d’administration devient trop forte. Devant la fronde générale et plutôt que de provoquer l’implosion de l’entreprise, le conseil d’administration se ravise, capitule et fait revenir Sam Altman dans ses attributions. Le nouvel ex-CEO provoque le remaniement complet du conseil. En tout, il se sera écoulé moins de cinq jours.

Les dossiers reviennent sur ces évènements, via notamment les témoignages d'Helen Toner et Tasha McCauley, deux anciennes membres du conseil d’administration. On y retrouve des passages et résumés de leurs déclarations dans divers médias et podcasts. Elles y dénonçaient son manque de transparence et ses mensonges répétés, comme lorsque le conseil a découvert le lancement de ChatGPT sur le compte Twitter d’OpenAI. Altman aurait créé le fonds d’investissement OpenAI Startup Fund sans informer le conseil, masquant un conflit d’intérêt. Il serait également la source d’une atmosphère toxique, de manœuvres d’intimidation et même de tentatives de manipulation du conseil, notamment pour faire renvoyer Helen Toner.

Quatre grands domaines de préoccupation

Sur le site des dossiers, on trouve des informations réparties en quatre onglets, qui représentent autant de domaines de préoccupation : restructuration, intégrité du CEO, transparence & sécurité, et conflits d’intérêt.

Chaque onglet liste plusieurs sujets forts et s’accompagne d’un bouton menant vers une « analyse complète ». Dans les conclusions de l’onglet Restructuration, on peut ainsi lire qu’OpenAI compte supprimer le plafond des bénéfices, que l’entreprise n'est pas sincère dans sa volonté de laisser la structure à but non lucratif en charge des décisions, ou encore qu’elle procèderait à tous ces changements pour rassurer des investisseurs désireux d’apporter des réformes structurelles. Ils auraient notamment demandé des rendements illimités sur les investissements, ce qui couperait tout financement à la structure d’origine. Et pour cause : en septembre 2024, Sam Altman ne cachait plus ses ambitions.

L’intégrité du CEO est pointée du doigt, ou plutôt son absence présumée d’intégrité. Selon les informations recueillies, les cadres supérieurs de chacune des trois entreprises qu’il a dirigées ont tenté de le démettre de ses fonctions. Son comportement à Y Combinator aurait été qualifié de « trompeur et chaotique », avec des accusations d’absentéisme et de course à l’enrichissement personnel. Il aurait menti sur les accords très restrictifs de non-divulgation (NDA) imposés aux salariés et aurait cherché à semer la zizanie dans le conseil d’administration, en faisant notamment courir le bruit qu’un membre cherchait à en évincer un autre.

Ces NDA sont d’ailleurs un argument central dans la partie critiquant la transparence et la sécurité au sein de l’entreprise. Ces documents menaçaient les employés de perdre tous leurs droits acquis s’ils critiquaient l’entreprise, même en cas de démission. Les évaluations de sécurité auraient été bâclées et l’entreprise n'aurait pas respecté ses engagements sur l’écoute de ses employés, surtout quand ils auraient cherché à faire part de leurs préoccupations.

Enfin, les dossiers pointent de nombreux conflits d’intérêt, notamment au sein du « nouveau » conseil d’administration, à commencer par Sam Altman lui-même. Il aurait ainsi répété devant le conseil n’avoir aucun intérêt personnel financier dans OpenAI, mais aurait nettement investi dans plusieurs partenaires de l’entreprise, dont Retro Bioscences et Rewind AI, dont le succès est alimenté en partie par celui d’OpenAI.

L’idéal derrière les OpenAI Files

Les dossiers, en recoupant de nombreux témoignages, cherchent à mettre une certaine forme de pression sur une entreprise accusée d’avoir modifié sa course et ses objectifs. Le remaniement du conseil d’administration, suite au retour de Sam Altman, en serait la preuve éclatante. Parmi les nouveaux arrivants, on pouvait en effet remarquer des personnalités telles que Bret Taylor, ancien co-dirigeant de Salesforce, ou encore Larry Summers, ancien secrétaire au Trésor américain.

Dans le sillage de ces nouvelles nominations, le conseil a diligenté une enquête interne sur le renvoi de Sam Altman. Conclusion : le renvoi n’était pas justifié par des préoccupations concernant la sécurité des produits, la situation financière de l'entreprise ou ses déclarations aux investisseurs. Les déclarations des anciens membres, particulièrement d’Helen Toner, sont réfutées, le conseil ayant exprimé sa « déception » de la voir soulever des sujets qu’il considère comme classés.

Les deux organisations à l’origine de ces OpenAI Files pointent ce qui est désormais décrit comme un conflit philosophique profond au sein de l’entreprise. Sa charte fondatrice contenait des missions de sécurité et d’éthique. Mais tout aurait changé sous l’impulsion d’une course effrénée au développement et à la commercialisation de produits, largement alimentée par Sam Altman. En filigrane, on retrouve la crainte que la pression pour générer des profits ne prenne définitivement le pas sur l’idée d’une IA sûre, éthique et responsable. Cette tension structurelle aurait été illustrée dès 2019 par la création de l’entité à but lucratif.

En mai, alors qu'une partie des documents était déjà publiée, OpenAI a quand même annoncé un changement de gouvernance. Pas question d'entreprise à but lucratif classique, mais une structure capitalistique accompagnée d'une mission d'intérêt public (Public Benefit Corporation, ou PBC). « OpenAI n’est pas une entreprise normale et ne le sera jamais », a alors promis Sam Altman.

À The Verge, Tyler Johnston, directeur du Midas Project, a déclaré : « Nous sommes dans un projet d'archives, où nous montrons comment était OpenAI à l'époque, comment elle est aujourd'hui... Nous mettons simplement ces informations devant le lecteur et lui demandons de tirer ses propres conclusions sur ce qu'il doit en faire ». La mission de surveillance va donc continuer, les changements annoncés le mois dernier étant eux aussi référencés.

Commentaires (6)

votre avatar
Voil_ qui aurait le potentiel de percer la bulle tant financière que technologique des "IA". A suivre donc.
votre avatar
Les promesses n'engagent que ceux qui y croient.
Je ne suis absolument pas fan du Altman, de ses manigances et ses manipulations.
il est déjà ou il finira comme les Bezos/Zuckenberg/Musk qui doivent être amha ses modèles en terme de sociopathie.
votre avatar
Mais qui est Larry summers ? Et qu'est ce qu'il dit ?
...

Ha ouais, je me disais bien...
votre avatar
Mais... mais... qui aurait pu prédire ? 🙀
J'en tomberais de ma chaise si j'étais pas déjà allongé.
votre avatar
Au delà de OpenAI, c'est la manière dont (de ce que je comprends de l'article) tout cela est recueilli qui n'aide pas à se faire une véritable idée. Pour les Panama Papiers, c'est du factuel à quasi 100%, la on est dans le ressenti, des anciens collaborateurs qui témoignent qui mais sans vraiment pouvoir prouver.
Attention, il semble y avoir du factuel, mais ça fait tout de même très revanchard qui crée un site pour se plaindre de son ancien patron ou des promesses qu'ils ont cru.
votre avatar
Pour moi c'est 100% esbroufe; OpenAI/Sam Altman ont bien compris ce qu'il fallait faire pour exciter les investisseurs : faire passer OpenAI pour quelque chose de dangereux, secrètement proche de l'AIG.

Rapellez vous l'année dernière, ces fameux "leaks" de documents ou on apprenaient que les anciens salariés devaient signer des clauses de confidentialité ultra restrictives qui laissent entendre des projets top secrets...

Ou encore ces leaks d'il y'a 6 mois de documments qui annoncaient qu'OpenAI était sur la voie de l'AGI et qu'elle permetrait de générer plus de $100Mds et que quelques semaines plus tard Sam Altman annonçait que l'AGI c'était pour 2025 😂

Bref, les LLM avancent c'est une évidence, mais à mon avis ces "leaks" arrangent surtout OpenAI et on est encore bien loin de l'AGI

OpenAI : « trompeur et chaotique », Sam Altman aurait sacrifié la sécurité pour le profit

  • Que disent ces dossiers ?

  • Éviction de Sam Altman, le choc de 2023

  • Quatre grands domaines de préoccupation

  • L’idéal derrière les OpenAI Files

Fermer