Connexion Premium

OpenAI veut recruter quelqu’un pour réfléchir aux dérapages de l’IA

Le 29 décembre 2025 à 11h14

L’annonce semble tardive, mais OpenAI cherche activement à recruter une personne dont le rôle sera de s’inquiéter de tous les dangers liés à l’IA. Ce nouveau « chef de la préparation » (head of preparedness) aura pour mission de diriger les efforts de l’entreprise dans l’encadrement de ses modèles.

« Le responsable de la préparation développera, renforcera et guidera ce programme afin que nos normes de sécurité s’adaptent aux capacités des systèmes que nous développons », indique OpenAI dans son annonce. « Vous serez le responsable direct de la construction et de la coordination des évaluations des capacités, des modèles de menace et des mesures d’atténuation qui forment un pipeline de sécurité cohérent, rigoureux et opérationnellement évolutif ».

L’annonce ajoute que ce poste nécessite « un jugement technique approfondi, une communication claire et la capacité de guider des travaux complexes à travers de multiples domaines de risque ». Il implique une collaboration « avec la recherche, l’ingénierie, les équipes produit, les équipes de suivi et d’application des politiques, la gouvernance et des partenaires externes ».

Sam Altman, CEO de l’entreprise, y est allé de sa propre annonce sur X. Il y évoque un poste « crucial à un moment charnière ». Selon lui, les modèles évoluent très vite et sont capables désormais « de prouesses remarquables », mais « commencent » à poser de sérieux défis. Il cite deux exemples « entrevus » en 2025 : l’impact sur la santé mentale et une puissance telle que les LLM révèlent des vulnérabilités critiques.

Altman affirme qu’OpenAI dispose déjà d’outils solides pour mesurer ces « capacités croissantes ». Mais une personne qualifiée permettrait d’aller plus loin, notamment en aidant « le monde à trouver comment doter les défenseurs de la cybersécurité de capacités de pointe tout en veillant à ce que les attaquants ne puissent pas les utiliser à des fins malveillantes ».

Plusieurs personnalités reconnues du monde de l'IA se sont déjà succédé à ce poste chez OpenAI. La casquette a d'abord été portée par Aleksander Mądry, qui a discrètement été affecté à d'autres missions en juillet 2024. Elle est ensuite revenue à un duo composé de Joaquin Quinonero Candela et Lilian Weng, qui ont préféré jeter l'éponge au printemps dernier.

« Ce sera un travail stressant et vous serez plongé directement dans le grand bain », avertit le CEO. L'annonce évoque un salaire annuel de l'ordre de 555 000 dollars, assorti d'une participation.

Le 29 décembre 2025 à 11h14

Commentaires (20)

votre avatar
C'est un peu tard...

Du genre :
- Salut on a fabriqué du TNT, ça vous dit de faire un rally avec tout ça dans le coffre de la voiture ?

- Boom.
- Ha bah il faudrait un mec pour penser à pas faire un truc con.
votre avatar
Ici c'est plus de la nitroglycérine (le salaire de la peur).
TNT
*
A l'état pur, il est très stable ; contrairement à la nitroglycérine , il est presque insensible aux chocs et aux contraintes. Lorsqu'il est exposé à une flamme nue, il n'explose pas, mais brûle avec une flamme jaune et fumée. Pour le faire exploser, vous devez le déclencher avec un détonateur Trinitrotoluène - https://fr.wikiital.com/wiki/Trinitrotoluene*
votre avatar
Mouais, bem on s'en moque ... en rally y a toujours des étincelles ... et boom :D
votre avatar
La voiture comme dans tout rallye qui se respecte se plante dans le décor. Le réservoir prend feu. Tout explose.

L'explosion provoque l'effondrement du pan de montagne. Des tonnes de gravas déboulent plus bas. Ce qui bloque l'autoroute en contre bas. Ce qui occasionne au passage la non livraison des cartes graphiques qui réapprovisionnent les entrepôts des magasins en ligne.

2000 Gamers se tordent de douleurs dans l'attente de leur carte. Pas de bol elle arrivera après Noël. Du coups ces gamers font appel à ChatGPT qui les invite à se suicider.

On connait la suite.
votre avatar
2000 Gamers se tordent de douleurs dans l'attente de leur carte. Pas de bol elle arrivera après Noël. Du coups ces gamers font appel à ChatGPT qui les invite à se suicider.
La planète est surpeuplée et les gamers consomment trop d'énergie.

Moralité : ChatGPT oeuvre pour la planète.
votre avatar
donc apres qu' "OpenAI dissout l'équipe dédiée aux risques liés à l’intelligence artificielle" en mai 2024 (voir https://www.lefigaro.fr/secteur/high-tech/openai-dissout-l-equipe-dediee-aux-risques-lies-a-l-intelligence-artificielle-20240518 entre autres), OpenAI cherche maintenant un fusible humain pour servir d'alibi ?
votre avatar
L'annonce évoque un salaire annuel de l'ordre de 555 000 dollars
Oui, il va falloir être bien payé pour vouloir de ce siège éjectable
votre avatar
Le côté stressant est évident ici : le rôle du poste est de faire en sorte d'aller à une vitesse raisonnable quand tout le reste de l'entreprise pousse pour aller le plus vite possible... Un peu comme un gars chargé d'appuyer sur la pédale de frein quand tout le reste de la voiture accélère pied au plancher... Le truc inutile.

Je te rejoins donc : c'est clairement un fusible, ce poste.
votre avatar
Vu les casseroles traînées, autant qu'ils utilisent GPT pour reconstruire un double virtuel d'Ayrton Senna. Au moins ils seront prévenus de l'issue.
votre avatar
Assorti d'une participation : faudra pas dire de mal de l'IA, sinon ça baissera la rémunération.
votre avatar
Je corrige : "tu dis du mal de l'ia, tu es viré".
votre avatar
C'était dès le départ qu'il fallait s'en occuper ...
votre avatar
une puissance telle que les LLM révèlent des vulnérabilités critiques
traduction:
une augmentation du chômage dans certains secteurs touchés par l'IA tels que les LLM révèlent des vulnérabilités critiques
votre avatar
550K dollars annuels (et une participation) pour un tel poste ? Quand on voit ce qui a été fait du précédent comité éthique ? De la vitesse à laquelle évolue le secteur ? Des prises de positions toutes plus contradictoires les unes que les autres ?

Altman veut tester l'efficacité en interne de ChatGPT comme psy, sur un cas concret de burn-out ?
votre avatar
Ils veulent devenir Anthropic ?
votre avatar
Justement, c'était ce que faisait Dario Amodei au début d'OpenAI.... avant qu'il ne se brouille avec Altman.... La vie est un éternel recommancement. Ou c'est un foutage de g...

Source: Empires of AI, Karen Hao
votre avatar
Le salaire ne semble pas fou fou pour ce genre de responsabilités (et San Francisco). Ils doivent pas viser les meilleurs...
votre avatar
Comme dit plus haut, ils cherchent surtout un fusible, pas forcément une personne compétente.
votre avatar
Ça ose tout : c'est à ça qu'on les reconnaît
votre avatar
Ça tombe à pic pour les gars de Microsoft et Meta qui ont perdu leur travail il y a quelques temps.

OpenAI veut recruter quelqu’un pour réfléchir aux dérapages de l’IA

Fermer