OpenAI veut recruter quelqu’un pour réfléchir aux dérapages de l’IA
Le 29 décembre 2025 à 11h14
3 min
IA et algorithmes
IA
L’annonce semble tardive, mais OpenAI cherche activement à recruter une personne dont le rôle sera de s’inquiéter de tous les dangers liés à l’IA. Ce nouveau « chef de la préparation » (head of preparedness) aura pour mission de diriger les efforts de l’entreprise dans l’encadrement de ses modèles.
« Le responsable de la préparation développera, renforcera et guidera ce programme afin que nos normes de sécurité s’adaptent aux capacités des systèmes que nous développons », indique OpenAI dans son annonce. « Vous serez le responsable direct de la construction et de la coordination des évaluations des capacités, des modèles de menace et des mesures d’atténuation qui forment un pipeline de sécurité cohérent, rigoureux et opérationnellement évolutif ».
L’annonce ajoute que ce poste nécessite « un jugement technique approfondi, une communication claire et la capacité de guider des travaux complexes à travers de multiples domaines de risque ». Il implique une collaboration « avec la recherche, l’ingénierie, les équipes produit, les équipes de suivi et d’application des politiques, la gouvernance et des partenaires externes ».
Sam Altman, CEO de l’entreprise, y est allé de sa propre annonce sur X. Il y évoque un poste « crucial à un moment charnière ». Selon lui, les modèles évoluent très vite et sont capables désormais « de prouesses remarquables », mais « commencent » à poser de sérieux défis. Il cite deux exemples « entrevus » en 2025 : l’impact sur la santé mentale et une puissance telle que les LLM révèlent des vulnérabilités critiques.
Altman affirme qu’OpenAI dispose déjà d’outils solides pour mesurer ces « capacités croissantes ». Mais une personne qualifiée permettrait d’aller plus loin, notamment en aidant « le monde à trouver comment doter les défenseurs de la cybersécurité de capacités de pointe tout en veillant à ce que les attaquants ne puissent pas les utiliser à des fins malveillantes ».
Plusieurs personnalités reconnues du monde de l'IA se sont déjà succédé à ce poste chez OpenAI. La casquette a d'abord été portée par Aleksander Mądry, qui a discrètement été affecté à d'autres missions en juillet 2024. Elle est ensuite revenue à un duo composé de Joaquin Quinonero Candela et Lilian Weng, qui ont préféré jeter l'éponge au printemps dernier.
« Ce sera un travail stressant et vous serez plongé directement dans le grand bain », avertit le CEO. L'annonce évoque un salaire annuel de l'ordre de 555 000 dollars, assorti d'une participation.
Le 29 décembre 2025 à 11h14
Commentaires (20)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 29/12/2025 à 11h20
Du genre :
- Salut on a fabriqué du TNT, ça vous dit de faire un rally avec tout ça dans le coffre de la voiture ?
- Boom.
- Ha bah il faudrait un mec pour penser à pas faire un truc con.
Le 29/12/2025 à 14h18
TNT
*
A l'état pur, il est très stable ; contrairement à la nitroglycérine , il est presque insensible aux chocs et aux contraintes. Lorsqu'il est exposé à une flamme nue, il n'explose pas, mais brûle avec une flamme jaune et fumée. Pour le faire exploser, vous devez le déclencher avec un détonateur Trinitrotoluène - https://fr.wikiital.com/wiki/Trinitrotoluene*
Le 29/12/2025 à 20h34
Le 29/12/2025 à 20h59
L'explosion provoque l'effondrement du pan de montagne. Des tonnes de gravas déboulent plus bas. Ce qui bloque l'autoroute en contre bas. Ce qui occasionne au passage la non livraison des cartes graphiques qui réapprovisionnent les entrepôts des magasins en ligne.
2000 Gamers se tordent de douleurs dans l'attente de leur carte. Pas de bol elle arrivera après Noël. Du coups ces gamers font appel à ChatGPT qui les invite à se suicider.
On connait la suite.
Le 30/12/2025 à 07h16
Moralité : ChatGPT oeuvre pour la planète.
Le 29/12/2025 à 11h25
Modifié le 29/12/2025 à 11h34
Le 29/12/2025 à 12h12
Je te rejoins donc : c'est clairement un fusible, ce poste.
Modifié le 29/12/2025 à 11h37
Le 29/12/2025 à 11h46
Le 29/12/2025 à 12h31
Le 29/12/2025 à 12h29
Le 29/12/2025 à 13h52
Le 29/12/2025 à 13h59
Altman veut tester l'efficacité en interne de ChatGPT comme psy, sur un cas concret de burn-out ?
Le 29/12/2025 à 17h47
Modifié le 29/12/2025 à 20h49
Source: Empires of AI, Karen Hao
Le 29/12/2025 à 22h16
Le 30/12/2025 à 10h08
Le 30/12/2025 à 02h17
Le 30/12/2025 à 12h05
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?