Connexion Premium

Le contrat OpenAI-Pentagone fait encore des remous : Caitlin Kalinowski démissionne

Le contrat OpenAI-Pentagone fait encore des remous : Caitlin Kalinowski démissionne

Flock

La responsable de la branche robotique d’OpenAI, Caitlin Kalinowski, a annoncé sa démission alors que l’entreprise a passé un contrat avec le département de la Défense des États-Unis. Elle le juge précipité.

Le 09 mars à 12h30

Le mini mea-culpa de Sam Altman n’aura pas suffi à garder Caitlin Kalinowski dans les rangs de son entreprise. La responsable de la branche robotique d’OpenAI a expliqué samedi soir dans un post sur X qu’elle avait démissionné en affirmant qu’« il s’agissait d’une question de principe, pas de personnes ».

Sam Altman avait déjà reconnu dans un mémo interne rendu ensuite public s’être précipité et avoir signé un contrat qui « paraissait opportuniste et bâclé ». L’entreprise avait sauté sur l’opportunité du refus de son concurrent Anthropic de signer le même contrat avec le département de la Défense, sans clause bloquant l’utilisation de l’outil à des fins de surveillance des citoyens américains et dans des armes totalement autonomes.

La directrice de l’équipe robotique d’OpenAI aurait été au premier rang des responsables de la mise en place d’armes totalement autonomes utilisant les systèmes d’OpenAI.

Pas une opposition totale, mais un besoin de davantage de réflexion

Dans son message, Caitlin Kalinowski n’affiche pas une opposition totale à la possibilité que l’armée américaine utilise ce genre d’outils. Elle aurait cependant voulu que cette question, ainsi que celle de l’utilisation de l’IA pour surveiller les Américains, ne soient pas prises à la légère : « L’IA joue un rôle important dans la sécurité nationale. Mais la surveillance des Américains sans contrôle judiciaire et l’autonomie létale sans autorisation humaine sont des questions qui méritaient davantage de réflexion qu’elles n’en ont reçu ».

« Pour être clair, mon problème est que l’annonce a été faite précipitamment, sans que les garde-fous aient été définis. Il s’agit avant tout d’une question de gouvernance. Ces questions sont trop importantes pour que les accords ou les annonces soient précipités », a-t-elle ajouté.

Sam Altman avait affiché une volonté de modifier le contrat avec le département de la Défense des États-Unis. Mais si son message aborde le problème de la surveillance des citoyens américains, il n’a pas évoqué directement la question des armes autonomes.

Si Anthropic a posé ses limites à un nouveau contrat avec le département de la Défense, l’entreprise s’était engagée avec le Pentagone dans plusieurs projets, dont le montant s’élevait à 200 millions de dollars. Après ce refus, l’administration Trump l’a officiellement désignée comme menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ».

Mais l’armée américaine engagée en Iran utilise actuellement encore son IA. Selon le Washington Post, le système Maven Smart développé par Palantir et auquel elle recourt intègre l’IA Claude d’Anthropic.

OpenAI reporte le « mode adulte » de ChatGPT

L’organisation interne d’OpenAI semble donc faire les frais de la précipitation de Sam Altman pour emporter le contrat tombé des mains d’Anthropic.

L’entreprise a d’ailleurs encore repoussé le lancement du « mode adulte » dont elle parlait en octobre dernier. « Nous reportons le lancement du mode adulte afin de pouvoir nous concentrer sur des tâches qui sont actuellement plus prioritaires pour un plus grand nombre d’utilisateurs », affirme l’entreprise à Axios. « Nous continuons à croire au principe selon lequel il faut traiter les adultes comme des adultes, mais il faudra plus de temps pour acquérir l’expérience nécessaire », ajoute-t-elle.

Cette fonctionnalité avait été critiquée en interne par une de ses cadres en charge de la sécurité des utilisateurs, Ryan Beiermeister. Celle-ci a été licenciée au motif qu’elle aurait commis une discrimination de genre à l’encontre de l’un de ses collègues masculins.

Commentaires (8)

votre avatar
"la surveillance des Américains sans contrôle judiciaire et l’autonomie létale sans autorisation humaine sont des questions qui méritaient davantage de réflexion qu’elles n’en ont reçu"
Ben... non. Ca mérite aucune réflexion. Juste NON.

C'est marrant cette éthique à géométrie variable, détruire la planète, consommer l'eau et l'électricité disponible, soumettre travailleur.euses du clic, voler l'IP du monde entier, etc... tout ça c'est ok.
votre avatar
Problème résolu depuis longtemps par l'armée française: c'est non et pour toujours, il y a obligatoirement une action humaine pour l'armement létale. Même si on a pris du retard sur le développement des munitions rôdeuses et drones, c'est non négociable.
votre avatar
et pour toujours
Comment peut-on écrire cela ?
votre avatar
C'est un prophète. De plus, c'est bien connu, la France fait la guerre pure avec application de tous les grands principes d'une guerre humaniste et juste.
votre avatar
La guerre propre :oops:
votre avatar
J'ai aucun problème d’écrire cela. C'est un dogme très présent dans le milieu militaire français. L'IA permet de classer les informations, supprimer les bruits parasite mais à aucun moment on laisse la décision ultime à une machine. Toutes les armées ne se valent pas sur ce point.
votre avatar
On peut écrire "pour le moment" sans problème mais écrire "pour toujours" me semble présomptueux : on ne connaît jamais le futur.
votre avatar
Sauf que l'armée française d'aujourd'hui peut se permettre ces valeurs parce que le territoire national n'est pas en danger, et qu'on ne vit pas une guerre totale comme l'Ukraine. Si on devait faire notre maximum pour survivre coûte que coûte, combien de temps avant un changement d'avis ?