Connexion Premium

Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

Too Quick and too dirty?

Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

Ministère des Armées

L’annonce par OpenAI d’un contrat avec l’armée états-unienne alors que son concurrent Anthropic refusait de céder aux pressions de l’administration Trump a écorné l’image publique de l’entreprise de Sam Altman. Celui-ci essaye de rattraper les conséquences d’une communication trop rapide.

Le 04 mars à 08h41

Alors qu’Anthropic a refusé de céder aux pressions du Pentagone pour utiliser Claude sans restriction, OpenAI a signé dans la foulée un contrat avec le département de la Défense des États-Unis.

Si cette signature fait sans aucun doute rentrer de l’argent dans les caisses de l’entreprise de Sam Altman, il n’avait sans doute pas prévu qu’elle fasse fuir autant d’utilisateurs.

Il vient d’annoncer qu’OpenAI et le Pentagone reprenaient le contrat pour le modifier sur le sujet de la surveillance de masse aux États-Unis, un des enjeux qu’Anthropic avait justement soulevé.

Dans un message d’abord envoyé en interne que s’est procuré Axios et que Sam Altman a ensuite diffusé sur X, le CEO d’OpenAI reconnait s’être précipité et avoir signé un accord qui « paraissait opportuniste et bâclé ».

« Une chose que je pense avoir mal faite : nous n’aurions pas dû nous précipiter pour publier cela vendredi », ajoute-t-il, semblant vouloir faire amende honorable.

Des utilisateurs américains ont abandonné ChatGPT en masse

Et effectivement, de nombreux utilisateurs semblent penser qu’il a fait une erreur et lui reprochent peut-être un peu plus que de la simple précipitation. Trois fois plus d’utilisateurs de ChatGPT que d’habitude ont désinstallé, aux États-Unis, l’application dans la journée du samedi 28 février, selon des chiffres de Sensor Tower cités par TechCrunch. Et les téléchargements de l’application baissent aussi.

En parallèle, l’application Claude d’Anthropic a vu ses téléchargements augmenter pour devenir l’application la plus téléchargée de l’App Store d’Apple aux États-Unis. La chanteuse Katy Perry a montré l’exemple en postant, sur X, une capture d’écran de l’offre d’Anthropic entourée d’un cœur. L’éditeur de Claude a par ailleurs annoncé de façon opportune l’ouverture à tous les utilisateurs de sa fonction d’import de données contextuelles, une invitation directe aux utilisateurs de ChatGPT.

Sam Altman explique donc dans son message qu’OpenAI et le Pentagone sont en train d’amender leur contrat pour prendre en compte noir sur blanc les différentes lois qui interdisent la surveillance domestique : « le système d’IA ne doit pas être utilisé intentionnellement à des fins de surveillance nationale des personnes et des ressortissants américains ».

Un changement qui n’aborde pas directement la question des armes autonomes

Si son message est long, Sam Altman ne parle pas directement de l’autre condition sur laquelle Anthropic n’a pas voulu céder : l’utilisation de son outil pour les armes totalement autonomes.

Il affirme par contre qu « il y a beaucoup de choses pour lesquelles la technologie n’est tout simplement pas encore prête, et beaucoup de domaines dans lesquels nous ne comprenons pas encore les compromis nécessaires pour garantir la sécurité ».

C’était justement l’argument invoqué par le CEO d’Anthropic, Dario Amodei, pour mettre de côté, pour l’instant, l’utilisation dans des armes totalement autonomes.

Essayant de ménager la chèvre et le chou, Sam Altman ajoute : « Nous allons y travailler, lentement, avec le ministère de la Défense, à l’aide de mesures de protection techniques et d’autres méthodes ».

Les critiques contre ce contrat ne se retrouvent pas que chez les utilisateurs. Ainsi, le Financial Times explique que des employés d’OpenAI ont fait part de leurs inquiétudes en interne. Ceux qui travaillent dans les locaux de San Francisco ont pu également y voir un tag affichant « NON À LA SURVEILLANCE DE MASSE » et les exhortant à « faire ce qui est juste ! ».

Une rupture avec Anthropic plus sur la forme que sur le fond

Mais si le Département de la Défense des États-Unis n’a pas signé avec Anthropic, le contrat aurait avant tout capoté en raison de tensions entre les négociateurs, selon le New York Times. En effet, le journal raconte qu’Emil Michael, le CTO du côté administration, n’aurait pas apprécié la façon dont le CEO d’Anthropic, Dario Amodei, se comportait. Une position reprise ensuite publiquement par Pete Hegseth quand il a déclaré que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech ».

Lors des négociations, Emil Michael a accusé Dario Amodei d’être un « menteur » atteint d’un « complexe de Dieu », alors que le CEO d’Anthropic aurait refusé de participer à une réunion avec lui pour régler des questions de formulation parce qu’il était déjà dans une autre réunion avec son équipe dirigeante.

Si Donald Trump a ordonné le week-end dernier à toutes les administrations des États-Unis de rompre avec Anthropic, l’entreprise n’a pas dit son dernier mot et a déjà annoncé qu’elle ira en justice. Elle s’appuiera notamment sur le fait que la décision a été justifiée par le département de la Défense mais aussi par le dirigeant des États-Unis en affirmant que l’entreprise était un « risque pour la chaîne d’approvisionnement », qualificatif utilisé pour signifier qu’une entreprise est une menace pour la sécurité nationale mais qui n’a jamais été utilisé contre une entreprise américaine.

Commentaires (11)

votre avatar
:popcorn:

A venir: La série Netflix
votre avatar
LLM la guerre. :duel1:
votre avatar
J’ai bien l’impression que Anthropic va devenir plus important que OpenAI …
Mais du coup je me demande si leur IA Claude ne va pas en patir pour ses performances dans le code.
Si ils deviennent plus «grand public», il y a de forte chance qu’il deviennent moins spécialisé dans les tâches de codage pour mieux coller au besoin plus généraliste de ses clients bien plus diverses.
Une opportunité pour un autre concurrent de remplir ce vide ?
votre avatar
Quid des détails pour Meta et ses modèles llama4+ ?
Ils s'étaient positionnés pour être utilisés par les militaires US, mais je n'ai aucune idée des astérisques éventuels en cas de contractualisation.
votre avatar
Et ne pas oublier que par chez nous les armées ont désormais un contrat avec Mistral : quid des détails des conditions d'utilisation ?
Quitte à comparer les positions morales affichées des uns et des autres...
votre avatar
Un changement qui n’aborde pas directement la question des armes autonomes
C'est quoi une arme autonome ? Sans définition, impossible de dire si c'est bien ou pas (éthiquement, pas fonctionnellement). Une mine, c'est autonome, une fois posée et armée, elle tuera/détruira celui/ce qui passera dessus. Un missile, c'est autonome : une fois lancé, il se dirige sur sa cible (qu'il peut traquer et suivre), et la détruit.

Je trouve le terme pas forcément bien choisi ou alors manquant d'une définition claire et sans équivoque (surtout par comparaison de l'armement moderne actuel).
votre avatar
Dans un contexte d'IA, c'est une arme qui prend une décision seule sur le champ de bataille pour tuer des humains.
Pour les USA, lire ici fr.wikipedia.org Wikipedia

Ça va plus loin que tes tentatives de minimisation du problème.

En lisant le reste de l'article Wikipédia, on voit qu'il y a effectivement des définitions différentes hors contexte IA.
votre avatar
Ça va plus loin que tes tentatives de minimisation du problème.
Tu es extrêmement fatigant avec tes procès d'intention.
votre avatar
En simplifiant c'est une arme qui décide seule quand faire boum, sans mécanisme explicite défini par un humain.

En gros, ta mine, son mécanisme il est armé par un humain, y'aune action humaine, réfléchie ou non, c'est autre chose.
Dans le cas du missile, c'est un humain qui appuie sur le bouton pour le faire partir.

Dans le cas des armes autonomes, ce que Samsung il me semble à fourni à la Corée du Sud des systèmes de tire autonomes pour la DMZ en tests.
votre avatar
En gros, ta mine, son mécanisme il est armé par un humain, y'a une action humaine, réfléchie ou non, c'est autre chose.
Même ton arme autonome, il y a une décision humaine de la déployer sur le champ de bataille. Si on veut arriver à une convention autour de ces armes, il va falloir être capable de donner une définition avec laquelle on ne peut pas "jouer".

Par exemple, les munitions rôdeuses en Ukraine, qui peuvent terminer leur mission même sous un brouillage (en utilisant une IA qui identifie un type de cible et l'attaque), ça se place où ?

J'ai l'impression qu'on prend le problème sous l'angle de la peur d'une arme autonome qui se retournerait contre son camp (à cause d'IFF défaillante par exemple), plutôt que sous l'angle éthique (en particulier sur une sorte d'effet rebond du fait que l'intelligence de l'arme nous rendrait plus enclin à l'utiliser en considérant qu'elle causerait moins de victimes collatérales). Le premier point est technique, le second est moral.

Exemple :
Dans le cas des armes autonomes, ce que Samsung il me semble à fourni à la Corée du Sud des systèmes de tire autonomes pour la DMZ en tests.
"Ah ben tout va bien, comme on peut les commander, au lieu de miner le terrain, on va mettre des milliers de ces bidules, il y a moins de risque de tuer n'importe qui" -> la réalité : des décennies plus tard, des civils se font abattre par des vieux systèmes de ce type qui ne savent même pas que la guerre est finie.

Et même si tu me dis que c'est pareil avec une mine, une mine il faut au moins en approcher très près pour la déclencher.
votre avatar
Des utilisateurs américains ont abandonné ChatGPT en masse
Il ne faut pas exagérer non plus !

Un peu moins de fois 3 mesuré uniquement sur une journée après des incitations à la désinstaller, ça n'est pas significatif.
Combien vont la réinstaller bientôt ?

Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

  • Des utilisateurs américains ont abandonné ChatGPT en masse

  • Un changement qui n'aborde pas directement la question des armes autonomes

  • Une rupture avec Anthropic plus sur la forme que sur le fond