Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper
Too Quick and too dirty?
Ministère des Armées
Le 04 mars à 08h41
L’annonce par OpenAI d’un contrat avec l’armée états-unienne alors que son concurrent Anthropic refusait de céder aux pressions de l’administration Trump a écorné l’image publique de l’entreprise de Sam Altman. Celui-ci essaye de rattraper les conséquences d’une communication trop rapide.
Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper
Too Quick and too dirty?
Ministère des Armées
L’annonce par OpenAI d’un contrat avec l’armée états-unienne alors que son concurrent Anthropic refusait de céder aux pressions de l’administration Trump a écorné l’image publique de l’entreprise de Sam Altman. Celui-ci essaye de rattraper les conséquences d’une communication trop rapide.
Le 04 mars à 08h41
IA et algorithmes
IA
5 min
Alors qu’Anthropic a refusé de céder aux pressions du Pentagone pour utiliser Claude sans restriction, OpenAI a signé dans la foulée un contrat avec le département de la Défense des États-Unis.
Si cette signature fait sans aucun doute rentrer de l’argent dans les caisses de l’entreprise de Sam Altman, il n’avait sans doute pas prévu qu’elle fasse fuir autant d’utilisateurs.
Il vient d’annoncer qu’OpenAI et le Pentagone reprenaient le contrat pour le modifier sur le sujet de la surveillance de masse aux États-Unis, un des enjeux qu’Anthropic avait justement soulevé.
Dans un message d’abord envoyé en interne que s’est procuré Axios et que Sam Altman a ensuite diffusé sur X, le CEO d’OpenAI reconnait s’être précipité et avoir signé un accord qui « paraissait opportuniste et bâclé ».
« Une chose que je pense avoir mal faite : nous n’aurions pas dû nous précipiter pour publier cela vendredi », ajoute-t-il, semblant vouloir faire amende honorable.
Des utilisateurs américains ont abandonné ChatGPT en masse
Et effectivement, de nombreux utilisateurs semblent penser qu’il a fait une erreur et lui reprochent peut-être un peu plus que de la simple précipitation. Trois fois plus d’utilisateurs de ChatGPT que d’habitude ont désinstallé, aux États-Unis, l’application dans la journée du samedi 28 février, selon des chiffres de Sensor Tower cités par TechCrunch. Et les téléchargements de l’application baissent aussi.
En parallèle, l’application Claude d’Anthropic a vu ses téléchargements augmenter pour devenir l’application la plus téléchargée de l’App Store d’Apple aux États-Unis. La chanteuse Katy Perry a montré l’exemple en postant, sur X, une capture d’écran de l’offre d’Anthropic entourée d’un cœur. L’éditeur de Claude a par ailleurs annoncé de façon opportune l’ouverture à tous les utilisateurs de sa fonction d’import de données contextuelles, une invitation directe aux utilisateurs de ChatGPT.
Sam Altman explique donc dans son message qu’OpenAI et le Pentagone sont en train d’amender leur contrat pour prendre en compte noir sur blanc les différentes lois qui interdisent la surveillance domestique : « le système d’IA ne doit pas être utilisé intentionnellement à des fins de surveillance nationale des personnes et des ressortissants américains ».
Un changement qui n’aborde pas directement la question des armes autonomes
Si son message est long, Sam Altman ne parle pas directement de l’autre condition sur laquelle Anthropic n’a pas voulu céder : l’utilisation de son outil pour les armes totalement autonomes.
Il affirme par contre qu « il y a beaucoup de choses pour lesquelles la technologie n’est tout simplement pas encore prête, et beaucoup de domaines dans lesquels nous ne comprenons pas encore les compromis nécessaires pour garantir la sécurité ».
C’était justement l’argument invoqué par le CEO d’Anthropic, Dario Amodei, pour mettre de côté, pour l’instant, l’utilisation dans des armes totalement autonomes.
Essayant de ménager la chèvre et le chou, Sam Altman ajoute : « Nous allons y travailler, lentement, avec le ministère de la Défense, à l’aide de mesures de protection techniques et d’autres méthodes ».
Les critiques contre ce contrat ne se retrouvent pas que chez les utilisateurs. Ainsi, le Financial Times explique que des employés d’OpenAI ont fait part de leurs inquiétudes en interne. Ceux qui travaillent dans les locaux de San Francisco ont pu également y voir un tag affichant « NON À LA SURVEILLANCE DE MASSE » et les exhortant à « faire ce qui est juste ! ».
Une rupture avec Anthropic plus sur la forme que sur le fond
Mais si le Département de la Défense des États-Unis n’a pas signé avec Anthropic, le contrat aurait avant tout capoté en raison de tensions entre les négociateurs, selon le New York Times. En effet, le journal raconte qu’Emil Michael, le CTO du côté administration, n’aurait pas apprécié la façon dont le CEO d’Anthropic, Dario Amodei, se comportait. Une position reprise ensuite publiquement par Pete Hegseth quand il a déclaré que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech ».
Lors des négociations, Emil Michael a accusé Dario Amodei d’être un « menteur » atteint d’un « complexe de Dieu », alors que le CEO d’Anthropic aurait refusé de participer à une réunion avec lui pour régler des questions de formulation parce qu’il était déjà dans une autre réunion avec son équipe dirigeante.
Si Donald Trump a ordonné le week-end dernier à toutes les administrations des États-Unis de rompre avec Anthropic, l’entreprise n’a pas dit son dernier mot et a déjà annoncé qu’elle ira en justice. Elle s’appuiera notamment sur le fait que la décision a été justifiée par le département de la Défense mais aussi par le dirigeant des États-Unis en affirmant que l’entreprise était un « risque pour la chaîne d’approvisionnement », qualificatif utilisé pour signifier qu’une entreprise est une menace pour la sécurité nationale mais qui n’a jamais été utilisé contre une entreprise américaine.
Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper
-
Des utilisateurs américains ont abandonné ChatGPT en masse
-
Un changement qui n'aborde pas directement la question des armes autonomes
-
Une rupture avec Anthropic plus sur la forme que sur le fond
Commentaires (11)
Abonnez-vous pour prendre part au débat
Déjà abonné ou lecteur ? Se connecter
Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles d'un média expert
Profitez d'au moins 1 To de stockage pour vos sauvegardes
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 04/03/2026 à 08h56
A venir: La série Netflix
Le 04/03/2026 à 09h28
Le 04/03/2026 à 10h01
Mais du coup je me demande si leur IA Claude ne va pas en patir pour ses performances dans le code.
Si ils deviennent plus «grand public», il y a de forte chance qu’il deviennent moins spécialisé dans les tâches de codage pour mieux coller au besoin plus généraliste de ses clients bien plus diverses.
Une opportunité pour un autre concurrent de remplir ce vide ?
Le 04/03/2026 à 10h54
Ils s'étaient positionnés pour être utilisés par les militaires US, mais je n'ai aucune idée des astérisques éventuels en cas de contractualisation.
Modifié le 04/03/2026 à 10h58
Quitte à comparer les positions morales affichées des uns et des autres...
Le 04/03/2026 à 11h25
Je trouve le terme pas forcément bien choisi ou alors manquant d'une définition claire et sans équivoque (surtout par comparaison de l'armement moderne actuel).
Le 04/03/2026 à 11h45
Pour les USA, lire ici
Ça va plus loin que tes tentatives de minimisation du problème.
En lisant le reste de l'article Wikipédia, on voit qu'il y a effectivement des définitions différentes hors contexte IA.
Le 04/03/2026 à 14h22
Le 04/03/2026 à 14h14
En gros, ta mine, son mécanisme il est armé par un humain, y'aune action humaine, réfléchie ou non, c'est autre chose.
Dans le cas du missile, c'est un humain qui appuie sur le bouton pour le faire partir.
Dans le cas des armes autonomes, ce que Samsung il me semble à fourni à la Corée du Sud des systèmes de tire autonomes pour la DMZ en tests.
Le 04/03/2026 à 14h34
Par exemple, les munitions rôdeuses en Ukraine, qui peuvent terminer leur mission même sous un brouillage (en utilisant une IA qui identifie un type de cible et l'attaque), ça se place où ?
J'ai l'impression qu'on prend le problème sous l'angle de la peur d'une arme autonome qui se retournerait contre son camp (à cause d'IFF défaillante par exemple), plutôt que sous l'angle éthique (en particulier sur une sorte d'effet rebond du fait que l'intelligence de l'arme nous rendrait plus enclin à l'utiliser en considérant qu'elle causerait moins de victimes collatérales). Le premier point est technique, le second est moral.
Exemple :"Ah ben tout va bien, comme on peut les commander, au lieu de miner le terrain, on va mettre des milliers de ces bidules, il y a moins de risque de tuer n'importe qui" -> la réalité : des décennies plus tard, des civils se font abattre par des vieux systèmes de ce type qui ne savent même pas que la guerre est finie.
Et même si tu me dis que c'est pareil avec une mine, une mine il faut au moins en approcher très près pour la déclencher.
Le 04/03/2026 à 11h35
Un peu moins de fois 3 mesuré uniquement sur une journée après des incitations à la désinstaller, ça n'est pas significatif.
Combien vont la réinstaller bientôt ?
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?