Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA
IA tensions
Mathilde Saliou
Le 02 mars à 17h40
Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.
Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA
IA tensions
Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.
Le 02 mars à 17h40
IA et algorithmes
IA
7 min
Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.
Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.
En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.
Claude utilisé depuis 2024
C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.
Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.
En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA ».
Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.
Recours aux LLM dans des systèmes d’aide aux décisions sensibles
Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».
Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.
Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.
L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institute, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.
Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est même pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.
Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »
À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».
Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.
Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.
Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.
Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.
Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA
-
Claude utilisé depuis 2024
-
Recours aux LLM dans des systèmes d’aide aux décisions sensibles
-
Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »
Commentaires (11)
Abonnez-vous pour prendre part au débat
Déjà abonné ou lecteur ? Se connecter
Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles d'un média expert
Profitez d'au moins 1 To de stockage pour vos sauvegardes
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 02/03/2026 à 18h28
Et sinon, Sam Altman qui faisait partie de ceux, avec Thiel & al. à dire que la démocratie c'était as been et que l'IA pouvait décider à la place du peuple, ben il va être servi.
Le 03/03/2026 à 21h38
J'invite à regarder les réflexions de David Shapiro.
Spoiler : prendre en compte que, globalement, c'est un hyper-optimiste sur le sujet.
TL;DR : sur le sujet de la démocratie, il voit plutôt (en très gros), l'IA fait le gros du taf alors que le rôle de l'humain est une sorte de validation morale (ex: "ok, ta solution est sans doute la plus optimisée/efficace, mais non, ce n'est pas acceptable pour nous parce que XYZ. Alors tu vas nous sortir un autre plan pour faire moins bien mais acceptable.")
Modifié le 03/03/2026 à 22h57
Je suis passé, pas par Shapiro (que je découvre ici) mais par d'autres trucs qui disaient essentiellement la même chose.
..
et d'autres qui disent que c'est du flan.
Qu'Il n'en a en fait pas grand chose à carrer de la démocratie et que l'attitude que tu décris n'est qu'un paravent pour masquer qu'en fait la solution sortie par l'IA sert surtout à dédouaner ceux qui les poussent pour les choses horribles qu'ils font. "c'est pas ma faute c'est l'IA qui l'a dit".
EDIT :
10min de vidéo de Shapiro plus tard ...
Un gourou de plus qui parle de l'arrivée de "l'AGI", d'économie "post travail" alors que l'habitabilité du monde et les ressources de survie s'éffondrent à vitesse grand V... et qu'il faudrait parler de réapprendre à bécher, souder, coudre à la main.
Modifié le 03/03/2026 à 23h37
Je préfère rester neutre avec le qualificatif "hyper-optimiste" que j'avais utilisé pour prévenir de l'orientation du contenu, et "cherry-pick" les éléments intéressants de sa réflexion.
Mais c'est vrai que j'aime généralement écouter les connards de tous bords pour me stimuler et lancer ma pensée dans des sens que je n'aurais pas exploré par moi-même par manque d'imagination, de connaissances ou par simple fainéantise intellectuelle, et du coup de suis rompu à l'exercice qui consiste à ne garder que ce qui me semble positif/intéressant chez tout le monde ^^
Comme à celui de traiter plein de gens de noms d'oiseaux d'ailleurs ^^
PS : les robots bêcheront, souderont et coudront plus efficacement que nous aussi...
Le 04/03/2026 à 11h20
Le 04/03/2026 à 12h16
Le 04/03/2026 à 14h42
Le 02/03/2026 à 21h31
Le 03/03/2026 à 08h50
Quand les dingos veulent interdire les jeux vidéos aux enfants parce que ça les rendrai violent, Terminator ou Robocop, qu'on aurait pu penser être des distopies sensées nous mettre en garde, ça a plutôt l'air d'inspirer les mêmes dingos qui nous dirigent...
Le 03/03/2026 à 10h11
Modifié le 03/03/2026 à 13h11
Cf vidéos sur yt, ça date de quelques années, mais son boulot sur les drones comme armes létales autonomes sont pleinement d'actualité.
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?