Connexion Premium

Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

IA tensions

Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.

Le 02 mars à 17h40

Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.

Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.

En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.

Claude utilisé depuis 2024

C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.

Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.

En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA ».

Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.

Recours aux LLM dans des systèmes d’aide aux décisions sensibles

Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».

Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.

Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.

L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institute, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.

Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est même pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.

Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »

À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».

Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.

Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.

Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.

Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.

Commentaires (11)

votre avatar
Oh ben ça alors, une fois mis au pouvoir par les cryptobros, le fascisme leur tord le bras.
Et sinon, Sam Altman qui faisait partie de ceux, avec Thiel & al. à dire que la démocratie c'était as been et que l'IA pouvait décider à la place du peuple, ben il va être servi.
votre avatar
Oui et non.
J'invite à regarder les réflexions de David Shapiro.
Spoiler : prendre en compte que, globalement, c'est un hyper-optimiste sur le sujet.

TL;DR : sur le sujet de la démocratie, il voit plutôt (en très gros), l'IA fait le gros du taf alors que le rôle de l'humain est une sorte de validation morale (ex: "ok, ta solution est sans doute la plus optimisée/efficace, mais non, ce n'est pas acceptable pour nous parce que XYZ. Alors tu vas nous sortir un autre plan pour faire moins bien mais acceptable.")
votre avatar
Merci pour ça.
Je suis passé, pas par Shapiro (que je découvre ici) mais par d'autres trucs qui disaient essentiellement la même chose.
..
et d'autres qui disent que c'est du flan.
Qu'Il n'en a en fait pas grand chose à carrer de la démocratie et que l'attitude que tu décris n'est qu'un paravent pour masquer qu'en fait la solution sortie par l'IA sert surtout à dédouaner ceux qui les poussent pour les choses horribles qu'ils font. "c'est pas ma faute c'est l'IA qui l'a dit".

EDIT :
10min de vidéo de Shapiro plus tard ...
Un gourou de plus qui parle de l'arrivée de "l'AGI", d'économie "post travail" alors que l'habitabilité du monde et les ressources de survie s'éffondrent à vitesse grand V... et qu'il faudrait parler de réapprendre à bécher, souder, coudre à la main.
votre avatar
Gourou tu abuses, et la connotation du terme encourage à jeter le bébé avec l'eau du bain.
Je préfère rester neutre avec le qualificatif "hyper-optimiste" que j'avais utilisé pour prévenir de l'orientation du contenu, et "cherry-pick" les éléments intéressants de sa réflexion.

Mais c'est vrai que j'aime généralement écouter les connards de tous bords pour me stimuler et lancer ma pensée dans des sens que je n'aurais pas exploré par moi-même par manque d'imagination, de connaissances ou par simple fainéantise intellectuelle, et du coup de suis rompu à l'exercice qui consiste à ne garder que ce qui me semble positif/intéressant chez tout le monde ^^
Comme à celui de traiter plein de gens de noms d'oiseaux d'ailleurs ^^

PS : les robots bêcheront, souderont et coudront plus efficacement que nous aussi...
votre avatar
PS : les robots bêcheront, souderont et coudront plus efficacement que nous aussi...
Une fois l'environnement démoli, les ressources vitales amoindries et l'habitabilité de grandes régions perdue, ce sera la guerre partout, bonne chance pour avoir de la high tech avec ses chaînes logistiques immenses et globales.
votre avatar
Admettons. C'est quoi ta solution pour infléchir la trajectoire ?
votre avatar
C'est quoi ta solution pour infléchir la trajectoire ?
Oh ben je sais pas, moi, comme le problème est nouveau et absolument étudié par personne, je ne saurais pas me prononcer. Sérieux, tu vis dans une grotte depuis les années 50 ?
votre avatar
Hier, terminator est repassé à la télé et, si on met de coté le voyage dans le temps, le coup des systèmes autonomes qui déclenchent tout seuls des attaques nucléaires parait bien réaliste pour le coup. :stress:
votre avatar
Je suis pour interdire les films d'anticipation.

Quand les dingos veulent interdire les jeux vidéos aux enfants parce que ça les rendrai violent, Terminator ou Robocop, qu'on aurait pu penser être des distopies sensées nous mettre en garde, ça a plutôt l'air d'inspirer les mêmes dingos qui nous dirigent... 🫩
votre avatar
À regarder les délires des techbros, qui nous embarquent malheureusement avec eux, on pourrait limite croire qu'ils ont lu toute la SF dystopique en se disant "mais c'est un super manuel de développement !"
votre avatar
Les travaux sur la théorie du drone, de Grégoire Chamayou, se sont révélés exacts, hélas...
Cf vidéos sur yt, ça date de quelques années, mais son boulot sur les drones comme armes létales autonomes sont pleinement d'actualité.

Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

  • Claude utilisé depuis 2024

  • Recours aux LLM dans des systèmes d’aide aux décisions sensibles

  • Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »