Connexion Premium

Anthropic ne cède pas aux pressions du Pentagone pour utiliser Claude sans restriction

Le 27 février à 08h59

Dario Amodei, le CEO d’Anthropic, dit non au Pentagone. En début de semaine, le secrétaire d’État à la Guerre de l’administration Trump, Pete Hegseth avait posé un ultimatum à Anthropic : l’entreprise avait jusqu’à ce vendredi pour lever les conditions d’utilisation de son modèle d’IA générative Claude qu’elle impose au Pentagone.

Si elle ne le faisait pas, elle serait mise au ban des fournisseurs de l’armée états-unienne et l’armée pourrait quand même utiliser ses modèles en passant outre ses conditions.

Ce jeudi 26 février, Anthropic a publié un message signé par Dario Amodei. Celui-ci indique que son entreprise n’a « jamais soulevé d’objections à l’égard d’opérations militaires particulières ni tenté de limiter l’utilisation de notre technologie de manière ponctuelle ». Mais, il ajoute : « dans un nombre restreint de cas, nous pensons que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ».

Et il en énumère deux : la surveillance de masse à l’échelle nationale (aux États-Unis) et les armes totalement autonomes.

Ainsi, il pointe le fait qu’« une IA puissante permet d’assembler [des] données dispersées et individuellement inoffensives pour former une image complète de la vie de n’importe quelle personne, automatiquement et à grande échelle ». La précision de l’échelle nationale laisse entendre qu’Anthropic n’est pas opposée à l’utilisation de son IA pour surveiller des personnes vivant en dehors des États-Unis.

Concernant l’utilisation de l’IA générative d’Anthropic pour automatiser l’usage des armes, Dario Amodei affirme que « les armes partiellement autonomes, telles que celles utilisées aujourd’hui en Ukraine, sont essentielles à la défense de la démocratie ». Et ne se dit pas, par principe, contre son utilisation pour des armes totalement autonomes, affirmant qu’elles pourraient même « s’avérer essentielles pour [la] défense nationale [des États-Unis] ». Mais il ajoute que, « aujourd’hui, les systèmes d’IA de pointe ne sont tout simplement pas assez fiables pour équiper des armes entièrement autonomes ». Et d’affirmer : « Nous ne fournirons pas sciemment un produit qui mettrait en danger les combattants et civils américains ».

Le patron d’Anthropic se montre inflexible face au Pentagone : « les menaces ne changent en rien notre position : nous ne pouvons en toute conscience accéder à leur demande ». Et d’assurer que si le Département de la Défense des États-Unis décide de se séparer d’Anthropic, l’entreprise fera « tout [son] possible pour assurer une transition en douceur vers un autre fournisseur, afin d’éviter toute perturbation des opérations militaires, des missions en cours ou d’autres missions critiques ».

Plus tôt, le porte-parole du Pentagone, Sean Parnell, avait affirmé sur X : « le département de la Guerre n’a aucun intérêt à utiliser l’IA pour surveiller en masse les Américains (ce qui est illégal) et nous ne voulons pas non plus utiliser l’IA pour développer des armes autonomes qui fonctionnent sans intervention humaine ».

Le 27 février à 08h59

Commentaires (25)

votre avatar
C’est trés bien. Nous avons besoin de plus d'entreprises comme ca!
votre avatar
En attendant, je suggère aux cadres de la direction de ne pas trop approcher d'agents de l'ICE ou des fenêtres.
votre avatar
Je dirai plutôt de sortir le maximum de liquidité car bientôt il ne pourront plus avoir de compte bancaire et de carte de paiement.
votre avatar
Je ne suis pas d'accord : ils sont pour la surveillance généralisée d'environ 7,65 milliards de personnes présumées innocentes.
La précision de l’échelle nationale laisse entendre qu’Anthropic n’est pas opposée à l’utilisation de son IA pour surveiller des personnes vivant en dehors des États-Unis.
votre avatar
Oui mais tu n'est pas américain, alors ton accord n'est pas requis....
votre avatar
C'est une réponse à l'administration Trump, donc il met l'accent sur les intérêts de sont pays, tout est bien tourné pour mettre l'intérêt des Américains en avant, c'est plutôt malin.

De toute façon, que les choses soient dites, si la surveillance de masse existe déjà, il ne fait absolument aucun doute que l'IA va entre dans le processus et forcément, rendre cette surveillance bien plus performante.
votre avatar
il ne fait absolument aucun doute que l'IA va entre dans le processus
Tu peux mettre ta phrase au passé.
votre avatar
L'Europe devrait se bouger pour proposer à Anthropic une porte de sortie si la situation aux US devient trop toxique pour l'entreprise. Clairement, on va avoir des entreprises de pointe qui ne vont plus pouvoir se permettre de rester sur le territoire américain, il faut utiliser le contexte pour pouvoir les capter. Il est temps de renverser la vapeur face à des USA qui pillent les entreprises européennes.
votre avatar
Humm quelle est la pérennité d'un Trump vs déménager une entreprise et ses moyens de production dans une région du monde où les lois et règlements peuvent être perçues comme restrictifs?
votre avatar
quelle est la pérennité d'un incendie vs évacuer le bâtiment et ses affaires au risque de devoir dormir dans un lit qui n'est pas le sien et de ne pas avoir Netflix...

Sinon, on peut toujours laisser les autres pays accueillir Anthropic si celui-ci doit déménager pour échapper à une prise de contrôle par les fidèles de Trump.
votre avatar
Ca c'est ton interprétation (l'incendie). Anthropic n'a pas exprimé que sa situation était critique?

Je pense plutôt qu'Anthropic a des plans et anticipe plusieurs solutions possibles en cas de crise y compris (sans doute) déménager ailleurs en évaluant les avantages et inconvénient des régions du monde candidates.

Donc irais-tu jusqu'à opportunément souffler sur les braises pour le feu prenne et que l'incendie accélère le processus de décision?
votre avatar
Quand l'état menace d'utiliser une loi des années 50 pour prendre le contrôle de tes activités, il ne me semble pas déraisonnable d'évoquer une mesure de sauvegarde sommes-toutes raisonnable.

Ce n'est pas souffler sur les braises que de reconnaître le danger. Les menaces de délocalisation, on en a vu pour bien moins que ça.

Maintenant, il ne faudra pas s'étonner de ne pas être considéré comme une position de repli valide si on ne s'intéresse pas du tout au sujet. Historiquement, l'Europe a plutôt tendance à encourager ses entreprises à s'expatrier ou se faire racheter par des entreprises U.S.
votre avatar
Je ne sais pas à quel point l'UE encourage les entreprises européennes à s'expatrier ou à être rachetées par des tiers hors UE. Mais le fait qu'il a des fleurons technologiques et industriels qui ne sont plus partiellement ou totalement européens. Cependant, c'est sans doute multifactoriel.

Par contre pour une entreprise de la tech californienne comme Anthropic qui chercherait à être cotée en bourse en cas de changement de région, ce n'est pas l'UE que je choisirai mais UK.
A cela au moins 3 raisons:
- une place financière forte (la City c'est la 2nd pace au monde (à vérifier si c'est toujours le cas)
- la proximité culturelle anglo-saxonne
- la langue native
votre avatar
Il y a l'Irlande sinon...
votre avatar
Peut-être faut il ne pas trop juger à la hâte.

Peut-être qu'il s'agit d'une petit théâtre avec une séquence de ping pong bien convenue.

-Le gvt dit : Tu dois obéir
-Anthropic dit : non
-Le gvt dit : On te ban
-Anthropic dit : je résiste
-Le gvt dit : T'es certains ? (avec un plus gros chèque, une liste de plainte/procès et la perspective de se faire exclure de tout marché)
-Anthropic dit : Oui bon, mes mots ont dépassé ma pensée. On s'est mal compris.
... et cela se finira derrières les coulisses plus discrètement.

Au passage c'est un très bon coup de com' pour les deux participants. L'un affirme son autorité tandis que l'autre se fait de la pub à moindre frais.

Et l'eau continue de couler dans les rivières...
votre avatar
Plus tôt, le porte-parole du Pentagone, Sean Parnell, avait affirmé sur X : « le département de la Guerre n’a aucun intérêt à utiliser l’IA pour surveiller en masse les Américains (ce qui est illégal) et nous ne voulons pas non plus utiliser l’IA pour développer des armes autonomes qui fonctionnent sans intervention humaine ».
Alors pourquoi ils demandent à Anthropic de pouvoir le faire ?
votre avatar
Où ont-ils demandé ces deux points ?

Déjà dans l'article précédent, il est dit qu'ils ne veulent pas utiliser les modèles pour cela :
Mais Anthropic refuserait toujours de laisser l’armée américaine utiliser ses modèles pour mettre en place des armes autonomes et de la surveillance de masse, et selon des sources de CNN, la startup n’aurait pas l’intention de céder.
Du côté du Pentagone, un responsable réfute toute volonté de ce genre d’utilisation
votre avatar
L'article précédent :
Mais Anthropic refuserait toujours de laisser l’armée américaine utiliser ses modèles pour mettre en place des armes autonomes et de la surveillance de masse, et selon des sources de CNN, la startup n’aurait pas l’intention de céder.
Ou alors ils sont tous d'accord et se chamaillent pour rien ?

Mais de ce que je comprends, le Pentagone demande à Anthropic de ne pas leur interdire de le faire, mais promis ils n'ont pas l'intention de le faire…
votre avatar
Celui que je viens de citer ?

Comme tu peux le lire ce n'est pas une demande du Pentagone mais un refus (de principe) d'Anthropic.
votre avatar
mais un refus (de principe) d'Anthropic
… à la demande du Pentagone :
En début de semaine, le secrétaire d’État à la Guerre de l’administration Trump, Pete Hegseth avait posé un ultimatum à Anthropic : l’entreprise avait jusqu’à ce vendredi pour lever les conditions d’utilisation de son modèle d’IA générative Claude qu’elle impose au Pentagone.
votre avatar
1668 : Le corbeau et le renard de Jean de la fontaine.
Maître Corbeau, sur un arbre perché,
Tenait en son bec un fromage.
Maître Renard, par l’odeur alléché,
Lui tint à peu près ce langage :
« Hé ! bonjour, Monsieur du Corbeau.
Que vous êtes joli ! que vous me semblez beau !
Sans mentir, si votre ramage
Se rapporte à votre plumage,
Vous êtes le Phénix des hôtes de ces bois. »
À ces mots le Corbeau ne se sent pas de joie ;
Et pour montrer sa belle voix,
Il ouvre un large bec, laisse tomber sa proie.
Le Renard s’en saisit, et dit : « Mon bon Monsieur,

Apprenez que tout flatteur <==========================
Vit aux dépens de celui qui l’écoute : <==========================

Cette leçon vaut bien un fromage, sans doute. »
Le Corbeau, honteux et confus,
Jura, mais un peu tard, qu’on ne l’y prendrait plus.

Jean de La Fontaine
votre avatar
La NSA ne faisait pas de la surveillance de masse, même des américains ? Alors que c'était illégal ? Et qu'elle dépendait du DoD ?
votre avatar
Sean Parnell, avait affirmé sur X : « le département de la Guerre n’a aucun intérêt à utiliser l’IA pour surveiller en masse les Américains (ce qui est illégal) et nous ne voulons pas non plus utiliser l’IA pour développer des armes autonomes qui fonctionnent sans intervention humaine »
Il n'y a aucun problème alors, ou bien, il y en a un des deux qui ment...
votre avatar
:cap:
Il faut découper la phrase correctement :
à utiliser l’IA "pour surveiller en masse les Américains (ce qui est illégal) "
Surveiller en masse les non-américains, il n'y a aucun problème existentiel, bien au contraire.
votre avatar
Guerre et intelligence artificielle… Le (trop) rapide glissement vers l’arme nucléaire
Trois modèles d’intelligence artificielle ont fait l’objet d’une étude sur les conflits internationaux. Chacun d’entre eux a proposé des résolutions par l’arme nucléaire dans la majorité des cas

Anthropic ne cède pas aux pressions du Pentagone pour utiliser Claude sans restriction