Connexion
Abonnez-vous

Anthropic ne résiste pas à l’appel des renseignements américains

What could go wrong?

Anthropic ne résiste pas à l’appel des renseignements américains

Ministère des Armées

Les services de l'armée et des renseignements américains vont pouvoir utiliser le modèle d'IA générative Claude de la startup Anthropic via une plateforme. Celle-ci sera mise en place via un partenariat entre la startup, Amazon Web Services et Palantir.

Le 08 novembre à 13h28

Dans un communiqué de presse publié le 7 novembre, Palantir, Anthropic et Amazon Web Services (AWS) expliquent qu'elles vont fournir aux agences de renseignement et de défense des États-Unis un accès aux modèles Claude d'Anthropic (version 3 et 3.5) sur la plateforme d'IA développée par Palantir (nommée simplement AI Platform, AIP) et hébergée par AWS.

Palantir et AWS ont obtenu l'accréditation « impact level 6 » de l'Agence de défense des systèmes d'information (Defense Information Systems Agency, DISA). Ce niveau d'accréditation est réservé au stockage et au traitement des informations classifiées jusqu'à « secret » (un cran en dessous de « top secret ») et exige, notamment, que ce stockage se fasse dans un cloud accessible uniquement aux employés du ministère de la Défense.

L'annonce arrive alors que Meta vient de retourner sa veste en autorisant l'usage militaire de ses modèles de langage Llama par les États-Unis. L'entreprise de Mark Zuckerberg avait imposé jusque-là dans ses conditions d'utilisation l'interdiction de ses logiciels d'intelligence artificielle à des fins « militaires, de guerre ou nucléaires », entre autres. Mais on a appris aussi récemment que des chercheurs chinois se servent de Llama pour des usages militaires sans que Meta ait autorisé cette utilisation.

Des conditions d'utilisation floues chez Anthropic

Mais du côté d'Anthropic, les choses sont plus floues. Si les fondateurs de l'entreprise et anciens d'OpenAI ont affiché une volonté d'un usage mesuré de leur technologie, les conditions d'utilisation de Claude ne restreignent pas clairement une utilisation militaire. Le texte prévoit seulement que les modèles d'Anthropic ne puissent être utilisé pour « interférer avec le fonctionnement des bases militaires et des infrastructures connexes ».

La Startup prévoit bien des « exigences relatives aux cas d'utilisation à haut risque » mais ceux-ci se limitent aux aspects légaux, de santé, d'assurance de finance, d'emploi, d'utilisation dans un usage académique ou médiatique sans que ne soit évoqués les usages militaires ou de renseignement.

Pourtant, dans un billet de blog publié en juin, Anthropic expliquait avoir élaboré « des exceptions contractuelles » à sa politique générale d'utilisation, « soigneusement calibrées pour permettre des utilisations bénéfiques par des agences gouvernementales soigneusement sélectionnées ». Ces exceptions sont floues et ne mentionnent pas spécifiquement des activités militaires mais dans son billet, la startup assurait qu'elles permettent que Claude soit « utilisé pour des analyses de renseignements étrangers légalement autorisées, telles que la lutte contre le trafic d'êtres humains, l'identification de campagnes secrètes d'influence ou de sabotage, et l'avertissement à l'avance d'activités militaires potentielles, ouvrant ainsi une fenêtre diplomatique pour les prévenir ou les dissuader ».

Pour ce contrat, de toute façon, la startup peut choisir à loisir d'appliquer ou non ses conditions d'utilisation, ou d'avoir un accord spécifique avec le gouvernement américain.

Une concurrence en vue

Si Anthropic est la première entreprise de l'IA générative à accéder à ce genre de contrat, on peut s'attendre à ce que ses concurrents la rejoignent petit à petit. OpenAI a aussi supprimé les mentions d'interdiction d'utilisation dans des contextes militaire et de guerre et a passé récemment un contrat avec Carahsoft, une entreprise spécialisée dans les contrats numériques gouvernementaux américains, qui, comme l'explique Forbes, a récemment été accusée de pratiques anticoncurrentielles.

La modification faite par Meta sur les conditions d'utilisation des modèles Llama indique aussi une volonté de l'entreprise de Mark Zuckerberg de ne pas laisser filer ce marché.

Commentaires (1)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Quand y a du pognon, ben euh, ah, condition de quoi ? Vous inquiétez pas, on a une clause spéciale en petit caractères 😎

Anthropic ne résiste pas à l’appel des renseignements américains

  • Des conditions d'utilisation floues chez Anthropic

  • Une concurrence en vue

Fermer