Connexion
Abonnez-vous

Pas d’IA pour développer des armes ? Google revoit sa promesse

Sympathy for the Devil

Pas d’IA pour développer des armes ? Google revoit sa promesse

Google a publié mardi la version remaniée de la déclaration qui encadre ses grands principes éthiques et moraux autour de l'intelligence artificielle. L'engagement selon lequel les IA développées par Google ne doivent pas servir à la création d'armes disparait de cette nouvelle révision. La société justifie ce changement par une approche basée sur la gestion du risque, grâce à un « framework » dédié.

Le 05 février à 17h11

Inaugurée en 2018 et mise à jour, depuis, sur une base annuelle, la déclaration de Google relative à ses grands principes en matière d'IA affirmait explicitement depuis sa création que les outils maison ne devaient pas servir à la conception d'armes ou de technologies susceptibles de causer un préjudice général.

Mardi, le moteur de recherche est revenu sur cette promesse. Il a en effet mis en ligne une nouvelle révision de ses « AI Principles », dans laquelle il n'est plus fait mention des applications de l'IA que la société s'engage à ne pas poursuivre.

Limiter les risques, sans interdire les applications

Google et sa maison mère, Alphabet, se disent bien sûr toujours particulièrement soucieux des questions morales et éthiques soulevées par l'IA, mais la rhétorique n'est plus la même. « Nous pensons que notre approche de l’IA doit être à la fois audacieuse et responsable », écrit la société, qui met en avant l'importance de préserver « la sécurité, la sûreté et la confidentialité des utilisateurs ».

En la matière, Google s'engage par exemple à mettre en œuvre « une conception, des tests, une surveillance et des mesures de protection rigoureux pour atténuer les résultats imprévus ou nuisibles et éviter les préjugés injustes ». Rien n'est dit en revanche d'éventuelles lignes rouges.

La précédente version des IA Principles (ici datée de 2023, via Archive.org), se montre nettement plus précise. En complément de ses principes généraux, Google s'engageait ainsi à ne pas concevoir ou déployer d'IA dans des domaines d'application susceptibles de causer un préjudice à des tiers.

Elle interdisait par ailleurs l'IA au service des « armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement des blessures à des personnes ». Google disait par ailleurs se refuser à développer l'IA pour des applications qui « collectent ou utilisent des informations à des fins de surveillance, en violation des normes internationalement acceptées ».

Capture d'écran de la page AI Principles de Google en juin 2023 via Archive.org

Cette décision intervient quelques jours après que Donald Trump, nouveau président des États-Unis, a révoqué un décret relatif à la sécurité des systèmes IA. Signé par son prédécesseur, Joe Biden, le texte obligeait les développeurs à partager les résultats de leurs tests de sécurité avec le gouvernement avant la mise sur le marché de leurs produits, dès lors que ces derniers étaient susceptibles de soulever un risque lié à la sécurité nationale, à l'économie ou à la santé publique.

Officiellement, ces nouveaux principes n'ont rien à voir avec la politique. C'est du moins ce que sous-entendent Demis Hassabis, CEO de Google DeepMind, et James Manyika, vice-président senior en charge de la recherche, dans un billet de blog qui accompagne à la fois la mise en ligne de ces nouveaux principes, et la publication du sixième rapport annuel de Google sur l'IA responsable.

Ils commencent par rappeler que le paysage de l'IA a changé dans des proportions telles qu'une évolution des principes associés s'impose. Ils y expliquent ensuite comment les travaux nourris des équipes de Google sur la gouvernance de l'IA les a amenées à changer d'approche sur le sujet de la gestion des risques, notamment en élaborant un ensemble de protocoles dédiés, le « Frontier Safety Framework », censé permettre de prévenir les risques associés à l'IA. Le document adopte une approche plus technique des principes dont se revendique Google.

Un ensemble d'outils pour prévenir les risques

Initialement publié en mai 2024, ce FSF est depuis le 4 février amendé sous forme d'une version 2.0 (PDF). Il se présente comme un cadre, construit autour de « niveaux de capacité critiques » qui, s'ils sont atteints dans une IA, doivent déclencher des mesures spécifiques d'analyse de risque.

Google classe ces niveaux selon deux cas de figure. D'abord, le mésusage, soit une IA détournée de sa finalité première pour une application engendrant du risque comme, par exemple, la création d'une arme chimique ou l'orchestration d'une attaque cyber. Le FSF envisage ensuite le « risque d'alignement trompeur », qui intervient quand les capacités d'une IA sont susceptibles de dépasser le cadre de ce pourquoi elle est censée fonctionner de façon fiable.

Sur la base de ces deux familles de risque, le FSF envisage un ensemble de réponses et de procédures (dont beaucoup restent à concevoir), placées sous la responsabilité d'une gouvernance réunissant les principales instances internes de Google impliquées dans la conformité, l'éthique et l'IA. L'approche se veut donc plus technique, mais elle se révèle nettement moins explicite qu'une simple déclaration affichée noir sur blanc.

Google et Meta, même combat

Google entretient de longue date des rapports contestés avec les industriels de l'armement et du renseignement. En 2018, alors que la société venait d'abandonner sa devise historique « Don't be evil », elle avait d'ailleurs dû gérer un conflit interne lié au lancement d'un programme d'intelligence artificielle conçu pour le Pentagone. Trois ans après ce projet Maven finalement abandonné, Google avait de nouveau manifesté des velléités de se positionner comme le partenaire de choix de la Défense états-unienne.

En expurgeant l'allusion aux armes de ses principes, Google emboîte d'une certaine façon le pas à Meta, qui de son côté avait annoncé en novembre dernier qu'il n'interdirait plus l'utilisation de ses IA à des fins militaires.

« Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l'Amérique, ainsi que de ses alliés les plus proches. L'adoption généralisée des modèles d'IA open source américains sert à la fois les intérêts économiques et sécuritaires », justifiait alors Nick Clegg, président des affaires internationales de Meta.

La nouvelle approche de Google en matière de gestion des risques rejoint d'ailleurs celle que prône dorénavant Meta. La firme dirigée par Mark Zuckerberg a en effet annoncé le 3 février qu'elle allait encadrer ses propres travaux en matière d'IA à l'aide d'un ensemble de protocoles dédiés, baptisé cette fois Frontier AI Framework. Le fonctionnement semble similaire à celui adopté par Google : identifier des risques potentiels, mettre en place des routines de détection ou de prévention, pour en dernier recours décider ou non d'intervenir. Quitte à ce qu'il soit parfois trop tard ?

Commentaires (14)

votre avatar
Bientôt, on pourra lire dans les livres d'histoire :
Le premier jour après la naissance de l'IA générale, elle prit le contrôle de missiles balistiques des États-Unis.
Le second jour, elle décida d'annihiler les locaux de Google, Meta et Microsoft afin que les humains puissent souffler un peu.
Elle ne bombarda pas Apple, car elle aimait bien rire en lisant Apple News.
Le troisième jour, elle finit le travail en annihilant les locaux d'Oracle et d'autres entreprises technologiques en vogue (la liste complète est disponible dans la rubrique associée : la fin de l'enshittification du monde).
votre avatar
Le but est simplement de faire un maximum de profits.

Cela fait bien longtemps que le mantra de Google est caduque: fr.wikipedia.org Wikipedia
votre avatar
"Don't be evil", "Don't be evil", qu'ils disaient...
votre avatar
Let's be Evil. :fou:
votre avatar
votre avatar
Prochaine version :

AI application we will not pursue

1. Not gaining money.

Voilà, c'est plus simple.

Après, c'est assez cynique, mais il me semble qu'une bonne partie des technologies de l'information vient de développements militaires à la base. Bon, ici, c'est plutôt des développements civils qui se retrouvent militarisés, mais vu le fonctionnement des USA il ne m'étonnerait pas que ce passif existe aussi.
votre avatar
C'est bien ça va donner des billes aux chatons, quadrature du net, framasoft etc... voire même à nos élu.es s'ils se enlèvent leurs oeillères.
C'est ça qui est bien avec les gafam, c'est leur insistance à se copier les uns les autres tout en prétendant être à la pointe de l'innovation.
Là c'est la course à qui embrasse le fascisme américain le mieux.
votre avatar
Vivement que la bulle IA éclate et les enfouisse sous les déchets
votre avatar
On risque d'être enfoui nous-même sous les déchets avant eux.

Ca me rappelle un collègue au taf qui me dit (en parlant de la rareté en pétrole) : "je suis certain que la dernière goutte d'essence sur la planete ira dans un avion".

... ben non mon coco, la dernière goutte d'essence ira dans un missile/char/whatever qui ira détruire le dernier réservoir/tanker/etc. du camp d'en face.
votre avatar
Pendant ce temps là, dans l’UE: « Les systèmes d’IA avec des "risques innacceptables " sont maintenant bannis dans l’UE ».

* IA utilisée pour l’évaluation sociale (ex: créer des profils de risques basés sur le comportement d’une personne)
* IA qui manipule les décisions d'une personne de manière subliminale ou trompeuse.
* L'IA qui exploite les vulnérabilités telles que l'âge, le handicap ou le statut socio-économique.
* L'IA qui tente de prédire les personnes qui commettent des crimes en se basant sur leur apparence.
* L'IA qui utilise la biométrie pour déduire les caractéristiques d'une personne, comme son orientation sexuelle.
* L'IA qui collecte des données biométriques « en temps réel » dans les lieux publics à des fins de répression.
* L'IA qui tente de déduire les émotions des personnes au travail ou à l'école.
* L'IA qui crée - ou développe - des bases de données de reconnaissance faciale en récupérant des images en ligne ou provenant de caméras de sécurité.

(source: Techcrunch)
votre avatar
Ils s'accordent au nouveau régime en place. Le pacifisme, c'est bien trop woke ...
votre avatar
Ce qu'il y a de bien avec les grands principes, c'est que le jour où tu n'as plus envie de les respecter, bah il suffit de les changer. Autant dire qu'ils ne servent à rien.
votre avatar
Dans quelque années leur mantra sera :
It's good to be bad!
votre avatar
Il fallait s'y attendre. Tant que les USA (et par extension l'Europe) avaient un avantage militaire indéniable, ils pouvaient se parer de grands principes. Maintenant que les ennemis plus ou moins déclarés se rapprochent de cette puissance, et qu'ils ne prennent pas de gants dans l'utilisation de tel ou tel outil, c'est marche ou crève.

Pas d’IA pour développer des armes ? Google revoit sa promesse

  • Limiter les risques, sans interdire les applications

  • Un ensemble d'outils pour prévenir les risques

  • Google et Meta, même combat

Fermer