Lundi 30 octobre, les leaders du G7 ont présenté leur accord autour de principes internationaux pour guider le développement de l'IA ainsi qu'un « Code de conduite » « volontaire » pour les entreprises du secteur. Sans être un organe législatif, le G7 montre qu'il veut compter dans la gouvernance de l'IA.
Après la vague ChatGPT et les différentes versions d' « IA génératives » utilisées par les entreprises du numérique pour booster leurs outils et cours de bourse, une nouvelle vague se met en place, plus politique, pour mettre en œuvre une gouvernance autour de ces outils.
Ce lundi, les ministres de l'Économie des pays du G7 (États-Unis, Canada, France, Allemagne, Italie, Japon et le Royaume-Uni) ont publié un « code de bonne conduite » [PDF] à destination des entreprises qui développent des systèmes d'intelligence artificielle dits « avancés », de fait, ce que certains appellent les modèles de fondation.
Ce texte est issu du « processus d'Hiroshima » mis en place lors de la réunion du G7 en mai 2023 au Japon. Il marque la volonté de prendre en main rapidement la gouvernance mondiale de cette technologie. En effet, si l'Europe et les États-Unis sont en train de mettre en place leurs propres règlementations, à l'échelle du globe, le G7 se met en avant de façon inhabituelle concernant la réglementation des technologies, alors que l'ONU vient seulement de lancer son organe consultatif.
- Le gouvernement américain s’apprête à réguler l’intelligence artificielle
- AI Act : intenses débats en perspective
Cela dit, ces textes restent sans valeur règlementaire et le G7 n'est pas une organisation de réglementation internationale, mais de discussion et de partenariat économique entre sept grandes puissances occidentales.
Encourager le mouvement tout en affichant des positions de prudence
Selon le rapport de l'OCDE établi pour la présidence japonaise de ce G7 [PDF] pour préparer ce « processus d'Hiroshima », « les membres du G7 ont, à l’unanimité, fait savoir qu’ils considéraient les gains de productivité, la promotion de l’innovation et de l’entrepreneuriat et la concrétisation de solutions aux enjeux mondiaux comme quelques-unes des principales possibilités offertes par les technologies d’IA à l’échelle mondiale, et notamment aux économies émergentes et économies en développement ».
Les sept grandes puissances ne sont donc pas dans une volonté de bloquer l'utilisation de ces technologies, au contraire. Mais elles s'affichent, par contre, sur le sujet de la régulation en mettant en avant 11 principes :
- Prendre des mesures appropriées tout au long du développement des systèmes d'IA avancés, y compris avant et pendant leur déploiement et leur mise sur le marché, afin de recenser, d'évaluer et d'atténuer les risques tout au long du cycle de vie de l'IA.
- Identifier et atténuer les vulnérabilités et, le cas échéant, les incidents et les risques d'abus, après leur déploiement et leur mise sur le marché.
- Rendre compte publiquement des capacités, des limites et des domaines d'utilisation appropriée et inappropriée, afin de garantir une transparence suffisante, contribuant ainsi à renforcer la responsabilité.
- Œuvrer en faveur d'un partage responsable des informations et de la notification des incidents entre les organisations qui développent des systèmes d'IA avancée, y compris avec l'industrie, les gouvernements, la société civile et le monde universitaire.
- Élaborer, mettre en œuvre et divulguer des politiques de gouvernance et de gestion des risques liés à l'IA, fondées sur une approche axée sur les risques – y compris des politiques de protection de la vie privée et des mesures d'atténuation, en particulier pour les organisations qui développent des systèmes d'IA avancés.
- Investir dans des contrôles de sécurité robustes et les mettre en œuvre, notamment en matière de sécurité physique, de cybersécurité et de protection contre les menaces internes, tout au long du cycle de vie de l'IA.
- Développer et déployer des mécanismes fiables d'authentification et de provenance du contenu, lorsque cela est techniquement possible, tels que le filigrane ou d'autres techniques permettant aux utilisateurs d'identifier le contenu généré par l'IA.
- Donner la priorité à la recherche visant à atténuer les risques pour la société, la sûreté et la sécurité et donner la priorité aux investissements dans des mesures d'atténuation efficaces.
- Donner la priorité au développement de systèmes d'IA avancés pour relever les plus grands défis mondiaux, notamment, mais pas exclusivement, la crise climatique, la santé mondiale et l'éducation.
- Faire progresser l'élaboration et, le cas échéant, l'adoption de normes techniques internationales
- Mettre en œuvre des mesures appropriées de saisie des données
Les pays du G7 encouragent les entreprises à s'engager volontairement à suivre ces principes, sans pour autant s'engager eux-mêmes à mettre en place des lois permettant de les faire appliquer.
Ursula von der Leyen se dit quand même « heureuse de saluer les principes directeurs internationaux du G7 et le code de conduite volontaire, qui reflètent les valeurs de l'UE visant à promouvoir une IA digne de confiance. J'invite les développeurs d'IA à signer et à mettre en œuvre ce code de conduite dès que possible ».
Constat d'un laissez-passer actuel
Mais pour l'instant, la chercheuse qui travaille sur les biais algorithmiques Joy Buolamwini constate que les entreprises qui développent ce genre d'outils ne sont pas encadrées. « Ce qui me préoccupe, c'est que nous donnons à tant d'entreprises un laissez-passer, ou que nous applaudissons l'innovation tout en détournant la tête [des effets néfastes] » déclare-t-elle à la MIT Technology Review.
Selon Buolamwini, « à l’heure actuelle, nous sommes en mode cobaye, où les systèmes n’ont pas été entièrement testés… C’est irresponsable, surtout lorsque ces systèmes sont utilisés d’une manière qui a un impact sur les expériences vécues et les opportunités de vie des gens ».
« Comment fait-il ce qu'il fait ? » et même « devrions-nous l'utiliser ? » sont des questions que devraient se poser les développeurs de ces outils selon elle. Mais les régulations ne semblent pas aller jusque-là. Si le G7 demande « d'atténuer les risques tout au long du cycle de vie de l'IA », il ne va pas jusqu'à demander aux entreprises de ne pas mettre sur le marché un outil qu'elles ne maîtrisent pas totalement.
Commentaires (6)
#1
Tiens, j’étais en train de me demander si une IA pourrait un jour se présenter à une élection, planquée derrière un visage humain à qui elle écrirait les discours et causerait dans l’oreillette pour les débats et les négociations, pourquoi pas ?
#1.1
Pas encore Person of Interest pour le moment, mais ça va venir oui, très certainement.
Une partie des politiques sont pingres et flemmards, si l’IA peut même balancer des discours à leur place (genre diffusion via médias sans public) ils ne vont pas hésiter.
C’est une IA qui montre un truc à une burne qui l’écrit à l’autre burne pour qu’elle le dise devant tout le monde
#2
Ce n’est pas déjà le cas ?
#2.1
je peux me tromper, mais je crois que pour l’instant ce sont plutôt des bêtises naturelles qui causent dans l’oreillette
#3
Si la plupart des points sont des principes de bon sens pour contrebalancer le très rapide développement et intégration des produits de l’IA dans le quotidien, celui-ci fait un peu vœu pieu à mon sens.
Pour les images et animations générées, pourquoi pas. Même si elles continuent d’avoir des défauts repérables, il faut déjà avoir un certain recul du résultat de ces outils pour le voir. Après, c’est aussi le photographe amateur que je suis qui parle, ayant appris par cette activité à quel point les images sont dénaturées et saturées en post-traitement - saturation de couleurs, contrastes élevés, lumière irréelle, etc pour faire “whaoo”. Les photos générées par les smartphones sont une horreur à ce niveau, mais le public est habitué à ces images. Donnez-lui un reflex/hybride en mode manuel, il va dire que les photos sont “pas belles” car les couleurs sont fades… Bah non, elles sont vraies. Et comme l’IA générative a été entraînée là dessus, elle produit le même résultat.
Cela dit, ça n’est qu’une démarche de bonne volonté. Comment contraindre l’intégration de ce principe à l’échelle mondiale ? Certes, les géants de la tech pourront le faire, mais si les implémentations libres ou autre n’ont pas envie, ils ne le feront pas. Et cela restera des outils potentiellement détournés à des fins malveillantes comme beaucoup d’autre le son.
Quant au texte généré, OpenAI a laissé tomber et beaucoup se sont cassé les dents. On peut reconnaître du texte produit par GPT (son style pompeux, lourd, et sûr de lui le trahissant rapidement), mais si celui-ci a reçu les bonnes instructions, il peut parfaitement produire un message concis et simple qui peut tromper.
Après, d’un point de vue plus cynique, je pense aussi que les chefs d’Etat et autres représentants politiques sont impuissants pour réguler ces progrès technologiques. Et si les pays du G7 veulent réguler leur usage, le reste aura parfaitement le droit d’en avoir rien à cirer. Typiquement, les fermes à désinformation existaient avant l’IA, et elles existent pendant le boom de celle-ci, et elles existeront encore après quand on sera passé à autre chose.
#4
Pourquoi sur la photos d’illustration La Nouvelle-Calédonie et Mayotte et La Polynésie Français ne sont pas colorié en bleu !!?
Et je trouve que l’Ile de la Réunion même si en bleu est un brins flou et ne se détache pas bien de l’Ile Maurice, car l’image est bien trop pixelisé et flou.
Sans même parler de l’Ile de Clipperton qui n’est même pas représentée sur la carte.