AI Act : le texte interdit désormais la reconnaissance faciale, la notation sociale et la police prédictive

AI Act : le texte interdit désormais la reconnaissance faciale, la notation sociale et la police prédictive

« Signal fort contre la surveillance »

Avatar de l'auteur

Martin Clavey

Publié dansDroit

12/05/2023
8
AI Act : le texte interdit désormais la reconnaissance faciale, la notation sociale et la police prédictive

L'élaboration de l'Artificial intelligence Act progresse au Parlement européen avec l'ajout substantiel d'interdictions d'utilisations de l'IA traitant des données personnelles et notamment la reconnaissance faciale, la notation sociale et la police prédictive. Plusieurs associations de défenses des droits humains et numériques accueillent favorablement ce travail parlementaire européen.

Les discussions progressent dans l’élaboration d’un règlement européen sur l’intelligence artificielle : ce 11 mai, alors qu’ils votaient plusieurs séries d’amendements, les deux comités parlementaires en charge de l’élaboration de l’AI Act se sont accordés sur l’interdiction de la reconnaissance faciale dans les espaces publics et sur celle des outils de « police prédictive », rapporte l'agence Reuters. Ils ont par ailleurs décidé d’imposer des mesures de transparence spécifiques pour les applications d’IA générative de type ChatGPT.

Ces décisions sont saluées par une série d’associations de défenses des droits humains et numériques, comme Access Now ou l’EDRi (European Digital Rights), qui les accueillent comme un « signal fort contre la surveillance », selon les mots d’Algorithm Watch.

Une fois finalisé, le texte doit être soumis à un vote du Parlement européen réuni en plénière, en juin, avant que les derniers détails ne soient conclus en « trilogue », c’est-à-dire lors de discussions incluant des représentants du Parlement européen, du Conseil de l’Union européenne et de la Commission européenne.

Le texte inclut aussi maintenant une définition du terme « système d'intelligence artificielle », qui évidemment ne fera pas l'unanimité des spécialistes mais qui a au moins le mérite de permettre de savoir de quoi on cause.

En l'occurrence, le texte (pour l'instant en anglais) [PDF] pose le fait que « système d'intelligence artificielle » veut dire (traduction non officielle) :

« un système basé sur une machine conçu pour fonctionner avec différents niveaux d'autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent des environnements physiques ou virtuels. »

Le texte présente de façon plus explicite que certains usages de l'intelligence artificielle devraient être interdites.

La reconnaissance faciale explicitement interdite

Le texte propose l'interdiction des systèmes d'intelligence artificielle utilisant la reconnaissance faciale, que ce soit par l'extraction « non ciblée » de photos de visages sur Internet (incluant notamment les photos publiées sur les réseaux sociaux) ou de « séquences de vidéosurveillance ».

De même, sont visés les systèmes permettant de déduire les émotions d'une personne physique dans les domaines du maintien de l'ordre, de la gestion des frontières, sur le lieu de travail et dans les établissements d'enseignement.

La police prédictive aussi visée

Alors que le texte avait jusque-là fait l'impasse sur la police prédictive, la nouvelle version interdit maintenant toute vente, mise en service ou utilisation de système d'intelligence artificielle « permettant d'évaluer les risques encourus par des personnes physiques ou des groupes de personnes physiques afin d'évaluer le risque de délinquance ou de récidive [...] ou la répétition d'une infraction pénale ou administrative réelle ou potentielle, sur la base du profilage d'une personne physique ou de l'évaluation des traits de personnalité et des caractéristiques, y compris la localisation de la personne, ou le comportement criminel antérieur de personnes physiques ou de groupes de personnes physiques ».

L'identification biométrique à distance « en temps réel » prohibée

Se justifiant en expliquant que l'utilisation de l'IA dans l'identification biométrique à distance « en temps réel » est « particulièrement intrusive pour les droits et libertés des personnes concernées », qu'elle est imprécise et peut conduire à « des résultats biaisés et avoir des effets discriminatoires », les législateurs considèrent que celle-ci devrait être interdite dans les lieux accessibles au public.

Pour l'identification biométrique « a posteriori », leur position reste la même, sauf dans le cas de la recherche ciblée liée à une infraction pénale grave spécifique qui a déjà été commise, et uniquement sous réserve d'une autorisation judiciaire.

Des usages de l'IA manipulateurs et la notation sociale interdits

L'utilisation et la vente d'un système d'intelligence artificielle qui déploie des techniques « subliminales », « délibérément manipulatrices », « trompeuses » ou « ayant pour objectif ou pour effet de fausser de manière significative le comportement » sont, elles aussi, interdites.

De même, les systèmes qui ciblent « les vulnérabilités d'une personne ou d'un groupe spécifique de personnes, y compris les caractéristiques des traits de personnalité connus ou prédits de cette personne ou de ce groupe de personnes, sa situation sociale ou économique, son âge, ses capacités physiques ou mentales, dont l'objectif ou l'effet est de fausser matériellement le comportement de cette personne » seront explicitement prohibés.

L'utilisation de l'intelligence artificielle pour établir un système de notation sociale en fonction du comportement social, du statut socio-économique et des caractéristiques personnelles est aussi visée et sera interdite par le texte, que celle-ci soit faite au nom d'autorités publiques ou non (alors que la précédente version du texte ne ciblait que l'utilisation par les seules autorités).

Régulation de l'utilisation des modèles de langage utilisés dans les services comme chatGPT

Les parlementaires ont également adapté leur texte aux récentes adoptions des modèles de langage dans l'industrie comme ChatGPT. Il demande à ce que tout « modèle de fondation » (dont font partie les grands modèles de langage) soit déclaré dans une base de l'Union européenne avec les détails le concernant.

Le fournisseur d'une API interrogeant un tel modèle devrait avoir une obligation de coopération avec les entreprises utilisatrices pendant toute la période durant laquelle le service est fourni pour que les risques qu'ils engendrent soient le mieux géré possible.

Ces modèles de fondation devront être accompagnés d'obligation d'information et de documentation technique pour les entreprises qui y ont accès. L'utilisation de ces modèles devra être transparente quant au fait que le contenu est généré par un système d'intelligence artificielle et non par des humains.

Enfin, « étant donné que les modèles de fondation constituent une évolution nouvelle et rapide dans le domaine de l'intelligence artificielle, il convient que la Commission et le Bureau européen de l'IA [nouvelle instance envisagée par le texte, ndlr] surveillent et évaluent périodiquement le cadre législatif et de gouvernance de ces modèles ».

Ce texte doit maintenant être approuvé par l'ensemble du Parlement lors d'un vote mi-juin pour que les négociations avec le Conseil de l'UE débutent.

8
Avatar de l'auteur

Écrit par Martin Clavey

Tiens, en parlant de ça :

dessin de Flock

#Flock distribue des mandales tous azimuts

13:40 Flock 10
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #11 et résumé de la semaine

11:47 Next 21
Carte graphique AMD GeForce

Cartes graphiques : 30 ans d’évolution des GPU

Ha… la bonne époque d’un CF de 4870 X2 !

18:10 Hard 18

Sommaire de l'article

Introduction

La reconnaissance faciale explicitement interdite

La police prédictive aussi visée

L'identification biométrique à distance « en temps réel » prohibée

Des usages de l'IA manipulateurs et la notation sociale interdits

Régulation de l'utilisation des modèles de langage utilisés dans les services comme chatGPT

dessin de Flock

#Flock distribue des mandales tous azimuts

Flock 10
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #11 et résumé de la semaine

Next 21
Carte graphique AMD GeForce

Cartes graphiques : 30 ans d’évolution des GPU

Hard 18

Google lance son opération de communications Gemini pour rivaliser avec OpenAI

IA 6
Ecran bleu de Windows

Linux : le composant systemd se dote d’un écran bleu de la mort

Soft 32
Une petite fille en train d'apprendre à programmer et hacker logiciels et appareils électroniques

Un roman graphique explique les logiciels libres aux enfants

SoftSociété 19
Nouveautés pour Messenger

Meta lance (enfin) le chiffrement de bout en bout de Messenger, entre autres

Socials 5

#LeBrief : cloud européen, OSIRIS-REx a frôlée la catastrophe, CPU AMD Ryzen 8040

Windows en 2024 : beaucoup d’IA, mais pas forcément un « 12 »

Soft 21
Einstein avec des qubits en arrière plan

Informatique quantique, qubits : avez-vous les bases ?

HardScience 9
Notifications iPhone

Surveillance des notifications : un sénateur américain demande la fin du secret

DroitSécu 17

En ligne, les promos foireuses restent d’actualité

DroitWeb 19

#LeBrief : modalité des amendes RGPD, cyberattaque agricole, hallucinations d’Amazon Q, 25 ans d’ISS

Logo Twitch

Citant des « coûts prohibitifs », Twitch quitte la Corée du Sud

ÉcoWeb 29
Formation aux cryptomonnaies par Binance à Pôle Emploi

Binance fait son marketing pendant des formations sur la blockchain destinées aux chômeurs

Éco 10
Consommation électrique du CERN

L’empreinte écologique CERN en 2022 : 1 215 GWh, 184 173 teqCO₂, 3 234 Ml…

Science 6
station électrique pour voitures

Voitures électriques : dans la jungle, terrible jungle, des bornes de recharge publiques

Société 75

#LeBrief : intelligence artificielle à tous les étages, fichier biométrique EURODAC

KDE Plasma 6

KDE Plasma 6 a sa première bêta, le tour des nouveautés

Soft 13
Un homme noir regarde la caméra. Sur son visage, des traits blancs suggèrent un traitement algorithmique.

AI Act et reconnaissance faciale : la France interpelée par 45 eurodéputés

DroitSociété 4
Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

SécuSociété 3
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

DroitWeb 23
Bombes

Israël – Hamas : comment l’IA intensifie les attaques contre Gaza

IA 22

#LeBrief : bande-annonce GTA VI, guerre électronique, Spotify licencie massivement

Poing Dev

Le poing Dev – Round 7

Next 102
Logo de Gaia-X sour la forme d’un arbre, avec la légende : infrastructure de données en forme de réseau

Gaia-X « vit toujours » et « arrive à des étapes très concrètes »

WebSécu 7

Trois consoles portables en quelques semaines

Hard 37
Une tasse estampillée "Keep calm and carry on teaching"

Cyberrésilience : les compromis (provisoires) du trilogue européen

DroitSécu 3

#LeBrief : fuite de tests ADN 23andMe, le milliard pour Android Messages, il y a 30 ans Hubble voyait clair

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Commentaires (8)


the_Grim_Reaper Abonné
Le 12/05/2023 à 14h46

Tiens, Paris 2024 risque de pas aimé le texte …



En tous cas, ça semble une bonne chose de mettre des règles relativement claire.



Est-ce qu’il y a une ouverture sur les nouveaux modèles qui pourraient arrivé avec le temps en dehors du passage ci-après ?



[quote]
le Bureau européen de l’IA [nouvelle instance envisagée par le texte, ndlr] surveillent et évaluent périodiquement le cadre législatif et de gouvernance de ces modèles ».
[/quote]


SebGF Abonné
Le 12/05/2023 à 16h11

Les parlementaires ont également adapté leur texte aux récentes adoptions des modèles de langage dans l’industrie comme ChatGPT. Il demande à ce que tout « modèle de fondation » (dont font partie les grands modèles de langage) soit déclaré dans une base de l’Union européenne avec les détails le concernant.




J’ai un peu de mal à comprendre ce passage. S’agit-il ici d’établir un référentiel des “modèles de fondation” maintenu par la Commission pour connaître les aptitudes du produit, ses limites et risques associés ? Une sorte de datasheet du modèle publiquement accessible ?



Sinon globalement je trouve que c’est plutôt sensé comme mesures. Surtout celles qui visent à interdire des pratiques qui doivent être un véritable cock block pour les amateurs du délire sécuritaire un peu comme la loi JO 2024 citée par mon VDD.



Mais une chose qui m’interroge au vu de la définition proposée pour l’IA : les algomagiques des médias sociaux ne risquent-ils pas de tomber dans cette définition ? (même si de toute façon ils sont commercialement vendus comme étant “propulsés par de l’IA”).



L’obligation de la mention de contenu généré par IA est pertinente de mon point de vue, mais elle risque d’être facilement contournable. Il suffit qu’un humain approuve le contenu généré ou en modifie quelques points pour considérer qu’il ne l’est plus. Ou alors la systématiser dès que l’outil est utilisé même pour de l’assistance ? Est-ce que la proposition du AI Act précise ce genre de chose ? Après la licence d’utilisation de certains modèles ou outils en ligne exigent déjà l’attribution en contrepartie.



J’avoue ne pas avoir le courage de me farcir l’ensemble du document, merci pour cette synthèse fort intéressante.


brupala Abonné
Le 13/05/2023 à 08h05

SebGF a dit:


J’ai un peu de mal à comprendre ce passage. S’agit-il ici d’établir un référentiel des “modèles de fondation” maintenu par la Commission pour connaître les aptitudes du produit, ses limites et risques associés ? Une sorte de datasheet du modèle publiquement accessible ?



Surtout qui tient les manettes de l’engin derrière, je pense, un responsable des sorties du bidule, ça me parait plus important que les aptitudes dont la gamme est très très large visiblement.



numerid Abonné
Le 13/05/2023 à 11h01

Ce texte doit maintenant être approuvé par l’ensemble du Parlement lors d’un vote mi-juin pour que les négociations avec le Conseil de l’Europe débutent.




La France va pas aimer et va tout faire pour que ça ne passe pas en l’état.


vizir67 Abonné
Le 14/05/2023 à 10h26

Ils ont par ailleurs décidé d’imposer des mesures
de transparence spécifiques pour les applications d’IA générative de type ChatGPT.



(vu ce qu’on arrive, déjà, à faire avec ce genre d’outil) :eeek2:
il fallait vite faire quelque chose !


RuMaRoCO Abonné
Le 15/05/2023 à 10h19

Quid des algorhitmes de tri automatiques de photos par sujets les composants ?
Quid des dévérrouillages par visages des tel (etc.) ?


Erwan123 Abonné
Le 15/05/2023 à 18h33

Police prédictive banni? C’est Tom Cruise qui va pas être content.



Sinon 1ere fois en 10 ans à ma connaissance que je vois un article écrit en binôme !



:bravo: :incline: :yes:


ragoutoutou Abonné
Le 16/05/2023 à 06h22

Il y a de bonnes idées dans ce texte, mais il semble qu’il y ait aussi des choses très problématiques.



Le phrasé du texte à l’heure actuelle pourrait déboucher sur une situation où faire de l’I.A. en OpenSource deviendrait juste impossible en Europe, et l’extraterritorialité du texte obligerait les sites comme GitHub à barrer l’accès au niveau européen à tout contenu en infraction avec ce texte.



Mais bon, ce n’est pas le seul assaut en cours de l’U.E. contre l’Opensource, avec le “Cyber Resilience Act” qui propose de “responsabiliser” les “fabricants”, les “importateurs” et les “distributeurs” de logiciels en cas de vulnérabilité et qui interdit de publier un logiciel non finalisé hormis un cadre très restrictif…