Connexion
Abonnez-vous

Systèmes à haut risque, modèles à usage général : ce que dit l’AI Act en pratique

Assurance tous risques

Systèmes à haut risque, modèles à usage général : ce que dit l’AI Act en pratique

Entré en vigueur en août 2024, l'AI Act entrera en application à partir de février 2025. Dans ce deuxième épisode, Next détaille les dispositions relatives aux systèmes d'IA de différents niveaux de risques et aux modèles de GPAI.

Le 25 septembre à 14h00

Entré en vigueur en août dernier, l'AI Act, règlement sur l'intelligence artificielle (RIA) en français, entrera en application à partir de février prochain. Dans un précédent article, nous avons détaillé les bases sur lesquelles est construit ce texte. Entrons désormais dans le détail des risques inacceptables (donc interdits), des risques acceptables les plus hauts (donc les plus régulés), mais aussi des règles spécifiques imputées aux fournisseurs de modèles d’IA à usage général (ou general purpose AI, GPAI).

L'AI Act expliqué :
Comment fonctionne l'AI Act ?
Systèmes à haut risque, modèles à usage général : ce que dit l’AI Act en pratique
Gouvernance, sanctions : les outils de mise en conformité et de contrôle de l’AI Act

Qu’interdit l’AI Act ?

L’article 5 du règlement sur l’IA interdit « la mise sur le marché, la mise en service ou l’utilisation » d’un système d’IA…

  • « qui a recours à des techniques subliminales, au-dessous du seuil de conscience d’une personne, ou à des techniques délibérément manipulatrices ou trompeuses, avec pour objectif ou effet d’altérer substantiellement le comportement d’une personne ou d’un groupe de personnes en portant considérablement atteinte à leur capacité à prendre une décision éclairée » ;
  • « qui exploite les éventuelles vulnérabilités dues à l’âge, au handicap ou à la situation sociale ou économique spécifique d’une personne physique ou d’un groupe de personnes » pour en altérer le comportement ou causer préjudice à ces mêmes personnes, ou à un tiers ;
  • de note sociale – autrement dit un système « pour l’évaluation ou la classification de personnes physiques ou de groupes de personnes au cours d’une période donnée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues, déduites ou prédites » avec pour effet de traiter défavorablement ou de manière préjudiciable certaines personnes ou groupes de personnes « dans des contextes sociaux dissociés du contexte dans lequel les données ont été générées ou collectées à l’origine » et/ou de manière « injustifiée ou disproportionnée par rapport à leur comportement social » ;
  • « pour mener des évaluations des risques des personnes physiques visant à évaluer ou à prédire le risque qu’une personne physique commette une infraction pénale, uniquement sur la base du profilage d’une personne physique ou de l’évaluation de ses traits de personnalité ou caractéristiques » – cette interdiction est assortie d’une exception pour les systèmes dédiés à « étayer l’évaluation humaine », en se fondant sur des « faits objectifs et vérifiables ».
  • « qui créent ou développent des bases de données de reconnaissance faciale par le moissonnage non ciblé d’images faciales provenant de l’internet ou de la vidéosurveillance » – interdiction qui vise directement un service comme Clearview AI.
  • « pour inférer les émotions d’une personne physique sur le lieu de travail et dans les établissements d’enseignement, sauf lorsque l’utilisation du système d’IA est destinée à être mise en place ou mise sur le marché pour des raisons médicales ou de sécurité ».

L’article contient aussi plusieurs interdictions plus spécifiquement relatives à la catégorisation et l’identification biométrique. Il interdit notamment les modèles et systèmes qui catégorisent les personnes physiques sur la base de ce type de données afin d’obtenir « des déductions ou des inférences concernant leur race, leurs opinions politiques, leur affiliation à une organisation syndicale, leurs convictions religieuses ou philosophiques, leur vie sexuelle ou leur orientation sexuelle ». L’interdiction ne couvre pas « l’étiquetage ou le filtrage d’ensembles de données biométriques acquis légalement », notamment dans le domaine répressif.

Il interdit aussi les systèmes d’identification biométrique à distance en temps réels, dans des espaces publics et à des fins répressives, à trois exceptions près : la « recherche ciblée » de personnes disparues, victimes d’enlèvement ou de traite d’êtres humains ; la prévention d’une « menace spécifique, substantielle et imminente » pour des personnes physiques, ou la menace d’une attaque terroriste ; et la « localisation ou l’identification d’une personne soupçonnée d’avoir commis une infraction pénale ».

Quels systèmes sont considérés à haut risque ?

Selon l’article 6 du règlement, un système d’IA peut être considéré à haut risque pour plusieurs raisons. Soit il est utilisé comme composant de sécurité d’une variété de produits déjà couverts par de précédentes législations européennes (annexe I du RIA), soit il appartient à une liste de domaines fixée en annexe III du texte, à quelques exceptions près.

Parmi les domaines listés dans cette annexe, on trouve notamment la biométrie, la gestion et l’exploitation d’infrastructures (numériques, routières, d’eau, de gaz, de chauffage ou d’électricité) critiques, l’éducation (admission et affectation des personnes, validation des acquis, surveillance et détection de comportements interdits) ; l’emploi (recrutement, prises de décision relatives à l’évolution de carrière) ; l’accès aux droits et aux services publics ; la répression ; la gestion des contrôles aux frontières ; la justice et le processus démocratique.

L’article 7 détaille plus précisément comment la Commission évalue la caractérisation de systèmes à haut risque – et rappelle qu’elle est à même de faire évoluer cette liste par actes délégués.

Quelles sont les obligations relatives aux systèmes à haut risque ?

D’après l’article 9 du règlement, fournir un système d’IA à haut risque implique d’établir un « système de gestion des risques » qui documente le SIA tout au long de son cycle de vie. Ce dernier suppose notamment d’identifier et analyser les risques connus et prévisibles « pour la santé, la sécurité ou les droits fondamentaux, lorsque le système d’IA à haut risque est utilisé conformément à sa destination ». Il oblige aussi l’adoption de « mesures appropriées et ciblées de gestion des risques » identifiés.

Avant la mise sur le marché, les systèmes d’IA à haut risque doivent par ailleurs être « soumis à des essais », potentiellement en conditions réelles, « afin de déterminer les mesures de gestion des risques les plus appropriées et les plus ciblées ».

Les jeux de données permettant d’entraîner, de tester et de valider ces systèmes sont, eux aussi, soumis à diverses exigences visées par l’article 10. Parmi ces dernières, celle de créer des jeux « pertinents, suffisamment représentatifs et, dans toute la mesure possible, exempts d’erreurs et complets au regard de la destination ».

Les fournisseurs doivent par ailleurs produire une documentation technique de leurs systèmes (art.11), documentation adaptable selon le statut de l’entreprise (PME et jeunes pousses peuvent ainsi suivre une procédure simplifiée, détaillée dans l’annexe IV du règlement). De même, l’article 12 oblige les fournisseurs à permettre « techniquement, l’enregistrement automatique des événements (journaux) tout au long de la durée de vie du système », pour garantir la traçabilité de son fonctionnement.

L’article 13, lui, intime les fournisseurs à opérer une conception et un développement « tels que le fonctionnement de ces systèmes est suffisamment transparent pour permettre aux déployeurs d’interpréter les sorties d’un système et de les utiliser de manière appropriée » et détaille les informations essentielles à intégrer dans la notice d’utilisation. Le 14 oblige à « un contrôle effectif » par des personnes physiques des systèmes en question, au cours de leur utilisation ; le 15, à ce que la conception et le développement des systèmes à haut risque « leur permettent d’atteindre un niveau approprié d’exactitude, de robustesse et de cybersécurité », tout au long de leur cycle de vie.

Quel est le suivi des systèmes à haut risque ?

L’article 71 de l’AI Act « crée et tient à jour une base de données de l’UE » sur les systèmes à haut risque et ceux qui ne le sont pas. Dans la plupart des cas, c’est aux fournisseurs (ou à leurs mandataires) de faire remonter les informations sur leurs systèmes nécessitant recensement.

Les fournisseurs de systèmes d’IA à haut risque doivent par ailleurs mettre en place un système de surveillance de leurs systèmes après leur mise sur le marché. Ce système « collecte, documente et analyse, de manière active et systématique, les données pertinentes » remontées par les déployeurs pour s’assurer du respect continu des règles européennes (art.72).

En cas d’incidents graves, les fournisseurs doivent informer les autorités de surveillance du marché des États membres concernés « après que le fournisseur a établi un lien de causalité, ou la probabilité raisonnable qu’un tel lien existe, entre le système d’IA et l’incident grave ». Ce signalement doit être fait immédiatement ou dans un délai s’échelonnant de 2 à 15 jours maximum selon l’ampleur de l’incident ou de l’infraction constatée (art.73).

En vertu de l’article 79, les autorités nationales compétentes ont le pouvoir d’effectuer des évaluations de conformité de systèmes d’IA à haut risque et, le cas échéant, de notifier son fournisseur du besoin de se conformer à des exigences réglementaires qu’il ne respecterait pas. L’article 80 leur permet de modifier la classification d’un système pour le passer à haut risque lorsque son fournisseur l’avait initialement classifié comme ne tombant pas dans cette catégorie.

Quelles obligations de transparence fixe l’AI Act ?

La transparence est citée de diverses manières dans l’AI Act. C’est elle qui justifie la documentation des systèmes et la fourniture de notice, par les fournisseurs, aux déployeurs. Pour ce qui est du grand public, en revanche, c’est l’article 50 qui fixe une obligation, pour les fournisseurs comme les déployeurs, de faire en sorte « que les personnes physiques concernées soient informées qu’elles interagissent avec un système d’IA ». Il s’agit de l’une des rares obligations à concerner aussi les systèmes d’IA à risque limité.

Cet article oblige aussi les fournisseurs de tous les systèmes, y compris ceux « à usage général, qui génèrent des contenus de synthèse de type audio, image, vidéo ou texte », de rendre les sorties de leurs machines « identifiables comme ayant été générées ou manipulées par une IA ». Il indique aussi que les « solutions techniques » choisies par les fournisseurs à ces fins doivent être « aussi efficaces, interopérables, solides et fiables que la technologie le permet ».

Les déployeurs de systèmes d’IA permettent la génération ou la manipulation « des images ou des contenus audio ou vidéo constituant un hypertrucage indiquent que les contenus ont été générés ou manipulés par une IA ».

Quel est le traitement réservé aux modèles d’IA à usage général ?

Un modèle d’IA à usage général est classé comme « présentant un risque systémique » en vertu de l’article 51 s’il dispose de capacités à fort impact « évaluées sur la base de méthodologies et d’outils techniques appropriés, y compris des indicateurs et des critères de référence » (l'article 97 prévoit que ceux-ci soient fixés ultérieurement par des actes délégués).

Il peut aussi l’être par décision de la Commission, « d’office ou à la suite d’une alerte qualifiée du groupe scientifique ».

Les fournisseurs devront par ailleurs informer la Commission du caractère à risque systémique de leur modèle (ou des raisons pour lesquels il ferait exception à la définition établie) (art.52).

Parmi leurs obligations spécifiques, les fournisseurs de ce type de système doivent tenir toute la documentation technique relative au modèle à disposition du Bureau de l’IA et aux autorités nationales compétentes. Fournisseurs des fournisseurs de système d’IA, ils doivent tenir à disposition de ces derniers une documentation technique leur permettant « d’avoir une bonne compréhension des capacités et des limites du modèle d’IA à usage général et de se conformer aux obligations qui leur incombent en vertu du présent règlement ».

Les fournisseurs de ces modèles doivent par ailleurs œuvrer à « se conformer au droit de l’Union en matière de droit d’auteur et droits voisins » (art.53).

En cas de risque systémique, l’article 55 oblige par ailleurs les fournisseurs de ce type de modèle à réaliser les évaluations nécessaires, à œuvrer à l’atténuation de ces risques ainsi qu’à suivre, documenter et remonter aux autorités compétentes les incidents graves et les mesures correctives qui y sont apportées, le tout, « garantissent un niveau approprié de protection en matière de cybersécurité » pour le modèle et son infrastructure physique.

À noter : la Commission dispose « de pouvoirs exclusifs pour surveiller et contrôler » les modèles d’IA à usage à général, tâche qu’elle confie au Bureau de l’IA. Pour ce faire, elle peut demander au fournisseur du modèle la documentation qu’il a déjà établie, « ou toute information supplémentaire nécessaire pour évaluer la conformité du fournisseur » avec le règlement (art.91). Le bureau de l’IA peut aussi effectuer des évaluations des modèles d’IA à usage général (art.92), et, en conséquence, demander des mesures de mise en conformité, d’atténuation de risques systémiques, voire de restriction ou de retrait du marché (art.93).

L’AI Act empêchera-t-il l’innovation sur le marché européen ?

Comme souvent lors de la création de nouvelles régulations, une grande crainte exprimée envers l’AI Act concernait le risque que ce dernier freine les capacités d’innovations européennes. Le texte y répond explicitement dans son chapitre 8 en proposant une variété de mesures dites « de soutien à l’innovation ». L’article 57 prévoit notamment la création d’une variété de bacs à sables réglementaires pour offrir « un environnement contrôlé qui favorise l’innovation et facilite le développement, l’entraînement, la mise à l’essai et la validation de systèmes d’IA innovants pendant une durée limitée avant leur mise sur le marché ou leur mise en service ».

Plus spécifiquement, ces bacs à sable doivent permettre d’ « améliorer la sécurité juridique » ; de « soutenir le partage de bonnes pratiques » grâce à la coopération avec les autorités ; de « favoriser l’innovation et la compétitivité » ; de « contribuer à l’apprentissage réglementaire » ; et de « faciliter et accélérer l’accès au marché de l’Union pour les systèmes d’IA, en particulier lorsqu’ils sont fournis par des PME », y compris des start-ups. En vertu de l’article 62, celles-ci (jeunes pousses et PME) bénéficient d’un accès prioritaire aux bacs à sable réglementaire.

Dans chaque État membre, les autorités compétentes doivent mettre en place un bac à sable réglementaire au niveau national d’ici le 2 août 2026 au plus tard. « Des bacs à sable réglementaires de l’IA supplémentaires au niveau régional ou au niveau local » peuvent aussi être créés. Le Contrôleur européen de la protection des données peut aussi en créer pour les institutions et organismes de l’Union européenne, ou de concert avec les autorités des États membres.

Les modalités de création de ces outils sont détaillées dans l’article 58, celle du traitement des données à caractère personnel nécessaires pour certains systèmes d’IA à l’article 59, tandis que le 60 se penche sur l’essai des systèmes à haut risque.

Dans notre prochain article, nous reviendrons sur les règles de gouvernance mises en place par l'AI Act, sur son régime de sanctions et sur le calendrier d'entrée en application du texte.

Commentaires (1)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Merci du travail. Article mis dans les signets (avec le précédent).

Systèmes à haut risque, modèles à usage général : ce que dit l’AI Act en pratique

  • Qu’interdit l’AI Act ?

  • Quels systèmes sont considérés à haut risque ?

  • Quelles sont les obligations relatives aux systèmes à haut risque ?

  • Quel est le suivi des systèmes à haut risque ?

  • Quelles obligations de transparence fixe l’AI Act ?

  • Quel est le traitement réservé aux modèles d’IA à usage général ?

  • L’AI Act empêchera-t-il l’innovation sur le marché européen ?

Fermer