Responsabilité des IA : les recommandations du bureau européen des unions de consommateurs
Qui portera le chapeau ?
Le 10 mai 2023 à 07h09
8 min
Droit
Droit
Le 2 mai, le Bureau européen des unions de consommateurs (BEUC) a publié une note de synthèse sur la directive sur la responsabilité de l’intelligence artificielle, en cours de discussion au Parlement européen.
Alors qu’une directive sur la responsabilité de l’intelligence artificielle est en cours de discussion au Parlement européen, le Bureau européen des unions de consommateurs (BEUC) a publié le 2 mai 2023 ses propositions (.pdf) pour le texte.
Le BEUC reconnaît les apports de l’IA en matière de services personnalisés, d’applications de réalité augmentée, d’applications dans le domaine de la santé ou encore de véhicules automatisés. En revanche, alerte-t-il, les caractéristiques des systèmes d’intelligence artificielle (IA) « telles que leur complexité, leur opacité, leur autonomie ainsi que le nombre d'acteurs impliqués dans leur cycle de vie » sont telles que « les consommateurs auront du mal à réclamer une compensation » en cas de dommages causés par ces technologies.
Un des enjeux clés pour l’organisation est celui de l’attribution de la responsabilité lorsqu’un problème émerge et qu’un consommateur souffre de dommages créés par un système d’IA. Le document prend l’exemple d’un système utilisé par un assureur qui refuserait de fournir l’assurance demandée par le client à cause de données biaisées ou incorrectes.
Les consommateurs peuvent avoir du mal à identifier les problématiques posées par un tel système : « le refus d’accorder une assurance à un prix inférieur en raison de critères biaisés », par exemple, leur est invisible. De même, pointe le BEUC, « les consommateurs pourraient ne même pas avoir conscience qu’un système d’intelligence artificielle a joué un rôle dans une décision, ni qu’il est la cause du dommage ».
La « directive sur la responsabilité du fait des produits défectueux », ou Product Liability Directive (PLD), remonte à 1985. De fait, reconnaît l’organisme, le cadre européen existant ne permet pas de répondre directement aux enjeux que posent les nouvelles technologies et les systèmes d’IA en particulier.
C’est précisément pour le moderniser que la Commission européenne a adopté en septembre 2022 deux propositions de directives pour adapter les règles de responsabilité civile existantes et en créer de spécifiques à l’intelligence artificielle.
- Intelligence artificielle : la Commission européenne dégaine son projet de directive sur la responsabilité
- Les Français veulent des explications claires sur les modèles algorithmiques
Deux directives sur la responsabilité en cours de discussion
La première proposition est dédiée à moderniser les textes qui encadrent déjà la responsabilité des fabricants de produits défectueux, quelle que soit leur industrie. La « directive sur la responsabilité de l’IA », ou AI liability directive (AILD), s’attache, elle, à harmoniser les règles nationales sur les questions d’intelligence artificielle. Les recommandations du BEUC porte sur ces deux textes.
Le but affiché par la Commission est de garantir « que les victimes bénéficient des mêmes normes de protection lorsqu’elles sont lésées par des produits ou services d’IA que si un préjudice était causé dans d’autres circonstances ».
Distinct du règlement sur l’intelligence artificielle en cours de débat, le deuxième texte doit par exemple se pencher sur les manières de garantir des voies de recours faciles d’accès aux éventuelles victimes de dommages provoqués par des outils d’IA.
Selon la documentation européenne, ce texte doit permettre de prendre en compte les dommages qui ne relèvent pas du cadre classique de la responsabilité, notamment des situations dans lesquelles les dommages sont provoqués par de mauvais comportements des systèmes – atteintes à la vie privée, discriminations, ou encore dommages provoqués par des problèmes de sécurité.
Pour le BEUC, la directive sur la responsabilité de l’IA protège moins les européens que la PLD
Mais pour le BEUC, la manière dont la directive sur la responsabilité de l’IA est pour le moment formulée est insuffisante. Contrairement à l’approche adoptée dans la directive sur la responsabilité du fait des produits défectueux (PLD), qui « ne demande "que" de prouver la preuve du défaut du produit, le dommage et le lien causal entre le défaut et le dommage », la proposition de directive sur l’IA introduit une notion de faute qui doit être reliée à une entité (le constructeur, un intermédiaire, etc).
Le BEUC estime que cela rend la directive sur la responsabilité de l’IA (AILD) moins protectrice que la PLD, dans la mesure où, pour un cas de discrimination provoqué par un dysfonctionnement de système d’intelligence artificielle, la victime devra non seulement prouver le défaut, le dommage et leur lien, mais aussi prouver la faute (l’intention de nuire ou la négligence) de l’un des agents de la chaîne de fabrication du système.
En comparaison, illustre l’organisme, les européens seront mieux protégés « si une tondeuse déchire leurs chaussures dans le jardin » que face à une discrimination algorithmique, parce qu’un cas de figure comme celui de la tondeuse tomberait dans le champ d’application de la directive sur la responsabilité du fait des produits défectueux.
Il recommande donc que le Parlement adopte une vision qui ne soit pas basée sur la faute d’une entité précise, mais, comme la PLD, simplement sur l’établissement d’un dommage et du défaut qui l’a provoqué. L’organisme recommande par ailleurs de mettre fin aux restrictions prévues dans le texte de l’AILD, car son champ d’application est pour le moment restreint aux systèmes entièrement automatisés et qualifiés « à haut-risque » selon la classification que mettra en place l’AI Act.
La directive sur la responsabilité du fait des produits défectueux présente aussi des manquements
Le bureau estime par ailleurs que le projet d'adaptation du texte le plus ancien présente ses propres problèmes, à commencer par son champ limité – et il a publié une autre note (.pdf), spécifique au PLD.
En effet, si un Européen victime d’un dommage causé par un système d’IA décidait de se plaindre au nom de la directive sur la responsabilité du fait des produits défectueux (ce qu’il pourra faire là où les deux textes se recoupent), le PLD ne lui permettra pas de demander compensation à l’intermédiaire entreprise (business user) pour le dommage provoqué. En l’état, le texte exclut en effet ces entités des acteurs qui peuvent être tenus pour responsable en cas de problème.
Le BEUC regrette par ailleurs que le PLD comme l’AILD ne prennent en compte que les dommages matériels causés par des systèmes d’IA et excluent les problématiques immatérielles comme les atteintes à la vie privée ou le risque réputationnel.
Plus spécifiquement, le texte de l’AILD ne prévoit pour le moment aucune harmonisation sur le type de dommages couverts, ce qui signifie que chaque État membre de l’Union pourra choisir ses modalités d’applications. Le BEUC souligne qu’à l’inverse, un texte comme le Règlement général sur la protection des données (RGPD) couvre explicitement les dommages matériels et immatériels.
- Un rapport pointe le lobbying des Big Tech contre la régulation des IA généralistes
- L’institut AI Now appelle à « confronter le pouvoir technologique »
- Timnit Gebru demande des régulations ex ante de l’intelligence artificielle
La note publiée par le Bureau européen des unions de consommateur vient participer aux débats plus vastes autour de la régulation des systèmes d’intelligence artificielle de tous types.
Comme le résume The Verge, les modèles génératifs à la ChatGPT, en particulier, sont soumis à une série d’enquêtes, en Europe et à travers le monde, qui pourraient les forcer à évoluer. Plus largement, en Europe, au Canada, en Chine et ailleurs, les travaux se multiplient pour créer des cadres plus ou moins strict aux applications de ces technologies.
Responsabilité des IA : les recommandations du bureau européen des unions de consommateurs
-
Deux directives sur la responsabilité en cours de discussion
-
Pour le BEUC, la directive sur la responsabilité de l’IA protège moins les européens que la PLD
-
La directive sur la responsabilité du fait des produits défectueux présente aussi des manquements
Commentaires (1)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 11/05/2023 à 17h05
D’après le site du BEUC, en France, seules l’UFC-Que choisir et la CLCV sont adhérentes au BEUC.