La Commission européenne propose de nouvelles règles pour une IA « digne de confiance »
Le 22 avril 2021 à 08h03
3 min
Droit
Droit
« En matière d'intelligence artificielle, la confiance n'est pas un luxe mais une nécessité absolue. En adoptant ces règles qui feront date, l'UE prend l'initiative d'élaborer de nouvelles normes mondiales qui garantiront que l'IA soit digne de confiance. En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l'UE », explique Margrethe Vestager, vice-présidente exécutive de la Commission.
Si elles sont validées, ces nouvelles règles, « fondées sur une définition de l'IA à l'épreuve du temps », seront directement applicables dans tous les États membres de l’Union. Elles suivent une approche fondée sur des niveaux de risques :
- Risque inacceptable : « Les systèmes d'IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits ».
- Risque élevé : lorsque les IA concernent les infrastructures critiques, l’éducation, la sécurité des produits, l’emploi, le maintien de l’ordre, la gestion de la migration, l’administration de la justice…« Les systèmes d'IA à haut risque devront être conformes à des obligations strictes pour pouvoir être mis sur le marché », explique la CE.
- Risque limité : « les systèmes d'IA auxquels s'appliquent des obligations spécifiques en matière de transparence », comme les chatbots par exemple.
- Risque minime : « La proposition législative autorise l'utilisation libre d'applications telles que les jeux vidéo ou les filtres anti-spam reposant sur l'IA ».
La Commission propose que la surveillance des nouvelles règles soit de la responsabilité des différentes autorités nationales compétentes. La mise en place du cadre « sera facilitée par la création d'un comité européen de l'intelligence artificielle qui sera également chargé de stimuler l'élaboration de normes pour l'IA ».
Pour financer ce plan, la Commission prévoit d’utiliser des fonds provenant du programme pour une Europe numérique et d'Horizon Europe.
La balle est maintenant dans le camp du Parlement européen et des États membres, qui « devront adopter les propositions de la Commission relatives aux règles encadrant l'intelligence artificielle et aux machines et équipements dans le cadre de la procédure législative ordinaire ».
Le 22 avril 2021 à 08h03
Commentaires (5)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 22/04/2021 à 14h09
Science4All, nouvelle vidéo sur un sujet proche, l’éthique de l’IA
YouTube
Le 22/04/2021 à 16h56
Lol vu la perfidie de l’humain je doute que l’ia soit plus éthique que ce dernier.
Déjà que l’humain pourri tout ce qu’il touche…alors sa création/créature n’en parlons pas.
Le 23/04/2021 à 10h47
Cela me fait penser aux lois fondamentales de la robotique d’Asimov et je ne suis pas loin de penser qu’il va falloir créer une spécialisation intelligence artificielle dans le cursus de psychologie pour évaluer le risque. Sinon associer “risque minime” au dysfonctionnement d’un filtre anti-spam, ahem. Et surtout s’il faut une certification avant de diffuser un code destiné à l’IA, cela va sérieusement compliquer (si ce n’est tuer) les projets libres et rendre les processus de mise à jour compliqués. On le voit dans d’autres domaines soumis à certification opérationnelle (banque, aérien…)
Le 23/04/2021 à 12h46
D’ailleurs, je me pose la question que maintenant, mais est-ce qu’un filtre bayésien est considéré comme une IA ?
Le 23/04/2021 à 13h57
Si c’est le logiciel qui a lui même déterminé les paramètres, sans doute.