Connexion
Abonnez-vous

Comment l’Europe veut devenir acteur majeur de l’intelligence artificielle

L'AI, c'est mes oignons

Comment l'Europe veut devenir acteur majeur de l'intelligence artificielle

Le 21 février 2020 à 16h54

La Commission européenne a dévoilé ses grandes lignes de développement pour une « intelligence artificielle axée sur le facteur humain ». Pour Margrethe Vestager, « nous voulons que chaque citoyen, chaque travailleur, chaque entreprise ait une possibilité réelle de tirer parti des avantages de la numérisation ». La recette est dévoilée dans un livre blanc.

Une technologie au service des personnes (santé, transports plus sûrs…), une économie juste et compétitive (construction mécanique, cybersécurité, agriculture, économie verte et circulaire…), une société ouverte, démocratique et durable. Voilà les axes de cette stratégie comprenant deux volets. L’un relatif à la donnée avec un « espace européen unique des données », l’autre à l’intelligence artificielle.

Les motivations sont fortes, mais la pente est raide puisqu’il ne s’agit rien de moins que de faire de l’Europe le chef de file mondial « dans le développement de systèmes d'intelligence artificielle propices à des utilisations et applications sûres ». Derrière l’ambition, la Commission entend poser les premiers pavés de cette route qui doit nous mener vers un nouveau cadre.

Retour au 25 avril 2018. Ce jour, la commission présente une série de mesure pour stimuler ce secteur : d’un, renforcement du soutien financier et encouragement des secteurs public et privé à adopter l'IA. De deux, préparation aux changements socio-économiques provoqués par l'IA avec à la clef des partenariats entre entreprises et monde éducatif et autres programmes de formation spécialisée. De trois, surtout, mise en place d'un cadre éthique et juridique. 

Près de deux ans plus tard, l’institution européenne met en ligne son livre blanc sur l'intelligence artificielle, désormais ouvert à consultation publique jusqu'au 19 mai 2020. Dans ce document, « la Commission prône (…) une approche axée sur la régulation et l’investissement, qui poursuit le double objectif de promouvoir le recours à l’IA et de tenir compte des risques associés à certaines utilisations de cette nouvelle technologie ».

Le Livre blanc vient ainsi « définir des options stratégiques concernant la manière d’atteindre ces objectifs », sachant que le militaire a été laissé au bord de la table. Des options basées sur les valeurs et droits fondamentaux européens.

Valeurs européennes et IA

Sur un terrain économique, le moteur européen est souffrant. 3,2 milliards d’euros ont été investis dans l’IA en Europe en 2016, contre environ 12,1 milliards d’euros en Amérique du Nord et 6,5 milliards d’euros en Asie indique le livre blanc. Pour apprécier l’échelle, on rappellera que Samsung compte pour sa part investir 22 milliards de dollars dans l’IA Google lui avait promis 13 milliards d’investissements en 2019.  

Un plan a déjà été présenté en décembre 2018 pour faciliter la coopération entre les États membres et la Commission « dans des domaines clés tels que la recherche, l’investissement, la commercialisation, les compétences et les talents, les données et la coopération internationale ».

Ce plan doit s’étirer jusqu’en 2027, mais d’ici fin 2020, Bruxelles entend mettre un coup d’accélérateur sur le chapitre IA. Et pour attirer les investissements, la Commission veut mettre à disposition ses nombreux fonds liés au numérique où parmi les critères mis en avant, ce plan pourrait tenir compte du « bien-être sociétal et environnemental ».

On retrouve d'une certaine manière les questions éthiques qui avaient déjà été soulevées par Isabelle Falque-Pierrotin lors de la présentation du plan France IA en 2017, puis par Cedric Villani dans son rapport sur l’intelligence artificielle et enfin par Emmanuel Macron lors de son discours Ai for Humanity. Ce ne sont d’ailleurs pas les seuls points commun.

Formation, start-ups, pôle d’innovation numérique

Un autre pilier vise à alimenter les synergies entre les centres de recherche européens, avec à leur sommet un « centre phare » destiné à coordonner ces travaux. Principal carburant : l’argent. « La Commission a proposé de consacrer un montant ambitieux au soutien de centres d’essai de calibre mondial établis en Europe dans le cadre du programme pour une Europe numérique et de compléter ces mesures, le cas échéant, par des actions de recherche et d’innovation dans le cadre du programme Horizon Europe au titre du cadre financier pluriannuel pour la période 2021 - 2027 ».

Sur le terrain de la formation, l’UE rêve aussi de pouvoir attirer les meilleurs professeurs et chercheurs et « proposer des programmes de masters de classe internationale dans le domaine de l’IA ».

Pour accompagner les startups et les PME, autre objectif, elle tentera de faire installer un pôle d’innovation numérique dans chaque État membre avec une spécialisation en IA. Un programme de 100 millions d’euros permettra de proposer un financement en fonds propres aux développements innovants dans ce secteur. Le plan envisage aussi un partenariat public-privé dans le domaine de l’IA, des données et de la robotique. Dans le secteur public, des programmes similaires seront déployés notamment en matière de santé et d’opérateurs de service public.

Quelle régulation ? 

Sur le terrain sensible de la régulation, là où les valeurs européennes seront autant raison d’être que cibles, « les développeurs et les déployeurs d’IA sont déjà soumis à la législation européenne sur les droits fondamentaux (c’est-à-dire la protection des données, le respect de la vie privée, la non-discrimination), sur la protection des consommateurs, et sur la sécurité des produits et la responsabilité du fait des produits ». Mais la Commission craint les biais et les risques de discrimination, faute de contrôle social.

De plus, « les particularités qui caractérisent de nombreuses technologies de l'IA, notamment l'opacité («effet de boîte noire»), la complexité, l'imprévisibilité et le comportement partiellement autonome, peuvent rendre difficile la vérification de la conformité aux règles du droit de l’UE en vigueur destinées à protéger les droits fondamentaux et peuvent entraver le contrôle de l’application de celles-ci ». Les conséquences réelles peuvent être désastreuses, par exemple en matière de voiture autonome, où tisser le lien de responsabilité peut s’avérer délicat. Une problématique que nous avons déjà longuement abordée par ici et par .

Les pistes sont vagues. « Il peut être nécessaire d’adapter ou de clarifier les dispositions législatives existantes dans certains domaines, par exemple en ce qui concerne la responsabilité » suggère-t-elle.

Même incertitude sur la chaîne d’identification des responsables. « Si l’IA est ajoutée, après la mise sur le marché du produit, par une partie qui n’est pas le producteur, les règles manquent de clarté ». Elle propose donc une mise à jour du cadre actuel outre l’adoption de nouvelles règles. Lesquelles exigeront avant tout de définir d’une manière ou d’une autre ce que recouvre la notion même d’intelligence artificielle…

Elle veut en tout cas définir des secteurs où cet usage serait considéré toujours comme à haut risque « notamment du point de vue de la protection de la sécurité, des droits des consommateurs et des droits fondamentaux ». Santé, transports, énergie et certains pans du secteur public sont à l’index, comme les cas où l’IA peut provoquer des conséquences importantes sur les droits des personnes physiques ou morales (emploi, etc.).

Sécurité et responsabilité 

En complément de ce livre blanc, la Commission a publié un rapport « sur les conséquences de l’intelligence artificielle, de l’internet des objets et de la robotique sur la sécurité et la responsabilité ».

Elle tente, plutôt que de définir ce secteur, d’en signaler les spécificités. « Ces technologies peuvent associer connectivité, autonomie et dépendance aux données pour exécuter des tâches avec peu d’intervention humaine, voire aucune, pour le contrôle ou la supervision ». Les systèmes sont parfois capables d’améliorer leurs propres performances « grâce à l’apprentissage par l’expérience ». Autres signes, une myriade d’opérateurs, une opacité, des systèmes susceptibles de nombreuses mises à jour après mise sur le marché.

En 2019, la Commission avait déjà suggéré que ces systèmes d’IA intègrent « des mécanismes de sécurité par conception et de sûreté permettant d’en vérifier l’innocuité à chaque étape, en tenant compte de la sécurité physique et mentale de toutes les personnes concernées ».

Dans le présent rapport, une certitude : le cadre européen relatif à la sécurité des produits « a été en grande partie élaboré avant l’émergence des technologies numériques telles que l’IA, l’internet des objets ou la robotique ». Comme le rappelait Cédric Villani dans son rapport : « la loi ne peut pas tout, entre autres car le temps du droit est bien plus long que celui du code ».

Certes, le concept de sécurité est très large, mais la Commission estime judicieux de prévoir des dispositions plus explicites pour assurer la sécurité juridique des consommateurs.

L’évaluation des risques devrait en tout cas être réalisée non seulement avant la mise sur le marché, mais également lors des mises à jour, pendant toute la durée de vie du système. Inversement, « le fait de ne pas effectuer ces mises à jour pourrait potentiellement être considéré comme une négligence concurrente de la part de la personne lésée et donc réduire la responsabilité du producteur ».

Sur les menaces pesant sur la santé, les textes pourraient à son goût être plus précis en particulier sur la santé mentale « des utilisateurs résultant, par exemple, de leur collaboration avec des robots humanoïdes et des systèmes d’IA, à la maison ou dans les environnements de travail ». À titre d’exemple, « les fabricants de robots qui interagissent avec les personnes âgées devraient tenir compte de ces facteurs afin de prévenir les risques pour la santé mentale ».

Les questions soulevées par la Commission concrétisent l’ampleur du chantier lorsqu’est abordé le lien entre IA et données. « L’exactitude et la pertinence des données sont essentielles pour garantir que les systèmes et les produits basés sur l’IA prennent les décisions prévues à l’origine par le fabricant ».

Et c’est sans compter sur les potentiels biais – dans les sources sont très nombreuses et parfois invisibles. Cette problématique se mord la queue avec celle de la santé où les données principalement issues d'hommes ayant des ancêtres européens : « Si vous êtes une femme d’origine africaine et jeune, je ne pense pas que la médecine personnalisée vous concerne », expliquait Philippe Besse, professeur de mathématiques et de statistique à l’Université de Toulouse.

Autre exemple « les robots cueilleurs de fruits, conçus pour détecter et localiser les fruits mûrs sur les arbres ou au sol » pourraient blesser un animal ou une personne, en raison de données erronées. Faudra-t-il tenir compte de ces flux dans la gestion des risques et des responsabilités ?

La situation se complexifie lorsqu’est rappelé que la législation sur la sécurité des produits « ne contient pas de dispositions visant à parer explicitement aux risques croissants liés à l’opacité des systèmes basés sur des algorithmes ». La piste envisagée par Bruxelles ? « Imposer aux concepteurs des algorithmes de divulguer les paramètres de conception et les métadonnées des ensembles de données en cas d’accident ».

Autre voie de mise à jour législative : introduire une responsabilité partagée pour tenir compte de la complexité dans la chaîne des opérateurs économiques.

Renversement de la charge de la preuve, assurance obligatoire

Sur le droit à la réparation, le document concède aussi que les caractéristiques du secteur rendent « difficiles la traçabilité du dommage et son imputabilité à un comportement humain susceptible de constituer le fondement d’une procédure en responsabilité pour faute en vertu des règles nationales ».

Les victimes doivent en tout cas pouvoir être indemnisées, sinon « ces technologies émergentes pourraient être moins bien acceptées par la société et les citoyens pourraient se montrer réticents à les utiliser ». L’une des astuces reviendrait apporter dans les textes une définition plus précise de la notion de produit « pour mieux traduire la complexité des technologies émergentes et faire en sorte qu’il existe toujours une possibilité de réparation en cas de dommages causés par des produits rendus défectueux par un logiciel ou d’autres fonctionnalités numériques ».

Pour faciliter encore la situation des utilisateurs, l’instance va jusqu’à proposer de renverser la charge de la preuve en matière de dommages causés par l’IA. Elle envisage aussi d’introduire une obligation de contracter une assurance, à l’image de ce qui existe en matière automobile, de manière à « garantir l’indemnisation indépendamment de la solvabilité de la personne responsable et de contribuer à réduire les coûts d’indemnisation ».

Biométrie, reconnaissance faciale et IA

Le livre blanc ne fait pas l'impasse sur la reconnaissance faciale. « L’utilisation d’applications d’IA à des fins d’identification biométrique à distance et pour d’autres technologies de surveillance intrusive serait toujours considérée comme étant "à haut risque" », pose la Commission.

Des exigences spécifiques s’appliqueraient en conséquence (conservation, information, contrôle humain, etc.). Sur ce sujet qui fait l'objet de nombreuses attentions, « la collecte et l’utilisation de données biométriques à des fins d’identification à distance, au moyen, par exemple, du déploiement de la reconnaissance faciale dans des lieux publics, comportent des risques particuliers en termes de droits fondamentaux » constate-t-elle. 

Le RGPD ne l’autorise que dans un certain cas très particulier, notamment pour des raisons d’intérêt public important. « Étant donné que tout traitement de données biométriques aux fins d’identifier une personne physique de manière unique constituerait une exception à une interdiction prévue par le droit de l’Union, il serait soumis à la charte des droits fondamentaux de l’UE ».

La Commission rappelle aussi que « l’IA ne peut être utilisée à des fins d’identification biométrique à distance que lorsque cette utilisation est dûment justifiée, proportionnée et assortie de garanties adéquates ». Elle annonce pour le coup, plutôt qu’un moratoire, le lancement d’un « vaste débat européen » pour définir « les circonstances particulières, le cas échéant, qui pourraient justifier une telle utilisation, ainsi que sur les garanties communes à mettre en place ».

Pour les autres applications d'IA à faible risque, elle envisage aussi un système de label, qui ne serait pas obligatoire, mais permettrait de montrer au public qu’elles appliquent des normes plus élevées.

La question de l’emploi n’est que peu abordée dans ces documents, alors que l’intelligence artificielle mettra probablement son (gros ?) grain de sel. Pour le moment, les hypothèses vont dans tous les sens : certains avancent que l’IA conduira à d’importantes restructurations, d’autres au contraire, qu’elle ne bénéficiera qu’aux personnels hautement qualifiés. 

Le 21 février 2020 à 16h54

Commentaires (2)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

beaucoup de blabla et rien de concret.

Si un gouvernement veut favoriser un domaine, sa meilleure action est de ne surtout pas s’en mêler.

votre avatar

un peu comme toi <img data-src=" />

Comment l’Europe veut devenir acteur majeur de l’intelligence artificielle

  • Valeurs européennes et IA

  • Formation, start-ups, pôle d’innovation numérique

  • Quelle régulation ? 

  • Sécurité et responsabilité 

  • Renversement de la charge de la preuve, assurance obligatoire

  • Biométrie, reconnaissance faciale et IA

Fermer