Inria revient sur les nombreux enjeux autour de l’intelligence artificielle, des algorithmes et la santé

Inria revient sur les nombreux enjeux autour de l’intelligence artificielle, des algorithmes et la santé

La mort des silos

4

Inria revient sur les nombreux enjeux autour de l’intelligence artificielle, des algorithmes et la santé

Dans le dernier rapport annuel d’Inria, son PDG, Bruno Sportisse, explique comment l’institut entend jouer un rôle de premier plan dans le domaine de la recherche. Il tient à sa place de phare et a noué plusieurs partenariats avec des universités. On commence par l’IA, la régulation des algorithmes et la santé, puis nous reviendrons dans un second temps sur les objets connectés et la cybersécurité ; car Inria touche à tout.

Les ambitions de l’Institut national de recherche en informatique et en automatique sont claires et résumées par Bruno Sportisse dès l’introduction du rapport.

Selon lui, le rôle d’Inria est « d’être à l’avant-garde de la recherche et de l’innovation dans et par le numérique », d’avoir une vision audacieuse et créative de la recherche et d’innovation », d’être un « moteur » pour tout ce qui touche à la souveraineté numérique ou encore « [un] acteur de rupture technologique ». Le tout en se montrant agile, avec une évolution des méthodes de travail car « son environnement évolue très rapidement ». Ouf !

Pour le président-directeur général, Inria « se pense et se vit comme un institut plateforme ». Comprendre que l’institut veut servir d’interface entre de nombreux acteurs et doit être ouvert aux échanges. C’est valable aussi bien pour le monde académique, que pour les entreprises et l’industrie en général. Une volonté guidée par la boussole de la souveraineté, car Inria veut autant que possible attirer les talents pour « faire converger les énergies en France et en Europe ».

Inria, qui se décrit finalement comme la « plateforme publique de recherche pour la puissance numérique de la France », a d’ailleurs franchi un cap important durant le second semestre de l’année dernière. Le 13 juillet, l’institut a ainsi signé son premier partenariat stratégique avec une université, en l’occurrence la Sorbonne. Au cours des mois suivants, cinq autres ont été signés : l’université Côte d’Azur, l’université de Bordeaux, l’Institut Polytechnique de Paris, l’université Paris-Saclay et les universités de Lille et de Rennes 1 début 2022.

Quelle différence avec les accords précédents ? Créer des liens entre la recherche et son exploitation. Les accords permettent le développement de centres Inria dans les universités. L’institut n’y voit que des bénéfices, du repérage des talents à la mise en pratique avec son réseau de partenaires.

La confiance dans l’IA

Le sujet revient sans cesse sur le tapis : il faut pouvoir faire confiance aux algorithmes. La thématique est courante dans nos colonnes :

Les voix sont unanimes : l’intelligence artificielle envahit de nombreux aspects de la vie quotidienne et doit pouvoir être vérifiée, analysée, contrôlée. L’Afnor proposait un cadre normatif strict pour y parvenir et il ne fait aucun doute qu’une ou plusieurs législations finiront par venir encadrer ce domaine. Ce n’est d’ailleurs pas une surprise si de nombreuses entreprises impliquées font la promotion de l’éthique dans ce domaine.

De son côté, Inria confirme que l’IA est omniprésente désormais, jusque « dans les fonctions régaliennes comme la défense » et dans les armes, en faisant un « objet géopolitique » à part entière. L’institut est d’avis que les politiques publiques doivent « favoriser l’émergence d’un écosystème national puissant », car l’IA crée sa propre dynamique. Elle modifie notamment les outils de découverte scientifique, la conception des biens industriels et services, l’optimisation des process et de l’économie circulaire, ou encore la relation clients. Assurer la robustesse, vérifier, détecter et corriger les biais, sécuriser les données et intégrer des mécanismes permettant la contestation et la correction sont donc essentiels.

Pour Inria, le vrai danger de l’IA n’est pas l’avènement de la suprématie, mais « l’amplification aveugle des biais sociaux », à cause du traitement irréfléchi des données par des algorithmes « à œillères ». L’IA doit avoir une « fin éthique » et être auditable sous peine de sanctions, pour éviter une « gouvernance algorithmique déshumanisante ». Il n’est donc pas étonnant que l’institut appelle de ses vœux la « nécessaire régulation » et note à ce sujet l’action pionnière de l’Europe avec sa proposition de règlement sur l’IA en avril 2021.

Réguler n’est cependant qu’une partie de la solution pour Inria. L’autre grand volet – qui n’étonnera personne – est l’éducation : il faut « construire l’infrastructure d’éducation et de formation de toutes les parties prenantes de la création et de l’usage des systèmes d’IA, intégrant tous leurs enjeux ». La souveraineté, elle, est toujours là, car elle renvoie directement à la maîtrise de ses propres données. L’Etat doit être en mesure de « soutenir un rapport de force avec de grands groupes internationaux qui ne doivent pas imposer leurs clauses sur des sujets de normes politiques démocratiques ».

Inria évoque dans ce domaine plusieurs projets. Regalia, par exemple, est un projet-pilote qui ambitionne la création d’une trousse à outils destinée à la régulation. Objectif, aider ou obliger les acteurs (publics ou privés) « à améliorer la transparence de leurs algorithmes et à rendre l’usage de l’IA plus responsable ». Il est réalisé en partenariat avec le Pôle d’expertise de la régulation numérique (PEReN) et dirigé par Benoît Rottembourg.

Citons le projet Trust-AI, qui veut créer une plateforme d’IA collaborative fiable, en se basant sur les sciences cognitives et la programmation génétique pour mieux comprendre les choix faits par un algorithme.

Inria met également en avant certaines entreprises nées dans son giron, comme Deepomatic. Celle-ci fournit une plateforme de reconnaissance d’image « as a service ». Personnalisable, elle permet aux clients de concevoir et déployer leurs propres solutions de reconnaissance. Pixyl est une autre start-up, dont la solution PixyLNeuro est dédiée à l’analyse de l’imagerie cérébrale pour y repérer les anomalies. Actuellement, elle prend en charge les maladies neuro-inflammatoires et neurodégénératives.

Le numérique au service de la santé

Puisque l’on parle de santé, l’institut rappelle l’impact énorme du numérique dans ce domaine, notamment grâce à la collecte de données complexes. Avec à la clé plusieurs promesses, comme « l’assistance aux médecins en termes de diagnostic de la maladie, du pronostic de son évolution, et de choix thérapeutiques ».

Les enjeux de santé publique sont conséquents, selon Inria. Le numérique peut par exemple aider un oncologue à choisir une approche thérapeutique (chirurgie, immunothérapie, chimiothérapie ou une combinaison). Il peut permettre également la détection de signes avant-coureur pour certaines maladies ou même d’épidémies, ainsi que leur évolution. Les tailles d’échantillons de données font la différence et permettent par exemple une estimation plus fine des effets secondaires des traitements. L’IA joue bien sûr un grand rôle.

Pour Inria, l’un des plus grands défis dans ce domaine sera de parvenir à marier les informations. On sait par exemple simuler des systèmes à certaines échelles : cellule du cœur, propriétés de contraction de l’organe, évolution du patient selon ses habitudes de vie, etc. Mais on ne sait pas intégrer ces systèmes dans un modèle plus complet qui tiendrait compte de ces différentes échelles (molécule, cellule, organe, comportement).

Par exemple, coupler une imagerie cérébrale avec des données génétiques ou comportementales. Ces modèles – aussi nommés jumeaux numériques – permettraient également des gains de temps dans les essais cliniques via la création de méthodologies numériques.

L’investissement est d’autant plus intéressant que le numérique permet un grand tournant en mettant en relation des informations qui, jusqu’ici, étaient détenues dans les silos des spécialisations médicales. Les questions de souveraineté, d’hébergement des données et du Health Data Hub ne sont pas du tout abordées.

Selon Alexandre Mebazaa, professeur de médecine à l’université de Paris et chef du service anesthésie et réanimation de l’hôpital Lariboisière, l’un des enjeux est de pouvoir formuler un risque de complication pour un malade quittant l’hôpital pour rentrer chez lui.

Pour y parvenir, il faudrait généraliser la collecte et le rassemblement des informations pendant le séjour pour les passer à la moulinette d’un logiciel d’apprentissage. Pour le professeur de médecine, c’est l’étape suivante : « La santé numérique fait enfin évoluer le travail de recherche en médecine. Les grands chercheurs traditionnels en médecine ont découvert les maladies, leurs causes, leurs traitements. Aujourd’hui, on essaye de prendre le problème autrement par l’analyse et le croisement des données : d’autres voies de recherche, basées sur la statistique notamment, sont en éclosion ».

Dans ce vaste domaine, les projets ne manquent pas. HeKa, par exemple, est un projet créé par Inria et l’Inserm, en association avec l’APHP et installée à ParisSantéCampus, inauguré en décembre dernier. Sa mission, créer des modèles et des outils d’aide à la décision médicale, pour faciliter le diagnostic ou le pronostic du patient ou enrichir les essais cliniques par des données de soin et connaissances scientifiques.

Inria pilote également le projet SimCardioTest, qui veut « : démontrer la faisabilité, l’efficacité et les avantages des essais cliniques in silico (c’est-à-dire basés sur la simulation numérique) pour les dispositifs médicaux et médicaments visant les pathologies cardiaques ». Si cette voie de recherche devait se montrer fiable, elle pourrait conduire à la réduction des essais sur les animaux, ainsi qu’à des essais plus courts et sûrs sur l’Homme. Il exploite des données médicales anonymisées.

Citons enfin Hipernav, regroupant 14 partenaires dont Inria. Ce projet européen veut aboutir à un modèle précis du foie, qui sera alimenté par des images prises avant et pendant l’opération d’un patient. Cet organe est réputé difficile à opérer, car mou et déformable, rendant complexe par exemple l’ablation des tumeurs.

Commentaires (4)


Merci pour cet article 😃


A mon avis le danger le plus immédiat de l’IA est son exploitation pour manipuler l’opinion de manière automatisée a grande échelle, surtout que c’est déjà à la portée des technologies actuelles.



GPT 3 par exemple est en mesure de générer des commentaires défendant n’importe quelle position avec n’importe quel ton (agressif, didactique etc). La qualité des commentaires générés est déjà bien meilleure que la grande majorité des commentaires “humains”. On est souvent surpris par la qualité des arguments utilisés.



Il est même probable que ce type de système soit déjà déployé par au moins une puissance (c’était déjà le scénario plutôt credible du Bureau des Légendes). Combiné avec les techniques classiques de manipulation et désinformation ça en fait un outil redoutable. Comme disait Poutine, ancien du KGB, “celui qui maîtrise l’IA contrôle le monde”.



Au delà des puissances géopolitiques, la manipulation automatique à grande échelle de nos comportements par des algos (de plus en plus basé sur des “réseaux profonds”), de manière plus ou moins volontaire, est déjà une réalité, c’est un vrai sujet depuis 10ans (optimisation de l’“engagement” , des publicités, “bulles algorithmiques” etc).




Pour Inria, le vrai danger de l’IA n’est pas l’avènement de la suprématie, mais « l’amplification aveugle des biais sociaux »




Malheureusement ce n’est qu’une petite partie du problème.



Selon lui, le rôle d’Inria est « d’être à l’avant-garde de la recherche et de l’innovation dans et par le numérique »




Pour ça, il faudra p’tet arrêter de délaisser la recherche fondamentale … sinon ils ne feront aucune découverte « d’avant-garde ».




Le tout en se montrant agile, avec une évolution des méthodes de travail car « son environnement évolue très rapidement ».




Je disais donc : + de recherche et - de marketing starteupe 😅



Le reste de l’article est intéressant et pertinent, on voit qu’ils ont encore une certaine expertise. Par contre, tant que les politiques ne s’emparent pas du rapport, ça restera juste une note d’intention.


Avis perso, je trouve que l’élision de l’article (L apostrophe) devant « l’Inria » est disgracieuse. Dans l’article (de Vincent), il y est devant « l’Institut » donc il devrait aussi y être devant « l’Inria » (tout comme « l’Afnor » citée dans l’article (de Vincent)) puisque ce sont deux manières de nommer la même chose. Je trouve que cette jonglerie entre avec et sans article (L apostrophe) est disruptive.
Par exemple :
Selon lui, le rôle d’Inria est (…) ==> Selon lui, le rôle de l’Inria est (…)
Pour Inria, l’un des plus grands défis (…) ==> Pour l’Inria, (l’)un des plus grands défis (…)
etc.
Contre-exemple : au hasard, « Sup de Co » pour « l’école Supérieure de Commerce » ; mais ici c’est « l’école » en entier qui est élidée dans l’abbréviation et non pas seulement l’article (L apostrophe).


Fermer