Le Conseil d’État encourage l’intelligence artificielle dans les administrations
Princesse bride
Notre dossier sur le rapport du Conseil d'État sur l'intelligence artificielle :
Le 21 septembre 2022 à 09h43
8 min
Droit
Droit
Le Conseil d’État a publié récemment un intéressant rapport sur l’intelligence artificielle et la manière dont elle pourrait insuffler une nouvelle dynamique dans le service public. Le rapport évoque la nécessité d’un langage commun, aussi bien que des objectifs à fixer et de la nécessaire confiance à bâtir.
Le rapport, commandé par le Premier ministre, a été finalisé en mars, mais n’a été publié que le 30 août dernier. D’environ 200 pages (+ 150 pages d’annexes), il aborde de nombreux points capitaux. Pour les personnes suivant de près le sujet et habituées de nos colonnes, il s’agit pour certains de thématiques déjà copieusement abordées, notamment le besoin essentiel de confiance, passant par la nécessaire transparence.
- Le développement de l'intelligence artificielle inquiète, des centaines de chercheurs s'engagent
- Dans les méandres de l'intelligence artificielle, entre angoisses, espoirs et recommandations
- Intelligence artificielle : les axes de normalisation de l’Afnor pour une IA de confiance
- La CNCDH s’inquiète de l’impact de l’intelligence artificielle sur les droits fondamentaux
- Inria revient sur les nombreux enjeux autour de l’intelligence artificielle, des algorithmes et la santé
Mais où les précédents rapports insistaient surtout sur le besoin d’un cadre, aussi bien juridique que normatif, celui du Conseil d’État plonge dans les opportunités que représente cette technologie pour le service public.
L’étude veut ainsi « alimenter la réflexion sur les concepts, les usages, les enjeux juridiques et éthiques et, plus largement, les conditions d’un déploiement pertinent et réussi des outils s’y rattachant au sein de la sphère publique ». Par sphère publique, le Conseil entend tout ce qui touche à l’État, aux collectivités territoriales et à l’intégralité des établissements publics, y compris l’éducation et la santé.
Il s'agit d'un premier article de synthèse sur les positions du Conseil d’État, qui encourage vivement l'utilisation de l'IA dans les administrations. Comme on le verra cependant, surtout dans la deuxième partie, les garde-fous et points de vigilance seront nombreux.
- Le Conseil d’État encourage l’intelligence artificielle dans les administrations
- Intelligence artificielle : les critères nécessaires à la confiance, selon le Conseil d'État
- Intelligence artificielle : le Conseil d’État veut des moyens et une « super CNIL »
- Intelligence artificielle : le cas ambivalent de Parcoursup
Adopter un langage commun
L’étude met en avant le besoin de parler une seule langue, car l’absence de définition partagée de l’intelligence artificielle, couplée à la charge symbolique de l’expression, entretient une confusion et complique « l’examen rationnel des avantages et inconvénients de ce qui est, d’abord et avant tout, un ensemble d’outils numériques au service de l’humain ». Le Conseil utilise donc abondamment l’expression SIA pour « systèmes d’IA ».
Il insiste sur cette nécessité de langage commun pour tout ce qui touche à l'IA. Le sigle lui-même est, selon l’étude, utilisé par métonymie pour designer tout programme ou service utilisant au moins une technologie traditionnellement rattachée à cet univers.
Définir l’IA pose encore problème aujourd’hui, surtout avec la construction en cours de plusieurs législations, dont la proposition de règlement de la Commission européenne. Pour cette dernière, un SIA est un logiciel mais, comme le note le Conseil, il peut s’agir d’une composante simple dans un produit complexe, comme un véhicule autonome. Il ne suffit pas de dire non plus qu’une IA est un algorithme ou un ensemble d’algorithmes. Les deux ressources-clés sont en revanche toujours les mêmes : les données et l’infrastructure technique.
Pour le Conseil, l’IA est avant tout une discipline et un champ de recherche aux débouchés multiples, faisant de l’intelligence artificielle une notion qui évolue dans le temps.
De l’IA théorique à son utilisation pratique
La haute juridiction souligne dans son rapport que l’intelligence artificielle, même si elle est regardée de loin par le service public en général, n’y est pas totalement étrangère non plus. Car même si elle ne sert que dans quelques cas, les premiers résultats restent encourageants, selon le Conseil d’État.
Le moteur de recherche de Pôle Emploi en utilise un peu par exemple, avec une efficacité constatée, puisqu’elle a notamment permis de diminuer les requêtes directes envoyées par les personnes concernées aux conseillers. On trouve également des outils développés pour anonymiser les décisions de justice, basés sur des algorithmes de traitement du langage naturel et accélérant donc la mise à disposition au public. Etalab a d’ailleurs développé un tel outil pour le Conseil d’État, et la Cour de cassation s’est créé le sien, sur le même principe.
Les algorithmes sont particulièrement attendus – et utilisés – dans tout ce qui ressemble de près ou de loin à une tâche répétitive. Son impact peut être immense et il n’est pas étonnant que tous les cas envisagés soient d’abord liés à ce type d’opération. Des chatbots et des voicebots (agents conversationnels et vocaux) ont été mis en place dans plusieurs administrations pour consacrer moins de ressources humaines à l’orientation du public vers les bons services, par exemple.
Le Conseil d’État note un développement déjà bien ancré pour ce type d’outils. On les trouve nombreux dans la plupart des institutions et établissements liés à l’État. C’est par exemple à la DGFIP pour les contribuables, ou dans les organismes de sécurité sociale (CNAC, CNAV et URSSAF). Comme précisé par la haute juridiction, il s’agit dans la plupart des cas de produits clé en main, personnalisés ensuite par une base de connaissance métier, puis enrichis au fur et à mesure des interactions avec les usagers.
De manière générale, tout ce qui touche à la notion de tri subit actuellement une transformation par l’IA, par exemple l’orientation des courriers et emails à la Caisse des dépôts et consignations.
Balbutiements et potentiel
On pouvait s’en douter, mais le rapport le confirme à plusieurs reprises : on est bien loin de réaliser le plein potentiel des algorithmes. Non pas qu’il faille en installer partout – la juridiction ne va clairement pas dans ce sens. Mais il y a constat simple : si l’on se contente des quelques thématiques abordées précédemment et où l’IA peut briller, alors l’immense majorité des services de l’État sont toujours en attente d’un coup de pouce algorithmiques.
Le rapport aborde plusieurs cas potentiels, notamment dans les politiques de ressources humaines dans les administrations, par exemple l’automatisation des conseils aux agents publics : questions sur la carrière, les avantages sociaux, les formations, ou encore les droits et obligations. Le Conseil d’État note ainsi que des initiatives naissent un peu partout à l’étranger, par exemple pour lier des robots aux procédures de recrutement dans la fonction publique.
En France, il n’y a pour l’instant que quelques rares projets, comme au rectorat de Versailles, qui planche sur un SIA de personnalisations des offres de formation (financé par la BPI), ou au sein de la gendarmerie nationale et des douanes. Ces dernières travaillent sur plusieurs outils, certains dévolus à la fluidification des contrôles, d’autres en lien avec les ressources humaines, comme un simulateur de mutation et un chatbot.
L’IA peut également jouer un grand rôle dans la simplification de l’accès aux ressources. L’un des plus gros projets dans ce domaine, démarré il y a plusieurs années, est la grande numérisation du Code du travail. Ses objectifs ont été définis par l’ordonnance n° 2017 - 1387 sur la prévisibilité et la sécurisation des relations de travail. Elle dispose que ce travail vise, « en réponse à une demande d'un employeur ou d'un salarié sur sa situation juridique, l'accès aux dispositions législatives et réglementaires ainsi qu'aux stipulations conventionnelles, en particulier de branche, d'entreprise et d'établissement, sous réserve de leur publication, qui lui sont applicables ». Ce Code du travail numérique est sorti de bêta en janvier 2020, mais est constamment enrichi.
Sorti de cet exemple, les quelques autres sont des projets en développement, plus proches pour l’instant d’expérimentations que de versions en cours de finalisation. Le site service-public.fr travaille ainsi sur une traduction et surtout une vocalisation de ses fiches techniques dans plusieurs langues étrangères.
Le Conseil d’État encourage l’intelligence artificielle dans les administrations
-
Adopter un langage commun
-
De l’IA théorique à son utilisation pratique
-
Balbutiements et potentiel
Commentaires (26)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 21/09/2022 à 10h19
Le moteur de recherche du Pôle Emploi en utilise un peu par exemple, avec une efficacité constatée, puisqu’elle a notamment permis de diminuer les requêtes directes envoyées par les personnes concernées aux conseillers.
Comment évalue-t-on le fait que l’utilisateur ou l’utilisatrice ont trouvé ce qu’elle voulait grâce à l’IA (et n’a donc pas envoyé de message au conseiller) ou que cette personne a tout simplement abandonné sans avoir obtenu de réponse à ses questions ?
Le 21/09/2022 à 10h44
Une partie en fin du processus : cette réponse vous a été utile oui ou non.
SI la personne ne trouve pas sa réponse, des chances qu’elle contacte son conseiller.
Alors si on a baisse significative des contacts conseillers depuis la mise en place de l’outil, couplé à un avis utilisateur oui/non, dont le oui l’emporte, ça doit permettre de juger.
Le 21/09/2022 à 11h41
Pour ma part, je ne trouve que rarement ce que je cherche avec le chatbot et je vois rarement ce genre de boutons (je dois être bloqué dans une boucle infinie)
Le 21/09/2022 à 12h51
Pareil pour moi. Je dire même plus, je hais les chatbot.
Le 21/09/2022 à 10h47
Des chatbots et des voicebots (agents conversationnels et vocaux) ont été mis en place dans plusieurs administrations pour consacrer moins de ressources humaines à l’orientation du public vers les bons services, par exemple.
C’est typiquement le genre d’applications qui me fait bondir. Les relations humaines sont complètement négligées par ce genre de solutions.
Le 21/09/2022 à 11h20
De l’intelligence, même artificielle dans les administrations !
C’est trop gros comme troll, ça passera pas ..
Le 21/09/2022 à 12h54
Ouais, trop gros
Le fonctionnaire que je suis te dit qu’à son boulot il a plus de connerie humaine que d’intelligence artificielle :) Et là c’est pas un troll :) Mais cela doit être valable partout.
Le 21/09/2022 à 19h10
Tu m’as grillé ^^…
Le 21/09/2022 à 11h45
Au niveau application, il y a aussi la fameuse détection de piscine : Next INpactet Next INpact
Le 21/09/2022 à 11h50
Surtout que très souvent, ils sont à côté de la plaque…
Le 21/09/2022 à 12h43
“Exprimez votre demande avec vots mots, par exemple dites «je souhaite connaitre le montant de ma dernière facture», c’est à vous”
“Bonjour, je souhaiterai parler à un humain”
“Je n’ai pas compris votre question, veuillez recommencer…”
Le 21/09/2022 à 14h54
Il faudrait plutôt de l’intelligence tout court à la tête du gouvernement… Tous les problèmes découlent de là. L’administration n’applique que les politiques moisies qu’on lui impose.
Le 21/09/2022 à 15h14
solutionisme technologique, fuite en avant
Le 21/09/2022 à 16h06
Déjà si l’État mettait en ligne les conventions collectives en version PDF (et lisible pour un humain, pas la compile d’annexe de Légifrance). On aurait déjà un grand progrès. J’ai trop souvent vu des entreprises où
la convention doit être sollicité au RH, ou à ton patron de PME (pourquoi vous en avez besoin?).
Le 21/09/2022 à 16h51
“j’ai dit que je souhaiterais parler à un humain !”
Le 21/09/2022 à 18h39
Hal’eau quoi !
Lorsqu’on connait la dangerosité des sèche-cheveux il y a de quoi se méfier.
Le 21/09/2022 à 17h43
Ah non moi j’ai souvent droit à des réponses totalement débiles
Une fois j’ai demandé une info sur la livraison d’un colis, ca m’avait répondu que je pouvais payer par CB, virement ou Paypal
Le 21/09/2022 à 18h02
J’ai effectivement l’impression qu’encore une fois on pousse une solution technique juste parce qu’elle est à la mode et qu’ensuite seulement on cherche les cas d’usage pouvant l’exploiter plus ou moins bien.
Pour moi c’est comme placer la charrue avant les bœufs. L’IA comme toute autre technologie ne devrait pas être une fin en soi, sauf à faire de la R&D. Le point de départ devrait toujours être le cas d’usage pour ensuite définir la meilleure solution technique pour y répondre.
Au fait, ils se sont posé la question de la consommation énergétique de l’IA avant de publier ce rapport en cette période de “fin d’abondance” ?
Le 21/09/2022 à 21h35
Si pas de corruption et stupidité pas besoin d’ia.
Le 22/09/2022 à 00h43
Au moins c’est clair : c’est la faute à l’algorithme…
Tous irresponsables. Donc tous innocents !
Le 22/09/2022 à 08h32
Le principe même des intelligences artificielles est justement de donner des réponses qui ne soient pas issues d’un algorithme.
Intelligence implique réflexion selon moi et cela ne s’applique pas ici.
C’est la raison pour laquelle je n’aime pas ce terme car le fonctionnement est identique à ce que les humains qualifient d’intuition.
Une intuition est issue de notre expérience et on ne sait pas forcément expliquer pourquoi une intuition est bonne.
Le 22/09/2022 à 09h06
So 40’
L’anamnèse permet de s’en sortir mais on doute qu’en ayant une majorité de décisions strictement automatiques on puisse encore trouver des humains prêts à identifier les feedbacks manquants.
La traduction de ce que la machine fait est un métier d’avenir, un peu comme l’éthologie est parfois une nécessité dans les administrations.
Le 22/09/2022 à 09h21
Le 22/09/2022 à 11h23
Ce document me donne la furieuse impression d’avoir été rédigé largement sous l’influence de sociétés ayant des intérêts dans le marché de l’I.A.
=> on ne devrait pas critiquer l’I.A. si elle fait des erreurs du moment que c’est moins que les humains.
=> il y a eu des abus aux USA, mais il ne faut pas légiférer pour les empècher car ça pourrait freiner l’adoption de l’I.A. …
et … des triturages de termes à gauche et à droite pour toujours ramener les inquiétudes dans le domaine de l’irrationnel ou de l’incompréhension
Le tout saupoudré d’une tendance à trop souvent mélanger sans discernement automatisation et I.A. alors que les deux sujets sont très différents.
Le 22/09/2022 à 12h59
Oui et non, c’est pas aussi simple, et ça va apparaître dans la 2e partie
Le 23/09/2022 à 13h54
Le point clef, évoqué nettement en tête d’article est la définition à avoir en commun de ce qu’est l’IA.
Dans l’exemple de mon organisation publique (citée par ailleurs dans l’article comme ayant déjà des éléments d’IA en place sur les RH), on parle beaucoup d’IA parce que c’est à la mode et que ça fait moderne.
Mais soyons clairs, un algorithme en mode “si on me dit A alors je réponds B” n’a rien à voir avec de l’IA et pourtant, c’est bien comme ça qu’on nous le présente… (on le faisait déjà sur TO7-70 en 1984 en programmation BASIC).
De mon point de vue, je vois surtout de l’enfumage à l’aide de vocabulaire qui veut avoir l’air d’être en avance ou d’avancer dans un monde moderne et pas une réelle innovation autour d’un concept capable d’inventer seul sa réponse et la suite de son fonctionnement.
Revenons à la base : pour établir un échange de fond, mettons-nous d’abord d’accord sur les termes de nos conversations, tous les philosophes ont déjà largement glosé sur le sujet.