Transparence des algorithmes publics : l’avertissement du Conseil constitutionnel

Transparence des algorithmes publics : l’avertissement du Conseil constitutionnel

Mention particulière

Avatar de l'auteur

Xavier Berne

Publié dansDroit

18/06/2018
4
Transparence des algorithmes publics : l’avertissement du Conseil constitutionnel

Alors que le projet de loi adaptant le droit français au RGPD autorise les acteurs publics à prendre des décisions individuelles sur le seul fondement d’algorithmes, le Conseil constitutionnel a lancé un message clair aux administrations : faute de transparence, ces actes pourront être annulés.

À ce jour, aucune « décision produisant des effets juridiques à l'égard d'une personne » ne peut être prise sur le seul fondement d'un « traitement automatisé de données destiné à définir le profil de l'intéressé ou à évaluer certains aspects de sa personnalité ». Une protection posée par la loi « Informatique et Libertés » de 1978, notamment en vue d’éviter les profilages.

« Il ne faut pas se voiler la face : le calcul des impôts, depuis des années, il ne fait jamais intervenir aucun humain », a toutefois lancé Perica Sucevic, conseiller juridique à la Direction interministérielle au numérique (DINSIC), mardi 12 juin lors d’une audition parlementaire. « Oui, c’était déjà le cas », a-t-il insisté, qualifiant de « mythe » le fait qu'aucune décision individuelle ne puisse être prise exclusivement par une machine.

Difficile en effet de voir où les agents publics interviennent aujourd’hui dans le calcul de nombreuses aides ou même impôts : taxe d’habitation, prime d’activité, APL, redevance TV... On pourrait également citer le cas d’Admission Post-Bac, qui a lui aussi fait couler beaucoup d’encre.

Des décisions 100 % automatisées désormais autorisées, sous conditions

Le législateur a toutefois profité du projet de loi sur le RGPD pour procéder à une sorte de rattrapage.

Dès que le texte aura été promulgué par Emmanuel Macron, les décisions administratives relevant exclusivement de traitements automatisés seront officiellement autorisées, sous réserve de respecter plusieurs conditions :

  • Qu’une « mention explicite » avertisse l’usager qu’une décision a été prise à son encontre par le biais d’un algorithme, et qu’il a le droit de se faire expliciter le fonctionnement de celui-ci « sous une forme intelligible ».
  • Que les « règles » définissant le traitement ainsi que ses « principales caractéristiques » de mise en œuvre soient communiquées – sur demande – à la personne concernée, « à l’exception des secrets protégés par la loi ».
  • Que l’algorithme ne fonctionne pas à partir de données jugées sensibles (orientation sexuelle, convictions religieuses, origine ethnique, données biométriques...).

Le Conseil constitutionnel pose sa grille de lecture

Invité à se prononcer sur la conformité de ces dispositions au texte suprême, le Conseil constitutionnel a validé, mardi 12 juin, ce qui deviendra bientôt le 2° de l’article 10 de la loi Informatique et Libertés.

Les « Sages » ont véritablement saisi la balle au bond en exposant – de manière plutôt détaillée – leur lecture de ces dispositions. « Le seul recours à un algorithme pour fonder une décision administrative individuelle est subordonné au respect de trois conditions », préviennent ainsi les juges (notre actualité).

Premièrement, toute « décision administrative individuelle doit mentionner explicitement qu'elle a été adoptée sur le fondement d'un algorithme ». Les « principales caractéristiques de mise en œuvre de ce dernier doivent être communiquées à la personne intéressée, à sa demande », poursuit la décision – histoire de bien enfoncer le clou et rappeler les obligations nées de la loi Numérique de 2016, et pourtant largement ignorées des administrations.

La haute juridiction a ensuite introduit une déduction qui (et c’est là que ça devient plus intéressant) ne figure pas dans la loi : « Lorsque les principes de fonctionnement d'un algorithme ne peuvent être communiqués sans porter atteinte à l'un des secrets ou intérêts énoncés au 2° de l'article L. 311-5 du Code des relations entre le public et l'administration, aucune décision individuelle ne peut être prise sur le fondement exclusif de cet algorithme. »

En clair, sans transparence, pas de décision administrative 100 % automatisée. Les acteurs publics ne pourront pas se protéger derrière les secrets justifiant aujourd’hui l’opacité sur de nombreux documents administratifs : secret de la défense nationale, risques d’atteinte à la sécurité des systèmes d'information des administrations, au déroulement des procédures judiciaires, à la monnaie et au crédit public, etc.

Si la Direction générale des finances publiques (DGFiP) veut par exemple continuer de prendre ses avis de taxe d’habitation sur le seul fondement d’algorithmes, elle devra non seulement appliquer la loi Numérique et intégrer une « mention explicite » informant le contribuable qu’un programme informatique a calculé le montant de sa taxe, mais aussi – et surtout – être capable d’expliquer à chaque demandeur comment le traitement en question a été mis en œuvre à son égard. Une épreuve à laquelle Bercy continue pour l’instant de se soustraire, comme Next INpact a malheureusement eu l’occasion de le constater, jusque devant la CADA (voir notre article).

conseil constitutionnel

Deuxièmement, le Conseil constitutionnel explique sans grande surprise que chaque décision administrative individuelle devra « pouvoir faire l'objet de recours administratifs ». L’administration mise en cause sera alors « tenue de se prononcer sans pouvoir se fonder exclusivement sur l'algorithme ». Les « Sages » insistent ici sur le fait que le juge pourra « exiger de l'administration la communication des caractéristiques de l'algorithme ».

Troisièmement, le recours exclusif à un algorithme reste proscrit si le traitement porte sur des « données sensibles », rappelle la haute juridiction.

Avertissement clair quant au recours à des algorithmes auto-apprenants

Les juges en profitent enfin pour prévenir les acteurs lorgnant un peu trop sur les potentialités de l’intelligence artificielle et du « machine learning » : « Ne peuvent être utilisés, comme fondement exclusif d'une décision administrative individuelle, des algorithmes susceptibles de réviser eux-mêmes les règles qu'ils appliquent, sans le contrôle et la validation du responsable du traitement. »

« En précisant clairement sa position, le Conseil constitutionnel pose des bornes aux expériences de justice prédictive qui, précisément, reposent sur ce type d'algorithmes, commente la professeure de droit public Roseline Letteron, sur son blog « Libertés, libertés chéries ». Il rend ainsi un fier service aux juridictions suprêmes, Conseil d'État et Cour de cassation, qui souhaitent conserver le contrôle et le pilotage des expériences dans ce domaine. »

Un message à l’attention du juge administratif

Contactée par nos soins, la juriste explique que les « Sages » ne se sont pas contentés de procéder à un simple contrôle de proportionnalité. La haute juridiction a surtout profité de l’opportunité qui lui était donnée pour envoyer différents messages, notamment sur les algorithmes auto-apprenants et sur les décisions administratives entièrement automatisées.

Sur ce second dossier, « le Conseil fixe des critères qui sont ceux de la décision administrative en droit public, décrypte Roseline Letteron. Ce sont des critères de procédure, notamment celui qui exige la motivation de l’acte défavorable ou pris en considération de la personne. »

Et pour cause : les juges de la Rue de Montpensier préviennent clairement que faute de « mention explicite » et d’explicitation de ses algorithmes, sur demande, une décision administrative individuelle est illégale.

Faut-il pour autant en déduire que les prochains avis de taxe d’habitation seront automatiquement annulés si la DGFiP ne change pas de fusil d’épaule d’ici quelques mois ? Non. « Le Conseil constitutionnel envoie un signal au juge administratif, en disant « vous avez là des éléments pour annuler, vous, la décision ». C'est un billard à trois bandes entre le Conseil constitutionnel, le législateur et le juge administratif », analyse Roseline Letteron.

« C’est aussi fort que si le législateur l’avait directement inscrit dans la loi », nous glisse au passage un bon connaisseur du dossier. Mais il appartiendra à chaque citoyen de saisir la justice, s’il estime que ses droits n’ont pas été respectés.

La transparence, une « charge réelle » pour les services administratifs

Ce point avait d’ailleurs été assez longuement débattu entre Sénat, gouvernement et Assemblée nationale. La Haute assemblée, estimant que les administrations piétinaient la loi Numérique, avait voulu inscrire dans la loi la nullité automatique de toutes les décisions administratives prises sur le fondement (même partiel) d’un algorithme.

L’exécutif, qui était fermement opposé à cette mesure, avait finalement lâché du lest au Palais Bourbon en proposant une sorte de compromis : une nullité automatique pour les seules décisions relevant exclusivement de traitements algorithmiques, et ce à compter du 1er juillet 2020 uniquement. Mounir Mahjoubi, le secrétaire d’État au Numérique, avait fait valoir que l’application de la loi Lemaire était synonyme de « charge réelle » pour les administrations, en ce qu’elle imposait « un traitement au cas par cas ».

« Il est tout de même paradoxal que l'administration, alors même qu'elle se verrait désormais autorisée à prendre des décisions sur le seul fondement d'un traitement algorithmique, ne soit pas en mesure de l'indiquer sur le texte de ces décisions et de respecter ainsi une obligation légale qui lui incombe depuis la loi du 7 octobre 2016 pour une République numérique », avait alors rétorqué la rapporteure du Sénat, Sophie Joissains.

Certains noteront enfin que le Conseil constitutionnel ne s’est pas penché sur les dispositions qui autorisent certains acteurs privés, dans le cadre posé par le RGPD, à prendre des décisions sur le seul fondement d’algorithmes. Une « question prioritaire de constitutionnalité » pourrait de ce fait être encore soumise aux Sages.

4
Avatar de l'auteur

Écrit par Xavier Berne

Tiens, en parlant de ça :

#Flock a sa propre vision de l’inclusion

Retour à l’envoyeur

13:39 Flock 15
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

On est déjà à la V2 de Next ?

11:55 32
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Me voilà à poil sur Internet

17:18 Next 16

Sommaire de l'article

Introduction

Des décisions 100 % automatisées désormais autorisées, sous conditions

Le Conseil constitutionnel pose sa grille de lecture

Avertissement clair quant au recours à des algorithmes auto-apprenants

Un message à l’attention du juge administratif

La transparence, une « charge réelle » pour les services administratifs

#Flock a sa propre vision de l’inclusion

Flock 15
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

32
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Next 16
Logo de StreetPress

Pourquoi le site du média StreetPress a été momentanément inaccessible

Droit 18
Amazon re:Invent

re:Invent 2023 : Amazon lance son assistant Q et plusieurs services IA, dont la génération d’images

IA 10
Un œil symbolisant l'Union européenne, et les dissensions et problèmes afférents

Le Conseil de l’UE tire un bilan du RGPD, les États membres réclament des « outils pratiques »

Droit 4

19 associations européennes de consommateurs portent plainte contre Meta

DroitSocials 16

#LeBrief : Ariane 6 l’été prochain, Nextcloud rachète Roundcube, désinformation via la pub

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

Sécu 14
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Web 35
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

HardWeb 52
Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

DroitSécu 10
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

IA 10

#LeBrief : logiciels libres scientifiques, fermeture de compte Google, « fabriquer » des femmes pour l’inclusion

livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

IAScience 3
Un chien avec des lunettes apprend sur une tablette

Devenir expert en sécurité informatique en 3 clics

Sécu 11
Logo ownCloud

ownCloud : faille béante dans les déploiements conteneurisés utilisant graphapi

Sécu 16
Le SoC Graviton4 d’Amazon AWS posé sur une table

Amazon re:invent : SoC Graviton4 (Arm), instance R8g et Trainium2 pour l’IA

Hard 12
Logo Comcybergend

Guéguerre des polices dans le cyber (OFAC et ComCyberMi)

Sécu 10

#LeBrief : faille 0-day dans Chrome, smartphones à Hong Kong, 25 ans de la Dreamcast

Mur d’OVHcloud à Roubaix, avec le logo OVHcloud

OVHcloud Summit 2023 : SecNumCloud, IA et Local Zones

HardWeb 2
algorithmes de la CAF

Transparence, discriminations : les questions soulevées par l’algorithme de la CAF

IASociété 62

Plainte contre l’alternative paiement ou publicité comportementale de Meta

DroitIA 38
Nuage (pour le cloud) avec de la foudre

Économie de la donnée et services de cloud : l’Arcep renforce ses troupes

DroitWeb 0
De vieux ciseaux posés sur une surface en bois

Plus de 60 % des demandes de suppression reçues par Google émanent de Russie

Société 7
Une vieille boussole posée sur un plan en bois

La Commission européenne et Google proposent deux bases de données de fact-checks

DroitWeb 3

#LeBrief : des fichiers Google Drive disparaissent, FreeBSD 14, caméras camouflées, OnePlus 12

Le poing Dev – round 6

Next 151

Produits dangereux sur le web : nouvelles obligations en vue pour les marketplaces

Droit 9
consommation de l'ia

Usages et frugalité : quelle place pour les IA dans la société de demain ?

IA 12

La NASA établit une liaison laser à 16 millions de km, les essais continuent

Science 17
Concept de CPU

Semi-conducteurs : un important accord entre l’Europe et l’Inde

Hard 7

#LeBrief : PS5 Slim en France, Valeo porte plainte contre NVIDIA, pertes publicitaires X/Twitter

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Commentaires (4)


boogieplayer
Il y a 5 ans

Mine de rien ça va dans le bon sens tout ça. Si on m’avait il y’a dix ans que ça prendrait cette tournure je ne l’aurai pas cru. Comme quoi faut jamais désespérer, et que les actions de la EFF, Stalman, la quadrature, framasoft, le parti pirate… ont peut être réussi à faire germer la bonne graine.


anonyme_7c080d0b57a30a99451672cfc228f71f
Il y a 5 ans

La transparence des traitements informatiques devrait être automatique et spontanée que ce soit la décision d’une administration publique ou privée. On éviterait des problèmes comme celui du Linky qui n’a pas fini de faire parler de lui (Enedis, la CRE et le gouvernement ne semblent pas décidés à renoncer à leurs promesses sans fondement et à leurs turpitudes ubuesques, avec l’assentiment de la CNIL).


Mimoza Abonné
Il y a 5 ans

Ils se protègent eux même par la même occasion, a mon avis ce n’est pas purement désintéressé. Un traitement purement algorithmique n’est pas influençable par les amis, là ils se laissent une possibilité de s’arranger entre eux.
Mais ça va dans le bon sens en effet.
J’aime bien la description des IA par le CC
“des algorithmes susceptibles de réviser eux-mêmes les règles qu’ils appliquent” <img data-src=" />


Cetera
Il y a 5 ans

De la tyrannie technologique lorsqu’elle mal utilisee. Le CC à bien négocié le virage mais j’ai comme un gros doute sur les administrations voir sur l’exécutif pour appliquer ces principes qui me paraissent de bon sens lorsqu’on parle de démocratie.