Les Français veulent des explications claires sur les modèles algorithmiques
Je peux parler à un humain ?
Le 22 février 2023 à 16h22
5 min
Droit
Droit
Obtenu en exclusivité par Next INpact, un sondage de Research Collective pour la Fondation Panoptykon montre que les citoyens français souhaitent que la législation européenne leur garantisse la transparence et l'explicabilité des modèles algorithmiques qui les touchent. Les répondants demandent par ailleurs des outils leur permettant de porter plainte s'ils estiment être discriminés.
Les législateurs travaillent à un règlement européen sur l’intelligence artificielle (« AI Act »). Les jeux olympiques, en France, serviront aussi bien de bêta-test que de « vitrine industrielle » à l’industrie de la vidéosurveillance algorithmique. Et les citoyens, pendant ce temps, qu’en disent-ils ?
Les Français appellent à plus de transparence lorsqu'un modèle est utilisé pour réaliser des prédictions à leur sujet, constate un sondage (.pdf) réalisé par Research Collective, un institut de sondage polonais, pour l’ONG de défense des droits numériques Panoptykon, elle aussi polonaise, et obtenu en exclusivité par Next INpact.
- Les JO 2024 constitueront « un tournant » pour la surveillance algorithmique de l’espace public
- JO 2024 : les expérimentations de vidéosurveillance algorithmique dureront jusqu’en juin 2025
Réalisée auprès de 906 répondants français, 910 allemands et 905 néerlandais en octobre et novembre 2022, le rapport montre que dans les trois pays, le souci d’être informé de l’usage de modèles algorithmiques et d’avoir accès à des explications sur leur usage est très fort.
91 % des Français interrogés estiment en effet important, voire très important, d’être informés sur l’usage de modèles d’intelligence artificielle par une entreprise privée ou une institution lorsque celui-ci sert à évaluer ou faire une prédiction sur leur comportement. Précisément, les 26 - 35 ans sont les plus inquiets parmi la population interrogée, puisque 83 % d’entre eux jugent utile d’être informés, contre trois personnes sur quatre parmi les 46 - 55 ans.
L'explicabilité des modèles, une préoccupation importante
L’explicabilité est un véritable enjeu dans les trois pays étudiés. Côté français, 87 % des répondants estiment important, voire très important, d’avoir la possibilité de vérifier ce que le modèle algorithmique est censé faire (ce pour quoi la machine a été construite doit être expliqué en toutes lettres).
Par ailleurs, 85 % estiment décisif d’avoir accès à une explication de la logique du modèle, dans une langue simple. Autant de personnes déclarent vouloir obtenir une explication lorsque le résultat d’une machine les surprend ou les inquiète. Les 56 - 65 ans, en particulier (la tranche la plus âgée de ce sondage) sont 50% à estimer ce type d'explication « très important », 8 points au-dessus du total des Français interrogés.
En moyenne, seule une personne sur dix estime soit ces questions peu importantes, soit déclare ne pas savoir comment y répondre.
Réguler les systèmes de recommandation
La Fondation Panoptykon a aussi interrogé les répondants sur les sujets qu’ils et elles estiment crucial de voir couverts par l’Union Européenne dans son travail sur l’AI Act. Résultat des courses, 71 % des Français interrogés estiment très importants de réguler les algorithmes de recommandation de contenu comme ceux utilisés par Facebook, YouTube ou Netflix.
71 % estiment très important de cadrer ceux qui modèrent automatiquement du contenu (qui le signalent, l’enlèvent ou le cachent) sur les réseaux sociaux et 67 % sont du même avis au sujet des algorithmes déterminant quelles publicités seront montrées à chaque utilisateur. Les 26 - 35 ans, en particulier, estiment « très important » l'encadrement des modèles publicitaires, soit 9 points de plus que le total des Français interrogés.
Une demande d'outils pour pouvoir demander des comptes
Enfin, l’étude s’est penchée sur la question des solutions envisageables pour assurer les droits des utilisateurs face à l’usage de systèmes algorithmiques. Interrogés sur l’exemple d’un recrutement pour lequel la sélection de dossiers aurait été assistée par des outils algorithmiques, plus d’un répondant français sur deux a ainsi estimé très important de laisser à l’usager la possibilité de s’adresser à un humain pour que celui-ci puisse expliquer les raisons du rejet.
Femmes et hommes présentent un relatif écart en la matière, 60% des premières estimant « très important » de pouvoir s'adresser à quelqu'un, contre 49% des hommes. En revanche, elles ne sont plus que 30% à trouver cela « plutôt important », contre 37% des hommes.
Plus d’un répondant sur deux a aussi déclaré très important de fournir le droit d’enregistrer une plainte, en particulier si la personne pense avoir été victime d’une discrimination. Avec 66% de « très important » (13 points au-dessus de la population totale), les 56 - 65 ans sont les plus demandeurs de ce type de mécanismes.
Enfin, 40 % ont déclaré « très important » de pouvoir demander à une organisation civile indépendante de les représenter sur ce type de cas.
Selon Panoptykon, les protections prévues dans les travaux sur une directive européenne sur l’intelligence artificielle ne répondent pas aux attentes des citoyens dans la mesure où elles ne fournissent pas, pour le moment, d’outils ou de procédures permettant aux usagers ou aux organisations qui pourraient les représenter de porter plainte facilement.
- [Interview] Promesses et limites de l’éthique de l’intelligence artificielle
- Intelligence artificielle : la Commission européenne dégaine son projet de directive sur la responsabilité
Les Français veulent des explications claires sur les modèles algorithmiques
-
L'explicabilité des modèles, une préoccupation importante
-
Réguler les systèmes de recommandation
-
Une demande d'outils pour pouvoir demander des comptes
Commentaires (27)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 22/02/2023 à 16h42
La question de l’explicabilité ne se limite pas seulement aux algorithmes désignés comme étant de l’IA mais aux algorithmes en général.
Petit aparté sur ma vie. Lorsque je suis arrivé en région parisienne, mon assurance auto a augmenté significativement et mon assureur m’a indiqué que c’était normal car cette région était plus accidentogène que celle dont je venais. Dix ans plus tard, je déménage dans un petit village à proximité d’une grande ville de province. Je recontacte mon assureur auto pour mettre à jour l’assurance et je le questionne sur le prix. Il m’indique que ça sera 2 € plus cher que ce que je payais en région parisienne. Je lui demande une explication (car ça ressemble à du foutage de gueule) et il me répond que c’est ce que dit son ordinateur et que c’est fiable car c’est l’algorithme qui définit ce prix …
Le 22/02/2023 à 18h08
À mon avis ces algos des assureurs rentrent totalement de le cadre de cette étude, c’est bien d’ “IA” dont il s’agit.
Le 23/02/2023 à 07h58
Non c’est des stats. Les assureurs connaissent très bien leur métier qui consiste à calculer les cotisations ainsi :
cotisation = (coût moyen d’un sinistre) (probabilité d’un sinistre) (nombre d’assurés) + (marge de l’assureur)
Le calcul ne se fait pas sur la totalité des assurés mais par groupes de profils de risque.
La probabilité d’un sinistre et son coût moyen varient selon le profil d’un conducteur (lieu de vie, antécédents, âge …) et ils ont accès à toutes les stats dont ils ont besoin pour mettre les gens dans des « cases » de profils de risque.
C’est extrêmement bien maîtrisé et ça marche très bien. Ils n’ont aucun intérêt à mettre de l’IA là dedans, ce serait rajouter de l’incertitude à leur modèle économique qui est aujourd’hui très prévisible.
Cela étant ce serait une bonne chose de mettre de la transparence là dedans.
La seule difficulté aujourd’hui pour les assureurs, c’est le risque de catastrophe naturelle qui est en constante augmentation, qui reste toujours tres faible en terme de probabilité, mais qui coûte de plus en plus cher. Mais pour ça ils font plutôt confiance à des climatologues qu’à des IA qui prédiraient le futur.
Le 22/02/2023 à 18h45
Ce serait intéressant d’avoir les critères des tarifs assurance auto vu leur nombre important et les différences de prise en compte selon la compagnie d’assurance.
À noter que le critère du sexe homme / femme est interdit malgré une sinistralité beaucoup moins importante chez les conductrices. Ça fera peut-être plaisir à certains hommes d’avoir un meilleur ratio de ce côté là ?
Le 27/02/2023 à 00h41
Surtout que les assureurs, y’a pas plus marchand de tapis.
Je me rappelle pour les 2 assurances auto de mes parents qu’ils allaient (ma mère surtout) tous les 2-3 ans faire la tournée des 3 assureurs de la ville, tous situés sur la même place du centre-ville d’ailleurs.
Et bien en 45min, c’était plié, y’en avait toujours un qui au final cassait son prix initial et s’alignait pour être le moins cher et remporter le contrat …quand on leur avait bien mis sous le nez les offres des 2 autres concurrents…
Rapaces…
(mes parents s’arrêtaient au 1er round de négociation mais on pourrait itérer plusieurs fois…)
Le 22/02/2023 à 18h24
Pour les assureurs j’aurais tendance à dire que c’est lié aux statistiques.
Le 22/02/2023 à 20h37
J’en avais parlé avec le mien, il y a une multitude de facteurs (du conducteur, du véhicule, de la ville, etc.)
Le 22/02/2023 à 21h36
Juste un mot sur l’image d’illustration : Si le modèle avait été entraîné sur Unix, il aurait dit :
Le 22/02/2023 à 21h57
Des explications claires pour des résultats issus de modèles d’apprentissages ? Ça me paraît très mal barré :
Le 24/02/2023 à 11h02
Tout à fait, à ce titre ça me fatigue de lire l’amalgame Algorihtme / IA.
Un modèle d’apprentissage (une IA) n’est pas un algorithme ! Ça n’a aucun rapport !
Le 22/02/2023 à 23h20
Le point de départ est qu’on ne peut pas faire confiance aux I.A. pour prendre des décisions par rapport à notre vie, car on a pas moyen de vérifier en direct la présence de biais, on doit passer par la connecte de statistiques sur les réponses produites. On peut donc faire une mesure post-mortem pour constater un biais social, sexuel ou racial, à postériori.
La question est de savoir si le plan de l’état est de pousser l’I.A. en jouant la carte de la transparence ou si ces statistiques seront cachées au nom du secret des affaires afin de ménager les prestataires et au mépris du citoyen.
Au passage, je recommande cet excellent article du Guardian sur les biais des I.A. supposées identifier les images à caractère sexuel.
The Guardian
Le 24/02/2023 à 12h34
Le point de départ est qu’on ne peut pas faire confiance aux I.A.
pour prendre des décisions par rapport à notre vie
quand..‘ces Messieurs’ auront (enfin) compris ça, on aura avancé !
(ce n’est pas faute de leur avoir dit et répété )
Le 23/02/2023 à 06h03
Mon avis perso est que tout processus de décision non documenté est arbitraire, quoi que peuvent dire leurs promoteurs pour s’en défendre.
Qu’il s’agisse de statistiques ou d’IA, on est dans le registre de l’aide à la décision, ce sont deux manières d’agréger des données pour rendre une prise de décision possible.
Dès que ses outils seront vu par les incapables comme un moyen de faire faire leur travail par les outils, cela se passse mal.
Le 23/02/2023 à 07h38
Oui j’avais vus un reportage sur cela il y a pas mal d’années. Un entreprise fournissait un logiciel permettant de donner une probabilité d’accidents avec facilement un 50enes de paramètres (l’écran qu’ils montraient était bourré d’entrées) s’appuyant sur une grosse bdd.
Le 23/02/2023 à 10h08
Les Français veulent des explications …. Madame Miche sans doute ? 😁
Le 23/02/2023 à 12h40
En quoi ne serait-elle pas en droit d’exiger des explications sur la façon dont une décision automatisée a impacté sa vie ?
L’article 22 du RGPD donne le droit aux personnes de refuser de faire l’objet d’une décision automatisée lorsque celles-ci affectent de manière significative ou produisent des effets juridiques et oblige au responsable du traitement de mettre les moyens nécessaire pour faire intervenir un humain ou donner la possibilité de contester la décision.
Le 24/02/2023 à 10h57
Ça ne s’appellerait pas l’inflation ? Question bête, mais pourquoi demander à réévaluer ton contrat à chaque déménagement, si tu as signé un contrat dans la pompât en 2000, pourquoi le faire réévaluer en arrivant à Paris, ton assurance est valable partout en France…
Le 24/02/2023 à 11h58
Ben si tout de même c’est juste que l’algo est codé différemment. Des lignes de codes dans un cas, une très grosse matrice dans l’autre. La plus grosse différence c’est la compréhension de l’application et la problématique de débogage dans les modèles utilisés.
Le 24/02/2023 à 13h08
C’est obligatoire
Le 24/02/2023 à 19h22
Pour le coup, il y en a un que tu peux déboguer et trouver et corriger un problème de logique…
J’aurais aussi tendance à dire qu’une I.A. n’est pas vraiment un algorithme, dans le sens que ce n’est pas une logique écrite ou connue. On ne sait pas le relire, et passé une certaine taille, on ne sait pas décrire la logique d’un réseau entraîné, en on ne sait pas justifier pourquoi l’I.A. a répondu un truc plutôt qu’un autre.
La logique du réseau de neurone se décorrèle tellement du problème qu’on ne peut plus parler d’une logique appliquée au dit problème.
Le 24/02/2023 à 19h26
doublon
Le 25/02/2023 à 13h04
Pas tout à fait. Dans un réseau de neurones les règles sont relativement simples (sommation des polarisation et dépolarisation dans l’espace et le temps, seuil de dépolarisation). Le neurone traite au fond des opérations élémentaires, certes plus complexe qu’un transistor. C’est “juste” que la complexité d’un gros réseau devient extrêmement élevée et n’est pas accessible à nous même ou aux ordinateurs. Ce qu’ils font répond bien à la définition d’un algorithme dans le sens où il collectent des informations et produisent quelque chose derrière.
Le 25/02/2023 à 23h46
Dans l’absolu, je dirais oui… il y a une logique, mais elle nous échappe, elle n’a pas été créée directement et il n’est pas certain qu’un réseau entraîné résolve exactement le problème qu’on tente de lui faire résoudre.
Il y a une déconnexion entre l’objectif fixé et ce que l’apprentissage produit.
Si on reprend la définition “Un algorithme est une suite finie et non ambiguë d’instructions et d’opérations permettant de résoudre une classe de problèmes”, je pense que l’I.A. pose justement des problèmes par rapport à cette définition car il y a ambiguïté sur le contenu des instructions et la capacité de résolution.
Le 26/02/2023 à 10h14
Un algorithme est une suite finie et non ambiguë d’instructions
“c’est bon..on a trouvé le coupable” !!!
Le 26/02/2023 à 22h48
Et? Ne pas comprendre comme fonctionne une chose n’implique pas que cette chose ne rentre pas dans certaines définitions.
Peut être qu’il faut revoir la définition pour la complexifier un peut. Après tout l’algorithmie c’est construite avec un modèle informatique binaire alors cela doit il être équivalent pour des systèmes non discrets et non linéaires ?
Le 27/02/2023 à 11h21
Ces “Algorythmes” sont construits de la même manière que les dissertations de notre période scolaire :
1 : Conclusion
2 : Discussion
3 : Introduction
Il ne faut donc pas s’étonner que le prix d’une assurance soit toujours plus chère ou qu’un bachelier ne trouve pas d’affectation satisfaisante pour son cycle Universitaire.
Le 27/02/2023 à 20h42
Je ne sais pas si les assureurs connaissent les stats et leurs métiers comme disent certains mais personnellement ceux que j’ai contacté sont des abrut.. finis.
J’appelle pour demander un devis d’une nouvelle voiture, il me demande mon adresse et j’ai déménagé de quelques kilomètres. Monsieur c 2 euros plus chère.
Je lui rappel que j’appelle pour comparer avec une nouvelle assurance il me répond qu’il doit m’augmenter avant de me proposer un devis.
A ce demander ou il embauche ces touristes.
Bref ils on gagné 2 euros sur 1mois et perdu une assurance a 600, belle réussite commerciale