Une sénatrice propose de créer une « autorité de régulation des algorithmes »
Le 01 juillet 2019 à 09h43
1 min
Droit
Droit
Au travers d’une question écrite à l’attention du secrétaire d’État au Numérique, Cédric O, la sénatrice Joëlle Garriaud-Maylam (LR) regrette que « contrairement au domaine des biotechnologies avec le haut conseil des biotechnologies », aucune autorité n'existe en matière d’algorithmes.
« Omniprésents et invisibles, [les algorithmes] produisent des normes et font la loi en dehors du champ législatif parlementaire », s’inquiète l’élue. Ajoutant : « Les algorithmes – nouvelles formes de technocratie – sont conçus pour être impénétrables et s'abritent derrière le besoin de préserver des secrets industriels et technologiques, ainsi que le secret des affaires. »
Au regard des obligations de transparence en vigueur en France au sujet des algorithmes (notamment ceux des plateformes, de type moteur de recherche), Joëlle Garriaud-Maylam demande si « la création d'une autorité de régulation des algorithmes est prévue » par le gouvernement.
Le 01 juillet 2019 à 09h43
Commentaires (33)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 01/07/2019 à 08h50
je ne comprends pas.
Je croyais qu’un algo servait justement à mettre en oeuvre une règle et non l’inverse.
Le 01/07/2019 à 09h08
Bordel ça m’énerve cette utilisation du mot “algorithme”. C’est très noble à la base, et on le réduit à ce qu’en font, dans certaines cas, certains acteurs.
Comme si on voulait limiter ou réguler les équations, sous prétexte qu’elles sont capables de décrire la trajectoire d’un obus.
Et dire que “les algorithmes sont conçus pour être impénétrables…” " />
Le 01/07/2019 à 09h09
C’est dommage qu’elle fasse montre d’une méconnaissance de ce qu’est un algorithme, parce que je trouve l’idée pas idiote et a creuser.
Le 01/07/2019 à 09h13
Le but serait de faire en sorte que les algos respectent la règle, justement.
J’sais pas du tout comment ça pourrait se concrétiser… parce que pognon > secret industriel > le reste.
On va remettre en question notre culture économique ? Naaaaaaaaaaaaaaan ?!
EDIT : Bon moi j’ai compris que par abus de langage la nana parle aussi du code qui concrétise les algos… Ou alors elle est effectivement à la ramasse.
Le 01/07/2019 à 09h15
J’ai l’impression de revoir le film Babar. Un problème ? Vite, créons une commission!
Le 01/07/2019 à 09h17
Ça s’appelle faire une recette.
Pas besoin d’une quelconque haute autorité.
Le 01/07/2019 à 09h23
En fait il faudrait créer un algorithme pour réguler les algorithmes épicétou
Le 01/07/2019 à 09h26
Comme mon banquier qui me dit “je peux pas, c’est l’informatique mais promis je voudrais vous aider”.
recoding a écrit :
Comme si on voulait limiter ou réguler les équations, sous prétexte qu’elles sont capables de décrire la trajectoire d’un obus.
Bah, par idéologie on est capable de tout!
Le 01/07/2019 à 09h26
On parle de respecter les lois, là. Pas n’importe quel cahier des charges.
Le 01/07/2019 à 09h29
Le 01/07/2019 à 09h33
La base quoi.
S’en est tellement évident que je n’avais pas envisagé cet aspect.
Le 01/07/2019 à 09h39
Le 01/07/2019 à 09h42
En résumé : créer une autorité, composée de gens du métier, qui vérifie tous les codes sources pour s’assurer que ceux-ci respectent la loi.
J’ai bien compris ? :)
Le 01/07/2019 à 09h48
Le 01/07/2019 à 09h49
Le 01/07/2019 à 09h56
La variable mangetesmort inclue dans une boucle commenté pour la #feignasse de stagiaire. " />
Le 01/07/2019 à 09h58
En fait, c’est le principe de l’open source… Une application dont l’algorithmique est vérifiable…
Demander de faire une commission pour certifier les éléments qu’on a autorisé à rester secret par ailleurs (secret des affaires) c’est un peu du foutage de gueule…
mmm il faudrait qu’ils arrêtent de voter n’importe quoi pour ajouter des couches législative pour boucher les trous qu’ils génèrent…
On devrait réduire la loi à un algorithme… chaque vide juridique ajoute un “if else” ou un “case” et on en parle plus… Ça serait probablement plus compréhensible…
Le 01/07/2019 à 09h59
Le 01/07/2019 à 10h03
Dans l’hypothèse où la production de crêpes serait un monopole d’État et la recette un secret d’État… Il faudrait effectivement veiller à ce qu’aucun algorithme diffusé librement ne puisse amener à produire des crêpes ^^’
Mais, comme il est autorisé de produire des crêpes (puisque cela n’est pas interdit), l’État ne mettrait pas son nez dans les recettes de crêpes. Sauf, si, toujours hypothétiquement, les dites recettes viendraient à mettre en danger la vie de personnes (intentionnellement ou non). Si c’est le cas, on est alors là en présence d’une tentative de nuire à l’intégrité physique de personnes, et c’est formellement interdit par la Loi, ou du moins cela représenterait un problème de santé publique. Auquel cas l’État devra s’intéresser aux recettes contrevenantes.
Donc pour ramener cette histoire de recettes à nos algos / programmes. Pour s’intéresser à un algo / programme, il faudrait déjà qu’il y ai un soupçon de rapport à la Loi. Sinon ça… ça ne changera pas la façon qu’on a d’appliquer la Loi habituellement : si ce n’est pas interdit, c’est autorisé.
EDIT : Pour reprendre ton exemple, la Loi (la Justice, par extension) n’interdit pas que l’on trace des simulacres de segments… donc pourquoi elle devrait s’intéresser à cet algo ? Par contre elle interdit la discrimination à l’embauche, et elle pourrait s’intéresser à des algo de filtrage de CV / profils au sein d’agence d’intérim ou au sein de Pôle Emploi. C’est qu’un exemple.
Le 01/07/2019 à 10h23
Avec le machine learning, est-ce qu’elle demande :
Le 01/07/2019 à 10h44
Le 01/07/2019 à 11h49
Mise à jour : Le Point et l’Express auraient proposé à cette sénatrice de devenir rédac’chef, pour le prochain dossier mensuel “Ces algorithmes qui nous gouvernent” (en alternance avec “la place de l’islam en France”, “le classement des lycées/hopitaux”, et “ces assistés qui ruinent la France”).
Le 01/07/2019 à 12h24
avec ton édition, c’est plus clair. Le problème, c’est que la loi doit être suffisamment générale pour pouvoir être appliquée - entre “on va créer une haute autorité des algorithmes” et “on va créer une autorité chargée de s’assurer qu’il n’y a pas de discrimination à l’embauche / à la location de logement / à la validation d’un prêt bancaire / à n’importe quoi”, il y a un monde.
Le problème est qu’aujourd’hui, ce que les médias (et donc cette brave sénatrice) appellent “algorithme”, c’est en fait le résultat de traitements par réseaux de neurones. Pour lesquels connaître l’implémentation précise n’apporte rien, si on n’a pas les données ayant servi à l’entraînement. C’est ça qu’il faudrait réguler ? Comment ? Ou les phases de filtrage qui suivent ? Et comment on pourrait traduire ça en termes juridiques (donc assez larges pour couvrir les besoins futurs et réellement protéger les population d’éventuelles dérives, sans être trop spécifiques pour ne s’occuper que de Google / Amazon / Netflix…) ?
Le 01/07/2019 à 12h48
Ah bah j’suis d’accord derrière l’idée y’a une nébuleuses d’idées plus ou moins farfelues… Mais on devra y venir, au contrôle des traitements informatiques. Pour les IA, il “suffirait” comme quelqu’un l’a dit plus haut, de confronter le résultat statistique d’un traitement aux statistiques attendues. (Bon… ça pose d’autre soucis derrière, comme une limitation humaine imposée à la machine).
Ceci dit, j’imagine qu’on aura au mieux droit à une sorte de CNIL débordée et pas toujours compétente, et que beaucoup, beaucoup, de poissons passeront entre les mailles du filet.
Le 01/07/2019 à 12h58
Bon, c’est de toute évidence très mal formulé et démontre bien la méconnaissance du sujet de la part de nos gouvernants et législateurs, mais ce qui est intéressant c’est qu’au final ça soulève la question de la professionnalisation des métiers de l’informatique. En effet, à travers nos travaux, nous avons accès à des données personnelles au même titre que, par exemple, les médecins, les avocats et les huissiers, mais nous n’avons pas vraiment d’obligation professionnelle au même titre que ceux-ci (bien que des soucis pros et légaux peuvent en découler).
Alors c’est super mal formulé comme ça, mais c’est une question qui mérite tout de même d’être recadrée et débattue.
Le 01/07/2019 à 14h11
Il y a aussi le coup de la liste des libellés sur la machine de qualif qui est changée pour “rigoler” et le jour d’une présentation on décide de partir de cette machine pour la démo parce que c’est plus pratique.
Et paf, le client qui ne rigole pas. Etrange..
Le 01/07/2019 à 14h25
Le 01/07/2019 à 16h55
Je suis pas sur que ce soit “la” ni “une” réponse, mais en tout cas sans règles morales, sans jugement, sans torsion d’algo, etc. il existe une méthode archi-connue, c’est la mutualisation du risque en question (le défaut de solvabilité). Sans être expert, ça doit bien pour voir se calculer : on définit une prime à faire payer à tous (obligatoirement à tous) qui compense le risque spécifique présenté par une part de la population, de sorte que soit rétablit l’équilibre des risques de solvabilité pour l’ensemble de la population.
Ceci dit, c’est clair qu’il faut creuser soigneusement le thème des données fournies aux IAs, notamment elles ne devraient pas d’après moi être alimentées de données “illégales” (types statistiques raciales ou religieuses ou autres) même lorsque ces données sont scientifiquement appropriées : il y a une différence entre faire de la recherche en sociologie ou anthropologie (ce qui nécessite certaines données, évidemment) ; et alimenter une IA qui risquerait de prendre des décisions discriminantes avec les mêmes données…
Le 01/07/2019 à 18h58
Tiens ça vas pas faire plaisir a notre petite Head Of Innovation chez Google qui parlait de biaisé l’IA derrière Google Search pour faire en sorte qu’un Trump 2020 ne soit plus jamais possible (et même dans d’autre pays). Ce genre de chose pourrait mettre en lumière la manipulation de l’information par ce genre de boite. Polémique de la semaine dernière qui n’a pas été relayé dans les médias. Ici la vidéo et surtout là . Trump, Ted Cruz et le sénateur Crenshaw ayant parler de cette polémique, ça m’étonne toujours que personne n’en à parler. Même pas un mot sur le projet de loi du sénateur Josh Hawley pour forcé les GAFAMs à fournir de l’information politiquement neutre.
Le 02/07/2019 à 08h10
Ah oui, mais la mutualisation prend cher en ce moment, car les gens ne “veulent plus payer pour les autres”. Mutuelles, chômage etc. on se dirige vers plus d’individualisation, ce qui fait perdre son sens à la notion d’assurance. Et algos ou pas, si on décide d’individualiser…
Sur le fait de ne pas entrer de données “illégales” ou sensibles, ce n’est en fait pas une solution, car dans le domaine du bigdata on sait maintenant que des données massives permettent de reconstituer d’autres données (volontairement ou non).
Cela se fait sur des micros recoupements, et ce n’est pas analysable quand c’est des trucs du genre réseaux neuronaux etc., mais pour exprimer le truc en termes (ultra) caricaturaux: “Non, on ne refuse pas les homosexuels, seulement les gens qui écoutent du Mylène Farmer, achètent des vêtements pour un seul sexe alors qu’ils vivent en couple, boivent de la bière parfumée pêche”. Dans la base de donnée, rien de répréhensible, dans le résultat, une discrimination. Dont les auteurs de l’algo et les utilisateurs n’ont peut être même pas conscience.
Le 02/07/2019 à 12h24
Code is law.
Une question d’orgueil ? (« la loi c’est moi ! ») " />
Le 02/07/2019 à 13h37
Le 06/07/2019 à 15h04