Une sénatrice propose de créer une « autorité de régulation des algorithmes »

Une sénatrice propose de créer une « autorité de régulation des algorithmes »

Une sénatrice propose de créer une « autorité de régulation des algorithmes »

Au travers d’une question écrite à l’attention du secrétaire d’État au Numérique, Cédric O, la sénatrice Joëlle Garriaud-Maylam (LR) regrette que « contrairement au domaine des biotechnologies avec le haut conseil des biotechnologies », aucune autorité n'existe en matière d’algorithmes.

« Omniprésents et invisibles, [les algorithmes] produisent des normes et font la loi en dehors du champ législatif parlementaire », s’inquiète l’élue. Ajoutant : « Les algorithmes – nouvelles formes de technocratie  sont conçus pour être impénétrables et s'abritent derrière le besoin de préserver des secrets industriels et technologiques, ainsi que le secret des affaires. »

Au regard des obligations de transparence en vigueur en France au sujet des algorithmes (notamment ceux des plateformes, de type moteur de recherche), Joëlle Garriaud-Maylam demande si « la création d'une autorité de régulation des algorithmes est prévue » par le gouvernement.

Commentaires (34)


je ne comprends pas.

Je croyais qu’un algo servait justement à mettre en oeuvre une règle et non l’inverse.


Bordel ça m’énerve cette utilisation du mot “algorithme”. C’est très noble à la base, et on le réduit à ce qu’en font, dans certaines cas, certains acteurs.



Comme si on voulait limiter ou réguler les équations, sous prétexte qu’elles sont capables de décrire la trajectoire d’un obus.



Et dire que “les algorithmes sont conçus pour être impénétrables…” <img data-src=" />


C’est dommage qu’elle fasse montre d’une méconnaissance de ce qu’est un algorithme, parce que je trouve l’idée pas idiote et a creuser.


Le but serait de faire en sorte que les algos respectent la règle, justement.



J’sais pas du tout comment ça pourrait se concrétiser… parce que pognon &gt; secret industriel &gt; le reste.

On va remettre en question notre culture économique ? Naaaaaaaaaaaaaaan ?!



EDIT : Bon moi j’ai compris que par abus de langage la nana parle aussi du code qui concrétise les algos… Ou alors elle est effectivement à la ramasse.


J’ai l’impression de revoir le film Babar. Un problème ? Vite, créons une commission!


Ça s’appelle faire une recette.

Pas besoin d’une quelconque haute autorité.


En fait il faudrait créer un algorithme pour réguler les algorithmes épicétou



Comme mon banquier qui me dit “je peux pas, c’est l’informatique mais promis je voudrais vous aider”.





recoding a écrit :

Comme si on voulait limiter ou réguler les équations, sous prétexte qu’elles sont capables de décrire la trajectoire d’un obus.



Bah, par idéologie on est capable de tout!


On parle de respecter les lois, là. Pas n’importe quel cahier des charges.








barthous a écrit :



je ne comprends pas.

Je croyais qu’un algo servait justement à mettre en oeuvre une règle et non l’inverse.





Techniquement, l’algorithme est l’endroit où tu définis les “règles”: tu décris de manière générique comment résoudre un problème. La mise en œuvre (“l’implémentation”, mais ce dernier est un anglicisme) est le moment où tu prends ton algo et que tu l’écris dans une quelconque langage exécutable.



En France, tu ne peux pas protéger un algo, il n’y a aucun brevet, droit d’auteur ni rien d’autre qui puissent protéger un algo. Cependant, tu peux protéger un logiciel qui met en oeuvre un algo.



Mais je t’avoue que dans l’article, je ne comprend pas du tout de quoi ils parlent ici. J’ai l’impression d’entendre un mec qui n’y pige quedale, mais il a entendu ce mot là aux infos.



La base quoi.

S’en est tellement évident que je n’avais pas envisagé cet aspect.








recoding a écrit :



Et dire que “les algorithmes sont conçus pour être impénétrables…” <img data-src=" />

&nbsp;



ben… quand tu vois la manière dont certains les implémentent, tu te dis que c’est sans doute le cas <img data-src=" />

&nbsp;





Kevsler a écrit :



On parle de respecter les lois, là. Pas n’importe quel cahier des charges.





Je ne comprends pas ce que tu veux dire, là… En pratique, cette commission devrait réguler quoi ? Ça ? Ça ? Ou plutôt ça ? Ces 3 exemples sont des algorithmes, et il y en a d’autres ici



En résumé : créer une autorité, composée de gens du métier, qui vérifie tous les codes sources pour s’assurer que ceux-ci respectent la loi.



J’ai bien compris ? :)








RévolutioN a écrit :



La France, toujours leader en réglementation !

Développeurs, bientôt vous devrez faire certifier chacune de vos lignes de code par une haute autorité administrative.





fini les insultes dans le code mort, fini les noms de variables a la con ….

(je dis ça mais en réalité j’ai jamais vu ça , hormis quand tu débugges tu t’amuses comme tu peux)









JoePike a écrit :



En fait il faudrait créer un algorithme pour réguler les algorithmes épicétou





ça existe déjà, non ?

Genre par exemple sur le trafic réseau : tu as X abonnés sur YT ou NF qui veulent du débit (donc le lecteur contient un algo qui régule la qualité de la vidéo selon le débit accessible) ; le tout à travers X fibres optiques sous-marines elles-mêmes régulés par d’autres algos, etc.

Sans oublier que si ton compte arrive à découvert, c’est encore d’autres algos qui régulent ta coupure d’abonnement NF et internet, ainsi que l’envoi du recommandé pour te faire payer les frais de découvert…

❔❕



La variable mangetesmort inclue dans une boucle commenté pour la #feignasse de stagiaire. <img data-src=" />


En fait, c’est le principe de l’open source… Une application dont l’algorithmique est vérifiable…



Demander de faire une commission pour certifier les éléments qu’on a autorisé à rester secret par ailleurs (secret des affaires) c’est un peu du foutage de gueule…



mmm il faudrait qu’ils arrêtent de voter n’importe quoi pour ajouter des couches législative pour boucher les trous qu’ils génèrent…



On devrait réduire la loi à un algorithme… chaque vide juridique ajoute un&nbsp; “if else” ou un “case” et on en parle plus… Ça serait probablement plus compréhensible…








anagrys a écrit :



ben… quand tu vois la manière dont certains les implémentent, tu te dis que c’est sans doute le cas <img data-src=" />

&nbsp;



C’est pas !True

&nbsp;

Oui bon je <img data-src=" />



Dans l’hypothèse où la production de crêpes serait un monopole d’État et la recette un secret d’État… Il faudrait effectivement veiller à ce qu’aucun algorithme diffusé librement ne puisse amener à produire des crêpes ^^’



Mais, comme il est autorisé de produire des crêpes (puisque cela n’est pas interdit), l’État ne mettrait pas son nez dans les recettes de crêpes. Sauf, si, toujours hypothétiquement, les dites recettes viendraient à mettre en danger la vie de personnes (intentionnellement ou non). Si c’est le cas, on est alors là en présence d’une tentative de nuire à l’intégrité physique de personnes, et c’est formellement interdit par la Loi, ou du moins cela représenterait un problème de santé publique. Auquel cas l’État devra s’intéresser aux recettes contrevenantes.



Donc pour ramener cette histoire de recettes à nos algos / programmes. Pour s’intéresser à un algo / programme, il faudrait déjà qu’il y ai un soupçon de rapport à la Loi. Sinon ça… ça ne changera pas la façon qu’on a d’appliquer la Loi habituellement : si ce n’est pas interdit, c’est autorisé.



EDIT : Pour reprendre ton exemple, la Loi (la Justice, par extension) n’interdit pas que l’on trace des simulacres de segments… donc pourquoi elle devrait s’intéresser à cet algo ? Par contre elle interdit la discrimination à l’embauche, et elle pourrait s’intéresser à des algo de filtrage de CV / profils au sein d’agence d’intérim ou au sein de Pôle Emploi. C’est qu’un exemple.


Avec le machine learning, est-ce qu’elle demande :




  • la transparence sur l’algo qui génère le modèle? Ca va pas vraiment aider je pense…

  • la transparence sur le modèle entraîné? Souvent imbitable, et amené à changer dans le temps, en fonction des données utilisées pour l’entraînement.

  • la transparence sur les décisions prises par le modèle entraîné? Là il y a peut-être quelque chose à faire. D’ailleurs ça a l’air de correspondre à ce qu’elle veut vraiment : “Tout opérateur de plateforme en ligne est tenu de délivrer au consommateur une information loyale, claire et transparente sur les modalités de référencement, de classement et de déréférencement des contenus, des biens ou des services auxquels il permet d’accéder”










monpci a écrit :



[quote:6126030:monpci]

fini les insultes dans le code mort, fini les noms de variables a la con ….

(je dis ça mais en réalité j’ai jamais vu ça , hormis quand tu débugges tu t’amuses comme tu peux)



si t’en a jamais vu va regarder du côté des sources des allocations familiales https://m.nextinpact.com/news/106298-les-allocations-familales-nous-ouvrent-code…



Sinon dans mes sources j’offre des apéros à ceux qui me corrigent des bugs que j’ai du contourner ^^



Edith: double quote.



Mise à jour : Le Point et l’Express auraient proposé à cette sénatrice de devenir rédac’chef, pour le prochain dossier mensuel “Ces algorithmes qui nous gouvernent” (en alternance avec “la place de l’islam en France”, “le classement des lycées/hopitaux”, et “ces assistés qui ruinent la France”).


avec ton édition, c’est plus clair. Le problème, c’est que la loi doit être suffisamment générale pour pouvoir être appliquée - entre “on va créer une haute autorité des algorithmes” et “on va créer une autorité chargée de s’assurer qu’il n’y a pas de discrimination à l’embauche / à la location de logement / à la validation d’un prêt bancaire / à n’importe quoi”, il y a un monde.

Le problème est qu’aujourd’hui, ce que les médias (et donc cette brave sénatrice) appellent “algorithme”, c’est en fait le résultat de traitements par réseaux de neurones. Pour lesquels connaître l’implémentation précise n’apporte rien, si on n’a pas les données ayant servi à l’entraînement. C’est ça qu’il faudrait réguler ? Comment ? Ou les phases de filtrage qui suivent ? Et comment on pourrait traduire ça en termes juridiques (donc assez larges pour couvrir les besoins futurs et réellement protéger les population d’éventuelles dérives, sans être trop spécifiques pour ne s’occuper que de Google / Amazon / Netflix…) ?


Ah bah j’suis d’accord derrière l’idée y’a une nébuleuses d’idées plus ou moins farfelues… Mais on devra y venir, au contrôle des traitements informatiques. Pour les IA, il “suffirait” comme quelqu’un l’a dit plus haut, de confronter le résultat statistique d’un traitement aux statistiques attendues. (Bon… ça pose d’autre soucis derrière, comme une limitation humaine imposée à la machine).



Ceci dit, j’imagine qu’on aura au mieux droit à une sorte de CNIL débordée et pas toujours compétente, et que beaucoup, beaucoup, de poissons passeront entre les mailles du filet.


Bon, c’est de toute évidence très mal formulé et démontre bien la méconnaissance du sujet de la part de nos gouvernants et législateurs, mais ce qui est intéressant c’est qu’au final ça soulève la question de la professionnalisation des métiers de l’informatique. En effet, à travers nos travaux, nous avons accès à des données personnelles au même titre que, par exemple, les médecins, les avocats et les huissiers, mais nous n’avons pas vraiment d’obligation professionnelle au même titre que ceux-ci (bien que des soucis pros et légaux peuvent en découler).



Alors c’est super mal formulé comme ça, mais c’est une question qui mérite tout de même d’être recadrée et débattue.


Il y a aussi le coup de la liste des libellés sur la machine de qualif qui est changée pour “rigoler” et le jour d’une présentation on décide de partir de cette machine pour la démo parce que c’est plus pratique.

Et paf, le client qui ne rigole pas. Etrange..








Kevsler a écrit :



Ah bah j’suis d’accord derrière l’idée y’a une nébuleuses d’idées plus ou moins farfelues… Mais on devra y venir, au contrôle des traitements informatiques. Pour les IA, il “suffirait” comme quelqu’un l’a dit plus haut, de confronter le résultat statistique d’un traitement aux statistiques attendues. (Bon… ça pose d’autre soucis derrière, comme une limitation humaine imposée à la machine).





Avec le joyeux problème des comportements humains reproduits par les machines (déjà rencontré par des IA) ou de la discrimination objective: Si une catégorie de la population est jugée moins solvable pour un emprunt par un algo, et qu’on prouve que c’est scientifiquement juste, on fait quoi? On applique des règles morales (Juger les différences oui, mais sans aboutir à des classes de populations distinguant l’origine, l’orientation sexuelle…), on tord l’algo (demander à la machine de juger la solvabilité, mais sans prendre en compte… les différences entre les gens), on finit par dire qu’on ne peut rien juger sans discriminer…



Je suis pas sur que ce soit “la” ni “une” réponse, mais en tout cas sans règles morales, sans jugement, sans torsion d’algo, etc. il existe une méthode archi-connue, c’est la mutualisation du risque en question (le défaut de solvabilité). Sans être expert, ça doit bien pour voir se calculer : on définit une prime à faire payer à tous (obligatoirement à tous) qui compense le risque spécifique présenté par une part de la population, de sorte que soit rétablit l’équilibre des risques de solvabilité pour l’ensemble de la population.

Ceci dit, c’est clair qu’il faut creuser soigneusement le thème des données fournies aux IAs, notamment elles ne devraient pas d’après moi être alimentées de données “illégales” (types statistiques raciales ou religieuses ou autres) même lorsque ces données sont scientifiquement appropriées : il y a une différence entre faire de la recherche en sociologie ou anthropologie (ce qui nécessite certaines données, évidemment) ; et alimenter une IA qui risquerait de prendre des décisions discriminantes avec les mêmes données…


Tiens ça vas pas faire plaisir a notre petite Head Of Innovation chez Google qui parlait de biaisé l’IA derrière Google Search pour faire en sorte qu’un Trump 2020 ne soit plus jamais possible (et même dans d’autre pays). Ce genre de chose pourrait mettre en lumière la manipulation de l’information par ce genre de boite. Polémique de la semaine dernière qui n’a pas été relayé dans les médias. Ici la vidéo&nbsp;et surtout&nbsp;là&nbsp;. Trump, Ted Cruz et le sénateur Crenshaw ayant parler de cette polémique, ça m’étonne toujours que personne n’en à parler. Même pas un mot sur le projet de loi du sénateur Josh Hawley pour forcé les GAFAMs à fournir de l’information politiquement neutre.&nbsp;


Ah oui, mais la mutualisation prend cher en ce moment, car les gens ne “veulent plus payer pour les autres”. Mutuelles, chômage etc. on se dirige vers plus d’individualisation, ce qui fait perdre son sens à la notion d’assurance. Et algos ou pas, si on décide d’individualiser…



Sur le fait de ne pas entrer de données “illégales” ou sensibles, ce n’est en fait pas une solution, car dans le domaine du bigdata on sait maintenant que des données massives permettent de reconstituer d’autres données (volontairement ou non).

Cela se fait sur des micros recoupements, et ce n’est pas analysable quand c’est des trucs du genre réseaux neuronaux etc., mais pour exprimer le truc en termes (ultra) caricaturaux: “Non, on ne refuse pas les homosexuels, seulement les gens qui écoutent du Mylène Farmer, achètent des vêtements pour un seul sexe alors qu’ils vivent en couple, boivent de la bière parfumée pêche”. Dans la base de donnée, rien de répréhensible, dans le résultat, une discrimination. Dont les auteurs de l’algo et les utilisateurs n’ont peut être même pas conscience.


Code is law.



Une question d’orgueil ? (« la loi c’est moi ! ») <img data-src=" />








recoding a écrit :



Ah oui, mais la mutualisation prend cher en ce moment, car les gens ne “veulent plus payer pour les autres”. Mutuelles, chômage etc. on se dirige vers plus d’individualisation, ce qui fait perdre son sens à la notion d’assurance. Et algos ou pas, si on décide d’individualiser…





C’est de l’anarchie, pas de l’individualisme. Petite “comparaison” : outre-atlantique ils en sont encore à réfléchir aux compensations dues aux esclaves… morts depuis des lustres, au final… eh bien au final c’est plus cher, beaucoup plus cher, il valait mieux payer décemment les employés à l’époque au lieu de les fouetter…!

Mais bon faut pas trop se leurrer : en occident on préfère l’argent facile 🤑💲💰🤮 <img data-src=" />





recoding a écrit :



Sur le fait de ne pas entrer de données “illégales” ou sensibles, ce n’est en fait pas une solution, car dans le domaine du bigdata on sait maintenant que des données massives permettent de reconstituer d’autres données (volontairement ou non).

Cela se fait sur des micros recoupements, et ce n’est pas analysable quand c’est des trucs du genre réseaux neuronaux etc., mais pour exprimer le truc en termes (ultra) caricaturaux: “Non, on ne refuse pas les homosexuels, seulement les gens qui écoutent du Mylène Farmer, achètent des vêtements pour un seul sexe alors qu’ils vivent en couple, boivent de la bière parfumée pêche”. Dans la base de donnée, rien de répréhensible, dans le résultat, une discrimination. Dont les auteurs de l’algo et les utilisateurs n’ont peut être même pas conscience.





Bah alors il faut interdire Mylène Farmer et la bière à la pêche ! <img data-src=" /> 🍺

Sinon c’est bien ce que je voulais dire : il ne faut pas faire tourner l’IA qui décide du taux du crédit avec des données massives, mais sélectionner quelles infos peuvent être pertinentes et non-discriminantes ; c’est le plus “logique” dans le cas général, puisque hormis l’exemple du crédit/emprunt ; on ne peut pas faire de mutualisation dans la plupart des cas (ex.: embauche, logement).

Après comment tu peux avoir conscience qu’une IA qui aurait tourné avec des mégadonnées aurait commis une discrimination envers les homosexuels ? Le seul moyen est de savoir que les homos discriminés sont des homos discriminés, donc ça ne peut pas se vérifier sans une intrusion abusivement illégale (et malpolie) dans la vie privée de tous, pas uniquement les discriminés, puisqu’il faut analyser tout pour savoir que certains l’ont été.

Bref, y’a pas moyen de faire une IA légale qui prendrait ce genre de décision sans lui filtrer les données avant. Et effectivement, vu la quantité de données à filtrer, il faut une IA pour le faire. Donc on tourne en rond. Donc pas d’IA et puis c’est tout. Ou alors on les limite aux seules questions financières à propos desquelles on peut, après calcul de son montant et mutualisation, “corriger” le biais discriminant… ?









jayr0m a écrit :



On devrait réduire la loi à un algorithme… chaque vide juridique ajoute un “if else” ou un “case” et on en parle plus… Ça serait probablement plus compréhensible…





Oui, d’ailleurs y a besoin d’un bon gros refactoring <img data-src=" />



Fermer