Un sénateur veut une responsabilité directe des plateformes mettant en œuvre des traitements algorithmiques

Un sénateur veut une responsabilité directe des plateformes mettant en œuvre des traitements algorithmiques

Un sénateur veut une responsabilité directe des plateformes mettant en œuvre des traitements algorithmiques

Claude Malhuret veut modifier le régime de responsabilité des plateformes. Dans un amendement déposé sur le projet de loi Séparatisme, le sénateur entend durcir le statut juridique des hébergeurs comme Facebook ou Twitter.

Aujourd’hui, en substance, ces acteurs engagent leur responsabilité mais seulement s’ils ignorent les notifications portant sur des contenus dits manifestement illicites.

L’élu de l’Allier aimerait les rendre à l’avenir civilement et pénalement responsables des informations que les plateformes stockent pour mise à disposition du public, du moins dès lors qu’elles effectuent certains traitements sur ces informations.

Ce sont les traitements « par algorithme, modélisation ou tout autre procédé informatique, afin de classer, ordonner, promouvoir, recommander, amplifier, ou modifier de manière similaire la diffusion ou l’affichage de ces informations ».

Seul le choix en faveur de classements chronologiques, alphabétiques, aléatoires, ou fondés « sur la quantité ou la qualité des évaluations attribuées par les utilisateurs » leur permettrait de rester sous la coupole du régime de l’hébergeur.

Pour Claude Malhuret, « le régime actuel de responsabilité ne se justifie que si la plateforme en question se limite effectivement à un simple rôle d’hébergeur et n’opère pas de classement complexe de présentation destiné à favoriser certains contenus par rapport à d’autres. Dès lors que la plateforme sort de son rôle d’hébergeur, elle doit être considérée comme responsable des contenus qu’elle diffuse ».

Rappelons néanmoins que :

  • Le droit européen fixé par la directive de 2000 sur le commerce électronique ne consacre pas un tel régime, ni même le futur Digital Services Act.
  • La mise en œuvre d’un traitement algorithmique ne permet en rien de déduire la connaissance de l’illicéité du contenu mis en ligne par un internaute tiers.

Et enfin, des millions de contenus sont mis en ligne chaque jour sur leurs infrastructures.

Commentaires (17)


Et ben même une recherche par mot clef mettrait votre âme en péril….


Je ne pense pas que les recherches soient concernées, parce qu’elles sont réalisées par l’utilisateur.
Par contre l’affichage des résultats de recherche devra respecter les critères de tri…


Si ça c’est pas un cavalier législatif… décidément ils mettent tout et n’importe quoi dans leur projet de loi Séparatisme…


Sans commenter la façon de faire, l’idée est intéressante car ça responsabiliserait un peu les GAFAM et consors. Par contre l’image d’illustration exagère un peu la complexité des algos, qui doivent ressembler plutôt à :




si (le_gugusse.aime("complot")) alors présenter_vidéos(recherche("complot"))




Je ne vise personne.
:fumer:


J’avoue que la proposition n’est pas si insensée que cela. car effectivement il y a une grosse différence entre un hébergeur qui propose un service (ou une infra) pour que des personnes mettent disposition du contenu (site web, image, ou messages) et un “acteur” qui va analyser tous les contenus et faire en sorte de filtrer (appliquer des algos) leur propagation afin de les promouvoir, les “cacher”, utiliser l’analyse comportementale de l’utilisateur pour adapter la diffusion…
Autant les premiers il faut effectivement les protéger, autant les seconds du fait des traitements appliqués ont une responsabilité (jusqu’à quel niveau?) sur ce qui est diffusé


En effet, ce n’est pas insensée.
Le gros soucis des algorithmes n’est-il pas d’enfermer l’utilisateur dans une bulle (peu importe la bulle) ? Et quand il n’y a plus de diversité de l’information … il y a un problème !



DanLo a dit:


Si ça c’est pas un cavalier législatif… décidément ils mettent tout et n’importe quoi dans leur projet de loi Séparatisme…




L’objectif, c’est sans doute de viser l’algorithme de youtube qui suggère des vidéos de décapitations de daesh si ton historique contient des trucs un peu fanatiques.


ça je l’avais bien compris, et dans l’idée ça semble pas déconnant voire plutôt bien vu !



Maintenant dans les faits, quand on lit le truc, c’est tellement vague et général que ça pourrait s’appliquer à tout et n’importe quoi, et envers n’importe quel type de contenu…. ben là je dis bon courage.



Je dirais même que dans l’idéal en fait, il faudrait proposer aux utilisateurs de pouvoir choisir d’avoir des résultats de recherche sous algorithme préférentiel ou bien sous simple niveau de relevance* aux mots recherchés + tri (alphabétique, chronologique, épidémiologique, je vous laisse choisir…).




  • désolé pour l’anglicisme, j’ai pas l’équivalent français… “pertinence” ??


Cette proposition parait censée.



Dans les faits, très peu de plateformes aujourd’hui ne se limitent qu’à de simples tris maitrisables par l’utilisateur, et c’est une plaie. Il me semble par exemple que dans les début de Facebook, nous avions effectivement tous les posts de nos amis (il n’y avait pour ainsi dire aucun créateur de contenu pro en dehors des annonces de FB lui-même) dans l’ordre chronologique de publication sur chacun de ce que nous appelions des “murs”. Et c’était bien mieux.



Mais si on pousse le raisonnement de monsieur Malhuret, aucun de nos bons vieux forums ni aucun de nos hébergeurs de torrents favoris de permettant que de simples tris alphabétiques ou par Taille / Date / Seeder ne seraient plus pénalement responsables de leur contenus non signalés?



ImpactID a dit:


Mais si on pousse le raisonnement de monsieur Malhuret, aucun de nos bons vieux forums ni aucun de nos hébergeurs de torrents favoris de permettant que de simples tris alphabétiques ou par Taille / Date / Seeder ne seraient plus pénalement responsables de leur contenus non signalés?




Pour un message donné, oui.



Mais si le site est dédié à ce genre de partages, je suis sûr qu’il sera quand même responsable (pas d’un message en particulier, mais pour l’ensemble de l’œuvre :transpi: ).


Ca a l’air d’être une bonne idée en effet mais il faut clairement être plus précis…



Par exemple, Reddit classe les commentaires d’un sujet par score, mais qui est pondéré selon le nombre de votes avec un intervalle de fluctuation (ou de confiance, je ne sais plus) : https://www.evanmiller.org/how-not-to-sort-by-average-rating.html



Est-ce que ce serait considéré comme algorithme (car c’est un traitement mathématique un peu plus compliqué qu’une addition/soustraction) ou pas (car ça ne se base que sur des actions utilisateur) ?



fondés « sur la quantité ou la qualité des évaluations attribuées par les utilisateurs »




Donc ça devrait passer.



Donc si tu proposes une recherche triée par nombre de vues, t’es plus hébergeur ?



:keskidit:


schizophrène cette histoire, diaboliser les “traitements « par algorithme, modélisation ou tout autre procédé informatique, afin de classer, ordonner, promouvoir, recommander, amplifier, ou modifier de manière similaire la diffusion ou l’affichage de ces informations »”, alors qu’on vient d’autoriser la publicité ciblée



Mihashi a dit:


Donc ça devrait passer.




Sauf que c’est un non sens. Comment voulez-vous avoir des avis qualitatifs sur des milliards de pages Oueb? Et puis bon on oubli les analyses sémantiques pour ne pas rentrer dans les clous ? Comment faire un retour arrière sur la recherche de contenu….


Lire le message auquel il répondait. Sa réponse est valide. Il s’agit d’autoriser le classement de commentaires en fonction de votes comme sur reddit pas de classer tout le WEB.



fred42 a dit:


Lire le message auquel il répondait. Sa réponse est valide. Il s’agit d’autoriser le classement de commentaires en fonction de votes comme sur reddit pas de classer tout le WEB.




En fait toujours pas… Sur de faibles volumétries ça peut se faire mais sur des millions de pages par jours avec juste l’avis des autres sur lesdites pages… Et puis utiliser le critère de l’avis des autres utilisateurs n’est pas d’une grande pertinance


Fermer