Connexion
Abonnez-vous

[Interview] Proposition de loi contre la cyberhaine : les inquiétudes de Tech In France

Liberté d'expression et justice privée

[Interview] Proposition de loi contre la cyberhaine : les inquiétudes de Tech In France

Le 03 juillet 2019 à 09h12

Tech In France, par la voix de son délégué général Loic Rivière, revient sur les inquiétudes soulevées par la proposition de loi contre la cyberhaine. Comme l’Asic et Syntec Numerique, ce représentant des acteurs du numérique craint des atteintes à la liberté d’expression et d’information.

La proposition de loi Avia entamera son examen en séance aujourd’hui à 15 h à l’Assemblée nationale. Deux piliers dans ce dispositif. Le premier, une vaste liste de contenus illicites que devront supprimer les plateformes en 24 heures, sous peine d’amende pénale pouvant atteindre 1,25 millions d’euros. Sont concernés Twitter, Facebook, Dailymotion, YouTube, mais également les moteurs de recherches, notamment. 

Le second, des pouvoirs étendus au profit du CSA qui va devenir leur régulateur. L'autorité administrative pourra même leur infliger des sanctions d’un montant maximum de 4 % de leur chiffre d’affaires mondial en cas de mauvaise coopération, en particulier si ces intermédiaires n'appliquent pas à la lettre ses recommandations. 

Hier, Tech In France, association représentant 400 entreprises du secteur du numérique, a cosigné un appel avec l’Asic et Syntec Numérique pour exprimer ses inquiétudes. Loïc Rivière, son délégué général, nous en explique les raisons. 

Comment les entreprises du secteur que vous représentez accueillent cette proposition de loi ?

Nous n’avons aucune opposition de principe, bien au contraire, sur le fait qu’un texte législatif organise un nouveau dispositif de protection des victimes de la haine en ligne. Pas d’opposition non plus à responsabiliser davantage les plateformes au regard des dispositions antérieures, celles-ci ayant démontré leur inefficacité face à un sujet grave.

En revanche, l’accueil est bien plus frileux au regard des dernières évolutions du texte. Elles en changent complètement la perspective et la portée. D’un texte spécial initialement centré sur la haine en ligne, on aboutit à une proposition de loi de portée beaucoup plus générale.

Que visez-vous en particulier ?

Le périmètre de départ, notamment couplé à ce retrait en 24 heures, innovation majeure de ce texte, a été considérablement élargi en commission des lois en se référant à la LCEN.

Nous sommes passés d’un texte qui visait spécifiquement la cyberhaine – un registre où on peut identifier les victimes, les coupables, dans un univers sémantique relativement défini qui sécurisait en partie les plateformes – à des éléments qui relèvent davantage de la morale publique, des mœurs, de conceptions de la société.

Je veux bien sûr parler de la pornographie, lorsqu’elle est accessible aux mineurs, du proxénétisme et d’autres éléments issus de la LCEN qui vont densifier considérablement le nombre de « contenus gris », ces contenus non manifestement illicites, mais qui en l’espèce relèvent davantage de la morale publique.

Quand on cumule ce périmètre étendu à des questions relevant de la morale publique, le retrait en 24 heures, le fait que les moteurs de recherche, qui sont le visage public d’internet, soient intégrés… tout cela fait peser un risque sur la liberté d’expression et d’information, en confiant des responsabilités exorbitantes aux plateformes.

Peut-on craindre la dérive vers une forme de justice privée, accentuée par cette évolution ?

On peut le craindre en effet. Les plateformes risquent de se retrouver prises dans un étau. D’un côté, la menace de sanctions considérables si elles n’assument pas efficacement ces nouvelles responsabilités. Et de l’autre, la tentation d’appliquer un principe de précaution de retrait sur un certain nombre de contenus dont elles pourraient craindre qu’ils ne soient in fine qualifiés de manifestement illicites et qu’il leur soit donc reproché de ne pas l’avoir retiré.

La viabilité de ce texte ne repose que sur un équilibre fin, un compromis juste entre les responsabilités nouvelles qu’on confie à ces plateformes et les capacités qu’elles auront à les assumer. En étendant considérablement le périmètre, au-delà de l’objet initial de la loi, qui je le rappelle justifiait un régime spécial de retrait, on crée de facto une disproportion entre ces responsabilités et les moyens de les assumer.

Un exemple concret : avec la définition retenue de la « plateforme » et le périmètre nouvellement étendu, des sites spécialisés dans la haine en ligne, qui ont aujourd’hui pignon sur Web, vont probablement ne pas rentrer dans le périmètre parce qu’ils n’atteindront pas le seuil de connexions défini, ou encore parce qu’ils ne pourront être qualités de « plateformes » au regard de la définition posée.

En revanche, les sites pornographiques, qui eux sont des plateformes dont le succès ne s’est pas démenti à travers l’histoire…entreront de facto dans la catégorie couverte. On peut tout à fait imaginer que des associations, pour des raisons de conception de la morale publique qui est la leur, demandent leur interdiction et déréférencement au motif que leur accès est trop aisé pour certains publics.

On pourrait opposer aux plateformes d’augmenter leurs moyens, de démultiplier leurs équipes de modérateurs…

Ce n’est pas seulement une question quantitative, et c’est pour cela que les plateformes demandent à être accompagnées. Plus on va du manifestement illicite vers l’illicite, ou vers des contenus qui relèvent d’autre chose que de la haine en ligne, c’est-à-dire de la morale publique, plus cela exige une appréciation qualitative fine et avertie du sujet.

Cette approche exigera une capacité d’appréciation qui dépasse celles d’un algorithme, voire d’un modérateur parfaitement formé, pour déboucher sur une décision rapide de retrait.

Laetitia Avia nous répondrait à juste titre que dans un tel cadre, nous ne serions pas dans le manifestement illicite et donc dans le cadre de la loi…Mais que dira le juge a posteriori ? Comment se fera le tri dans le traitement massif de données ?

A-t-on une idée des coûts que génère une telle proposition de loi ?

Non, car les situations vont être différentes d’une plateforme à l’autre. Dans leur obligation de moyens, celles-ci devront documenter les investissements consentis pour faire face au sujet. Il est évidemment normal dans le cadre de nouvelles responsabilités que ces entreprises consacrent les ressources nécessaires.

Néanmoins, elles seront loin d’être en capacité de résoudre tous les problèmes. En raison de ses subtilités, la langue française est plus complexe que d’autres à entrer dans les canons de la traduction automatique, de l’intelligence artificielle. On sait aussi très bien qu’il est difficile pour un algorithme ou un modérateur de faire la différence rapidement entre un commentaire qui relève de la haine et celui évidemment critique de cette haine en ligne. Il y aura donc une phase d’apprentissage qui doit être accompagnée.

Nous attendons aussi un investissement des pouvoirs publics. La problématique du RGPD, qui a créé de nouvelles obligations, ne s’est pas traduite par une augmentation des moyens de la CNIL. Elle s’en est plainte à plusieurs reprises. Nous ne voudrions pas que les pouvoirs publics n’investissent pas eux aussi pour renforcer les compétences et moyens humains des régulateurs amenés à traiter de ces sujets, en l’occurrence le CSA.

Que plaidez-vous finalement ?

Pour satisfaire l’objectif initial du texte auquel nous souscrivons pleinement, nous plaidons pour un resserrement du périmètre de ce qui relève vraiment de la haine en ligne. Certaines choses n’ont en fait rien à faire dans ce texte.

Nous avons adressé également des commentaires visant les sanctions. On va faire peser une épée de Damoclès s’agissant de l’obligation de moyens (une sanction de 4 % du chiffre d’affaires mondial, décidée par le CSA). Or, y a-t-il un lien entre le chiffre d’affaires mondial des entreprises et le fait qu’elles aient mal assumé la responsabilité qu’on attendait d’elles en matière de régulation des contenus qui puisse fonder cette évaluation de la sanction ?

Enfin, au vu des effets collatéraux potentiels sur la liberté d’expression et le droit à information, autant d’éléments du bloc de constitutionnalité, il nous paraitrait de bon aloi que le gouvernement saisisse le Conseil constitutionnel, une fois le texte adopté. 

Commentaires (19)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Curieux qu’eux-mêmes affirment une telle contrevérité : “Pas d’opposition non plus à responsabiliser davantage les plateformes au regard des dispositions antérieures, celles-ci ayant démontré leur inefficacité face à un sujet grave”.



La mécanique de responsabilité existe et permet d’aller jusqu’au déréférencement et le blocage de site si on ne peut pas sanctionner l’auteur (cf. par exemple:https://www.nextinpact.com/news/107348-le-jugement-blocage-site-raciste-et-homop… )



S’il y a un reproche qui peut être fait, c’est le temps nécessaire pour arriver à une telle décision de condamnation, mais le régime de responsabilité n’est pas en cause.



Le problème vient des moyens laissés à la Justice pour trancher l’affaire, de sorte qu’il n’est pas rare que l’avocat se coltine un maximum d’actes (constat en ligne demandé à l’huissier, ordonnance autorisant ce dernier à entrer dans tel lieu pour récupérer telle info, analyse des whois pour tenter d’identifier les responsables juridiquement etc…) en amont (ce qui a un coût pour le client) et dépose le tout avec la plainte ou la citation, sachant que les Juges ne consacreront pas tous les moyens nécessaires aux investigations, pour ne pas en disposer eux-mêmes sinon que sur le papier. (Et sans parler des procédures civiles où là le demandeur doit tout réaliser seul et donc en réalité son Conseil).



A l’inverse, élargir les cas où la plateforme doit juger de ce qui est “manifestement” illicite, fait peser une responsabilité très aléatoire sur la tête de la plateforme, délègue des pouvoirs qui ne doivent pourtant être exercés que par un Juge, et va inévitablement pousser à la censure automatique par peur de complications.

votre avatar

Effectivement c’est une atteinte manifeste à la liberté d’expression pornographique <img data-src=" />



Sinon je lis avec plaisir que selon lui le traitement automatique des contenus haineux est simple à mettre en place. <img data-src=" />





Je veux bien sûr parler de la pornographie, lorsqu’elle est accessible aux mineurs, du proxénétisme et d’autres éléments issus de la LCEN qui vont densifier considérablement le nombre de « contenus gris », ces contenus non manifestement illicites, mais qui en l’espèce relèvent davantage de la morale publique.



Je suis agréablement surpris de voir que le proxénétisme et la diffusion de contenus pornographiques aux mineurs ne sont plus manifestement illicites.

votre avatar

J’ajoute que la “cour suprême” de Facebook est une illustration parfaite de la dérive que représente cette proposition de Loi.

lemonde.fr Le Monde

votre avatar







crocodudule a écrit :



A l’inverse, élargir les cas où la plateforme doit juger de ce qui est “manifestement” illicite, fait peser une responsabilité très aléatoire sur la tête de la plateforme, délègue des pouvoirs qui ne doivent pourtant être exercés que par un Juge, et va inévitablement pousser à la censure automatique par peur de complications.





Petit rappel: les plateformes privées et autres réseaux sociaux sont des sociétés privées qui ne sont en rien garant de la liberté d’expression. Avant même cette loi, ces mêmes réseaux sociaux avaient d’eux même interdits et censurés certains contenus: je te laisse essayer de publier un bout de sein sur FB…

La plupart des plateformes ont déjà mis en place, sans attendre cette loi, une modération des commentaires. Soit par une équipe dédiée, soit automatiquement via certains mots clés. NXi a déjà d’ailleurs modéré de nombreux commentaires sur certaines news.


votre avatar







crocodudule a écrit :



J’ajoute que la “cour suprême” de Facebook est une illustration parfaite de la dérive que représente cette proposition de Loi.

lemonde.fr Le Monde





Tu veux dire que FB va créer un cour suprême pour gérer la modération sur son site à cause d’une loi française ? <img data-src=" />



Comme dit dans mon commentaire précédent, FB est une entreprise privée dont le but n’est pas la liberté d’expression mais de faire du cash. Si FB prend une telle décision, c’est aussi parceque de nombreuses voix se sont élevées un peu partout suite à la dérive constatée dans les commentaires.



A chaque ado qui se suicide à cause du cyberharcèlement…

A chaque vidéo en ligne de tueries xénophobes…

A chaque fake news et autes propos haineux…

Ce sont autant de voix (et pas seulement parlementaires) qui s’élèvent pour demander à ce que cela change.



Donc si FB prend des mesures telle que celle la, ce n’est surement pas par rapport à une loi française, mais simplement pour ne pas faire fuir une partie de ses “clients” et donc continuer à générer du cash.


votre avatar

carbier&nbsp;- Le mercredi 3 juillet 2019 à 12:43:33#2Effectivement c’est une atteinte manifeste à la liberté d’expression pornographique&nbsp;<img data-src=" />&nbsp;





Si&nbsp;tu connais un peut y peu les histoires de censures dans les œuvres littéraires pour cause de pornographie ou de licence, ce sont des sujets qui sont loin d’être manifestes au point où des œuvres jugée pornographique à leur époque sont aujourd’hui des classiques.

Rien que l’origine du monde montre que la pornographie est loin d’être manifeste puisque le tableau aurait été fait à partir d’une photo pornographique de l’époque qui s’échangée sous le manteau avec cette nouveauté qu’était la photographie. Et si le tableau est aujourd’hui exposée, cette fameuse photo serait aujourd’hui traitée comme une œuvre pornographique.

Non, même la pornographie n’est pas quelque chose de manifeste et comme le montre les différents jugements sur les deux cent dernière année ayant trait à l’édition que cela reflète les idées d’une période.

Pleins de classiques ont quitté le côté pornographique pour devenir des œuvres classique.

&nbsp;&nbsphttp://www.allocine.fr/film/fichefilm_gen_cfilm=10677.html

Par exemple un film qui après avoir été classé X est devenu art et essai avec le temps même si il présente des scènes de sexe non simulées.

votre avatar

Si ça passe, les commentaires de 20mn et Le Parisien vont être ennuyeux <img data-src=" /> Ça concerne aussi les forums et les plateformes de jeux vidéos en ligne ?

votre avatar

« Victime de la haine » … C’est quoi ce pays de pignoufs là ? On est pas nécessairement victime de la haine… La haine c’est une émotion, avant d’être l’expression de quoi que ce soit. On est victime d’insultes, de harcèlement, d’agression physique, de racisme, de… Oh ! Bah tiens ! C’est marrant, tout ça c’est déjà interdit et légiféré !

votre avatar







carbier a écrit :



Comme dit dans mon commentaire précédent, FB est une entreprise privée dont le but n’est pas la liberté d’expression mais de faire du cash. Si FB prend une telle décision, c’est aussi parceque de nombreuses voix se sont élevées un peu partout suite à la dérive constatée dans les commentaires.



A chaque ado qui se suicide à cause du cyberharcèlement…

A chaque vidéo en ligne de tueries xénophobes…

A chaque fake news et autes propos haineux…

Ce sont autant de voix (et pas seulement parlementaires) qui s’élèvent pour demander à ce que cela change.



Donc si FB prend des mesures telle que celle la, ce n’est surement pas par rapport à une loi française, mais simplement pour ne pas faire fuir une partie de ses “clients” et donc continuer à générer du cash.







Justement, ce qu’on est plusieurs à demander, c’est que ce ne soit pas Facebook ou Google ou tout autre compagnie privée qui décide de ce qui est légal ou pas mais bien la justice publique et qu’on arrête d’essayer de la faire sauter pour je ne sais quelles raisons.



De plus, Facebook ou Google ou autres sont quand même tenus de respecter la loi et n’ont pas, à mon avis, à avoir les pouvoirs pour décider de ce qui doit être censuré ou non. Et s’ils décident de censurer quelque chose, alors ils ne doivent plus pouvoir se réfugier derrière l’irresponsabilité technique des hébergeurs car ils outrepassent leur rôle d’hébergeur. Donc soit ils se tiennent strictement à leur rôle d’hébergeur neutre, soit ils décident de censurer, ce qui les font normalement entrer dans le rôle d’éditeur avec de nouvelles contraintes (Benjamin Bayart en avait parlé de mémoire mais je n’en suis plus certain donc possible que je dise des bêtises : pour moi un hébergeur doit se contenter d’héberger et de répondre aux demandes de la justice et n’ont pas le droit de prendre d’initiatives de ce point de vue là d’après la LCEN. S’ils le font, ils perdent normalement leur statut d’irresponsabilité donné par la LCEN. Si une personne familière avec ce volet du droit peut confirmer ou infirmer ce que je dis, je lui en serai reconnaissant), et engagent leur responsabilité à chaque fois qu’ils censurent. quelque chose.


votre avatar







Typhlos a écrit :



De plus, Facebook ou Google ou autres sont quand même tenus de respecter la loi et n’ont pas, à mon avis, à avoir les pouvoirs pour décider de ce qui doit être censuré ou non.





Ah bon ? Tu veux dire que la modération n’a jamais existé et/ou ne devrait pas exister dans les sites privés comme NXi ?

Tu veux dire que des sites privés ne peuvent pas décider de ce qu’ils veulent publier sur leurs pages ? Cela serait sympa de voir des images pornos dans les commentaires de sites pour enfants <img data-src=" />



Ce n’est pas ma faute, si les naifs ont confié les clés de leur “pseudo” liberté d’expression à des réseaux sociaux privés dont le but n’a JAMAIS été de faire dans le mécénat ou l’humanitaire.


votre avatar







carbier a écrit :



NXi a déjà d’ailleurs modéré de nombreux commentaires sur certaines news.





La modération de NXI est un très mauvais exemple.

Elle est à géométrie variable.

Elle supprime tous les messages qui suivent un commentaire supprimé et prive donc d’expression des contributeurs qui eux n’enfreignent rien (Faire le tri serait trop difficile pour eux par rapport à leurs moyens). C’est un parfait exemple des effets néfastes d’une modération mal faite par un acteur privé.



Elle n’a pas supprimé ce message manifestement injurieuxqui lui a pourtant été signalé.



Enfin, on ne connaît pas les critères de modérations puisque le “Les règles de la communauté” en bas de chaque page du site n’est pas un lien vers des règles mais juste une ligne pour faire joli.


votre avatar







fred42 a écrit :



La modération de NXI est un très mauvais exemple.

Elle est à géométrie variable.

Elle supprime tous les messages qui suivent un commentaire supprimé et prive donc d’expression des contributeurs qui eux n’enfreignent rien (Faire le tri serait trop difficile pour eux par rapport à leurs moyens). C’est un parfait exemple des effets néfastes d’une modération mal faite par un acteur privé.



Elle n’a pas supprimé ce message manifestement injurieuxqui lui a pourtant été signalé.



Enfin, on ne connaît pas les critères de modérations puisque le “Les règles de la communauté” en bas de chaque page du site n’est pas un lien vers des règles mais juste une ligne pour faire joli.





C’est un excellent exemple qui montre que tout cela ne date pas de cette loi et NXi est loin d’être le seul.



C’est un excellent exemple qui montre que les règles sont déjà fixées par chaque site: tes remarques ont été remontées à NXi qui a répondu que c’était cela ou rien (je simplifie, mais c’était l’esprit de la réponse).

Donc si tu n’es pas content, libre à toi de ne plus commenter ou de ne plus venir sur le site.


votre avatar







carbier a écrit :



Ah bon ? Tu veux dire que la modération n’a jamais existé et/ou ne devrait pas exister dans les sites privés comme NXi ?

Tu veux dire que des sites privés ne peuvent pas décider de ce qu’ils veulent publier sur leurs pages ? Cela serait sympa de voir des images pornos dans les commentaires de sites pour enfants <img data-src=" />







Bien sûr que la modération existe actuellement, ne me fais pas dire ce que je n’ai pas dit. Et concernant la modération, elle devrait être limitée uniquement à ce qui est manifestement illégal. Dès qu’il y a un doute, on passe devant la justice. Quand je parle de décider ce qui doit être censuré ou non, c’est pour tout ce qu’on peut appeler les contenus “gris” pour lesquels il peut y avoir un doute. Dans ce cas, c’est à un juge de décider si ça doit être censuré ou non, pas une compagnie privée et cette loi contre la haine en ligne a plutôt tendance à vouloir faire l’inverse.



Quant à NXi, au vu de leur activité, je pense qu’ils ne peuvent pas être considéré comme un simple hébergeur devant la justice, ils rentrent plus dans la case d’éditeur à mon avis. Et pour les sites pour enfants, il y a des règles spécifiques concernant la protection des mineurs qui s’appliquent en plus. Donc c’était deux mauvais exemples à prendre. Ensuite quant au fait de se demander si Google ou Facebook sont toujours de simples hébergeurs du point de vue de la LCEN, c’est une autre question.







carbier a écrit :



Ce n’est pas ma faute, si les naifs ont confié les clés de leur “pseudo” liberté d’expression à des réseaux sociaux privés dont le but n’a JAMAIS été de faire dans le mécénat ou l’humanitaire.







Ce n’est pas ma faute non plus et je ne vois pas pourquoi je payerais pour les autres. Oui, on vit en société, c’est comme ça que ça marche, etc. mais justement, on (moi à titre perso dans mon entourage, lqdn, april, framasoft, etc.) essaie de trouver des solutions pour sortir de cette situation et ce n’est pas en prenant de haut ceux qui ne sont pas forcément au courant des enjeux qui existent ou qui ne les comprennent qu’on va faire avancer notre cause. C’est en les sensibilisant qu’on avancera.


votre avatar

Je comprends ce que tu veux dire, mais tu peux le tourner comme tu veux, mais Facebook, Google, Next Inpact ou tout autre site sont des espaces privés, qui appartiennent à des entités privées, et donc ceux qui veulent utiliser ces espaces sont tenus d’y respecter les règles définies par les propriétaires - comme tu as le droit de définir qui a le droit de venir dans ton jardin, qui peut y camper ou qui peut s’installer dans le canapé de ton salon, jusqu’à nouvel ordre ce n’est pas le maire de ta commune et encore moins le Président de la République. Et c’est heureux (quoique, pour ce qui se passe dans ton jardin, la réglementation en France peut être plutôt stricte…)

votre avatar







carbier a écrit :



Petit rappel: les plateformes privées et autres réseaux sociaux sont des sociétés privées qui ne sont en rien garant de la liberté d’expression. Avant même cette loi, ces mêmes réseaux sociaux avaient d’eux même interdits et censurés certains contenus: je te laisse essayer de publier un bout de sein sur FB…

La plupart des plateformes ont déjà mis en place, sans attendre cette loi, une modération des commentaires. Soit par une équipe dédiée, soit automatiquement via certains mots clés. NXi a déjà d’ailleurs modéré de nombreux commentaires sur certaines news.





On a déjà discuté de ça, naturellement qu’il s’agit de sociétés privées qui ne sont là que pour générer de l’argent et certainement pas se préoccuper de la liberté d’expression (tout en prétendant la défendre). Mais jusque là, cela relève de la relation contractuelle et notamment des CGU et donc du fait de les accepter ou non.



Là, c’est le député Avia qui prétend faire de ces plateformes les premiers juges de la liberté d’expression, non pas au regard des relations contractuelles nouées, mais au regard de la Loi.



Et comme indiqué, l’ineptie de la “cour suprême” de Facebook illustre le glissement, qui n’est pas que sémantique, vers la justice privée.


votre avatar

Je suis d’accord avec le constat actuel, les plateformes privées imposent ce qu’elles veulent à leur utilisateur par leurs CGU dans les limites de la loi. J’expliquais comment, pour moi, ça devrait être dans le meilleur des mondes où un hébergeur se limite à son rôle d’hébergeur et ne s’occupe pas de dire ce qui est moralement accepté ou pas sur sa plateforme. Ou alors, il ne peut plus se réfugier derrière l’irresponsabilité conféré aux hébergeurs puisqu’il n’est plus neutre.

votre avatar







Kevsler a écrit :



« Victime de la haine » … C’est quoi ce pays de pignoufs là ? On est pas nécessairement victime de la haine… La haine c’est une émotion, avant d’être l’expression de quoi que ce soit. On est victime d’insultes, de harcèlement, d’agression physique, de racisme, de… Oh ! Bah tiens ! C’est marrant, tout ça c’est déjà interdit et légiféré !





<img data-src=" /> Non mais ça, ça ne compte pas sinon comment faire de nouvelles loi qui ne s’entrechoquent pas avec celles déjà existantes pour justifier notre utilité… <img data-src=" />


votre avatar



Quant à NXi, au vu de leur activité, je pense qu’ils ne peuvent pas être considéré comme un simple hébergeur devant la justice, ils rentrent plus dans la case d’éditeur à mon avis. Et pour les sites pour enfants, il y a des règles spécifiques concernant la protection des mineurs qui s’appliquent en plus. Donc c’était deux mauvais exemples à prendre. Ensuite quant au fait de se demander si Google ou Facebook sont toujours de simples hébergeurs du point de vue de la LCEN, c’est une autre question.





Ah mais si il était décidé (pour le cas de G ou F), de parler d’incitation au partage ce serait déjà plus simple ! <img data-src=" />

votre avatar

là, je te rejoins complètement : Facebook n’est pas neutre, ne l’a jamais été et n’a pas vocation à l’être. Ceci dit, à partir du moment où on en est conscient, est-ce que c’est un problème ? Je ne sais pas s’ils ont jamais communiqué sur le fait qu’ils délivraient une information neutre et non biaisée - au contraire, à la base ils disent fournir ce qui est conforme aux centres d’intérêts de leur “clientèle”, ou à ce qu’ils considèrent comme tel.

[Interview] Proposition de loi contre la cyberhaine : les inquiétudes de Tech In France

  • Comment les entreprises du secteur que vous représentez accueillent cette proposition de loi ?

  • Que visez-vous en particulier ?

  • Peut-on craindre la dérive vers une forme de justice privée, accentuée par cette évolution ?

  • On pourrait opposer aux plateformes d’augmenter leurs moyens, de démultiplier leurs équipes de modérateurs…

  • A-t-on une idée des coûts que génère une telle proposition de loi ?

  • Que plaidez-vous finalement ?

Fermer