Faut-il créer un label « Internet bio » permettant aux services respectueux de faire la différence ?
Webmasters élevés en plein air
Le 29 janvier 2018 à 16h00
5 min
Internet
Internet
Dès mai prochain, les données personnelles seront mieux protégées en Europe. L'occasion pour de nombreux services de commencer à se poser des questions sur leurs pratiques. Mais comment informer l'internaute sur la réalité des choses ? Nous avons décidé de lancer la réflexion.
Il y a un peu plus de deux ans, nous nous posions une question : et si on dépolluait Internet ? Nous notions en effet depuis plusieurs années que les sites devenaient de plus en plus impraticables du fait d'abus publicitaires et de méthodes douteuses comme la lecture automatique des vidéos ou l'auto-refresh.
Mais cette gêne visuelle en cachait une autre : la collecte massive de données, mise en place à travers les services des géants du Net (Analytics, boutons J'aime, etc.) et d'espaces publicitaires toujours plus automatisés.
Quel avenir voulons-nous pour Internet ?
On le voit aujourd'hui, chaque site peut déposer des dizaines de cookies sans le moindre consentement de l'utilisateur, le tout à travers une centaine de domaines tiers. Pour le vérifier, il n'y a qu'à utiliser des outils comme Kimetrak et regarder les données du navigateur (voir notre dossier).
Ainsi, comme on pouvait le craindre, l'Internet que l'on connaissait il y a 20 ans s'est profondément modifié sur trois points principaux : les plateformes y ont progressivement pris le pouvoir, il y est plus souvent question de commerce que de partage libre des informations et des idées, le tout alimenté par une immense collecte de données personnelles.
Comme c'est le cas dans certaines industries, il existe néanmoins des zones de « résistance ». L'information s'y veut en libre accès, elle doit permettre au plus grand nombre de réfléchir au monde d'aujourd'hui plutôt que suivre les derniers buzz, l'entraide et le travail collaboratif y sont des valeurs centrales et le financement se fait à travers des dons ou des abonnements, l'accès aux données n'étant pas considéré comme un « pétrole à exploiter ».
Malheureusement il n'existe pas vraiment d'élément distinctif fort pour ces sites et services, qui constituent une alternative au tout commercial qui nous entoure désormais dans le World Wide Web.
Un label pour l'Internet propre ?
Faudrait-il créer une sorte d'annuaire ? De label « bio » des services et autres sites en ligne ? Sans doute. Tout du moins faciliter l'accès et la reconnaissance de ces initiatives en fonction d'éléments qui peuvent être facilement vérifiés : structure économique, modèle de financement, trackers, dispositions légales à travers des outils tels que ToS;DR, etc.
Reste la question des critères précis et de la structure pour porter une telle initiative. La CNIL a déjà largement fait savoir qu'elle ne pouvait être à l'origine d'un tel projet, mais elle pourrait le soutenir. Les moteurs de recherche commencent à s'y mettre, notamment DuckDuckGo via ses applications ou Qwant, qui travaille lui aussi sur un dispositif visant à indiquer le nombre de trackers d'un site. Mais ces solutions sont en général limitées à l'usage de ceux qui en sont à l'origine.
Ainsi, on pourrait plutôt imaginer un outil qui viendrait lister les trackers rencontrés, les catégoriser, indiquer où ils ont été vus récemment, etc. Le tout en complément d'autres éléments techniques et juridiques sur les sites et services. Un projet d'ampleur, mais porté par une multitude afin de permettre sa mise en œuvre et son suivi au quotidien.
Ces informations pourraient être rendues accessibles à tous, pour le bien commun, exploitables par n'importe quelle application ou service. Une manière, à l'heure des grandes plateformes, de permettre de mieux identifier les rares ilots de paix pour nos données, et ces petits producteurs de solutions qui refusent de participer à la surveillance de masse organisée par les publicitaires et autres data brokers.
Permettre au citoyen de faire la différence
Cela permettrait également de distinguer le vrai du faux. Avec l'application dès le 25 mai 2018 du Règlement Général sur la protection des données en Europe, et l'arrivée prochaine d'ePrivacy, la protection des données va être un argument marketing de choix... même pour ceux qui combattent aujourd'hui ces textes. Face à cette révolution, il faut s'attendre à une bonne dose de « Privacy washing ».
On en a déjà vu quelques effets à l'occasion de la journée européenne de la protection des données, avec Apple, Facebook, Google ou encore Microsoft, venus nous expliquer comment, désormais, ils comptaient faire de notre espace numérique un temple où nous aurons un contrôle total sur les informations nous concernant, grâce à eux et à leurs services. Demain, certains annonceront traquer moins, mieux, en vous permettant de vous connecter. Mais derrière, quels engagements concrets et quels usages pour vos données ?
Il faut donc permettre à l'internaute de s'y retrouver, simplement. En tant que groupe de presse indépendant, engagé sur la question du respect des lecteurs et des données personnelles depuis de nombreuses années, nous pensons que c'est notre rôle de participer, voire d'initier une telle aventure. C'est tout le sens de notre initiative Kimetrak qui devrait évoluer dans les semaines et à les mois à venir afin de délivrer une information fiable à l'internaute sur ces questions.
Comme nous l'avions évoqué en juin dernier, nous espérons ne pas être seuls dans ce projet et réussir à fédérer de nombreux acteurs déjà actifs sur le terrain du respect de la vie privée et des libertés numériques. Tous ceux qui veulent y participer d'une manière ou d'une autre peuvent nous le faire savoir : [email protected].
Faut-il créer un label « Internet bio » permettant aux services respectueux de faire la différence ?
-
Quel avenir voulons-nous pour Internet ?
-
Un label pour l'Internet propre ?
-
Permettre au citoyen de faire la différence
Commentaires (72)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 31/01/2018 à 12h48
Le 31/01/2018 à 15h07
Le 31/01/2018 à 15h13
Le 31/01/2018 à 15h30
Le 31/01/2018 à 16h49
Avec un produit corrosif, les abeilles ne s’approchent pas des plantes traitées, c’est peut être pas plus mal..
Le 31/01/2018 à 17h13
Le 31/01/2018 à 19h02
Le 31/01/2018 à 21h23
Le 31/01/2018 à 21h42
Le 31/01/2018 à 21h46
Le 31/01/2018 à 22h00
Le 31/01/2018 à 22h02
Le 01/02/2018 à 07h45
Cet article a été cité ce matin chez France Inter. Bravo NI :jap:
Le 01/02/2018 à 08h08
Le 01/02/2018 à 08h26
Le 01/02/2018 à 08h43
Le 01/02/2018 à 09h05
Le 01/02/2018 à 09h30
l’Islande a sauvé l’argent de ses clients, mais pas les fonds des autres pays, notamment Icesave pour Royaume-Uni, Pays-Bas et Belgique.
Les Islandais en ont chié, hein, mais n’ont pas perdu leurs économies
Le 01/02/2018 à 09h37
Le 01/02/2018 à 09h45
les Britanniques et Néerlandais n’ont pas revu leur argent (techniquement si, un faible pourcentage), donc on peut dire que oui, les banques ont été sauvées, mais pas leur argent. La cour européenne de libre-échange a donné entièrement raison à l’Islande en 2013.
Le 01/02/2018 à 10h02
Le 01/02/2018 à 10h06
Le 01/02/2018 à 10h49
Le 01/02/2018 à 15h59
Le 01/02/2018 à 16h23
Le 01/02/2018 à 21h43
Le 01/02/2018 à 22h14
Le 29/01/2018 à 16h04
Je trouve l’initiative très bien. Et ça me rappelle le combat contre Hadopi, mine de rien c’était sympa de s’y retrouver. Mais je n’ai plus ma maison d’édition je ne pourrai rien éditer comme à l’époque. Mais dès qu’il faut monter sur les barricades numériques je suis là.
Après hors de question de me forcer à utiliser HORDE hein " />
Le 29/01/2018 à 16h07
y a des trackers sur le site de HORDE " />
(facebook, google, twitter)
Le 29/01/2018 à 16h08
Ah ouais bordel : les sites PUR !
Twitter" />
Le 29/01/2018 à 16h10
A la lecture du titre, j’ai cru un instant qu’il s’agissait de calculer l’impact en termes d’émission / énergie pour les requêtes / téléchargements effectuées sur un site " />
Le 29/01/2018 à 16h12
On attend que certains terminent d’établir la fiabilité de leur calcul sur la blockchain " />
Le 29/01/2018 à 16h13
Le 29/01/2018 à 16h20
Déjà, +1 rien que pour l’illustration !!
Bon… maintenant reroutnons lire l’article ! :)
Le 29/01/2018 à 16h24
Ah voilà c’est ça! " />
Je me souviens aussi d’un article qui avait fait du bruit il y a quelques années, qui avait calculé (mais mal, avec bcp de pbs de méthodo visiblement) le rejet en équivalent CO2 d’une requête Google.
C’est un thème dont on ne parle jamais, mais l’industrie informatique / numérique aujourd’hui a plus d’impact que n’importe quelle autre, or un même produit selon comment il est développé consommera effectivement plus ou moins côté serveur ou client.
Le 29/01/2018 à 16h31
Si c’est un label “bio” ça va être des sites vraiment pas sexy qu’on fait payée plus chère à tout le monde et où on fait culpabiliser les gens qui n’y vont pas pour nous mettre plus d’argent dans les poches en accusant de tuer des bébés ours?
Le 29/01/2018 à 16h32
Je doute qu’une sorte de label intéresse les gens. Et pour ceux qui y sont sensibles, c’est très rapide de voir quels sites sont respectueux ou non (avec n’importe quelle extension dans ce domaine). Et puis c’est toujours mis en avant, parfois trop (ces alertes JS “You choose DNT, we respect your choice” " />)
Et si c’est pour se retrouver avec des sites qui affichent le label mais qui ne font pas les bonnes actions derrière, cela sera anti-productif.
Le 29/01/2018 à 16h35
Le 29/01/2018 à 16h42
Je suis mitigé, c’est sûr que l’initiative est louable et souhaitable, mais elle ne risque de rencontrer du succès que si les moteurs de recherche mettent en avant ce genre de sites, ce qui est autre chose.
Ils poussent déjà dans cette direction : Google favorise le HTTPS, par exemple, mais quand l’utilisateur veut son contenu (film.piraté.codecAV1quonsaitpasquandilarrive.VtchétchèneSTalbanais.warez pour ne pas le nommer) il va aller vers le site même si son interface, sa lourdeur et son traçage sont mauvais…
Le 29/01/2018 à 16h49
Le 30/01/2018 à 06h36
Le 30/01/2018 à 06h38
Mais est-ce que c’était une alternative Framasoft ?
(Et pourquoi est-ce que NextInpact ne précise pas la source de l’image ?)
Le 30/01/2018 à 07h04
Idem, j’ai trouvé étrange que NXi n’indique pas la source de l’image (ou est-ce que cela n’apparait que sur certains templates ?)
Le 30/01/2018 à 07h13
Le 30/01/2018 à 08h21
En effet, il manque des infos sur l’illustration.. (développer par Framasoft?, opérer par Framasoft ?)
Il serait logique qu’ils ne réinventent pas la roue et préconisent une alternative libre (à laquelle ils ont auditeur le code éventuellement)
Le 30/01/2018 à 09h02
Je suppose que Kimetrak, une fois qu’il aura été fiabilisé localement (faux-positifs, …), finira par collecter les données qu’il récupère de manière centralisée. Ça servira de base pour attribuer des labels de confiance aux sites souhaitant montrer patte blanche (et pour du blocage automatique de trackers au niveau DNS).
Le 30/01/2018 à 09h07
Le 30/01/2018 à 09h44
Le 30/01/2018 à 11h28
" /> En effet, j’ai fait un raccourci en pensant à la poly-culture/culture associée qui permet (presque) de se passer de pesticides (et notamment les chimiques)
Les produits naturels ne sont pas innofencifs certes, mais moins que le glyphosate par exemple.
Après, il faut aussi prendre en compte la quantité utilisée (et quand on a des hectares entiers de monoculture, on arrose abondamment donc ca en devient mauvais pour l’environnement)
Mon chien pisse toujours au même endroit, l’herbe est jaune maintenant " />
Le 30/01/2018 à 14h16
Le 30/01/2018 à 18h43
Le 30/01/2018 à 19h38
Le 30/01/2018 à 22h16
N’y aurait-il pas une différence significative entre créer un label “aryen élevé en plein air” (désolé) (même réglementé par la loi) et forcer par la loi tous les juifs (et autres “indésirables”) à porter un signe distinctif ?
AMHA, les labels (que ce soit cette initiative ou les bio) sont une bonne solution tant qu’il n’y a pas consensus très majoritaire sur les valeurs qu’ils représentent, car ils sont un cran en dessous au niveau “dirigisme” par rapport à une réglementation pénalisant toute non-conformité au label devenu loi.
Et d’un autre côté, la neutralité du Net (qui agit surtout au niveau des FAI, pas des sites) est un bon exemple de réglementation - restreindre le marché libre s’avère souvent nécessaire…
(D’ailleurs tu avais dénigré les élections - qui ont, oui, permis d’amener Hitler au pouvoir - mais difficile de trouver des systèmes politiques moins dirigistes !)
Personne ne peut connaitre en détail le fonctionnement de tout ce qui l’entoure, les réglementations et les labels permettent d’avoir une certaine confiance (qui peut bien sûr être abusée de temps en temps), alors que ce qui est invisible, ne peut, par définition, déranger.
Le 30/01/2018 à 22h51
Le 31/01/2018 à 08h42
Le 31/01/2018 à 10h21
La toxicité du glyphosate est plus faible que celle de l’acide acétique (en vente libre dans tous les supermarchés) , la caféine (idem), l’éthanol (présent en grande quantité mais à la consommation réglementée)
D’après le classement du CIRC il est considéré comme moins cancérigène que la charcuterie, la viandre grillée ou quelques produits que j’ai cité plus haut.
Liens :
Fiche de toxicité du glyphosate
Fiche de toxicité de l’acide acétique
Quelques infos sur la caféine
Le 29/01/2018 à 17h01
Je propose que NXi monte son propre serveur DNS avec une blacklist pour filtrer les domaines abusifs, ça tuera une grosse partie des trackers et pubfarms dans l’œuf.
Pour l’histoire du label, le site concerné peut choisir d’afficher un badge cliquable pointant vers son rapport Kimetrak (l’apparence du badge s’adaptant au rapport, évidemment).
On pourrait même aller plus loin avec un enregistrement TXT dans la zone DNS du site candidat au label (_kimetrak.01net.com, le choix du domaine est un pur hasard).
Bref, on peut imaginer tout un tas de mécanisme mais il reste urgent d’attendre que Kimetrak grandisse tranquillement dans son coin.
Le 29/01/2018 à 17h02
Oui, faite pareil pour les applications portables pour faire la chasse aux mouchards, et autres aspirateurs à donnés.
Le 29/01/2018 à 17h05
Il y a pourtant plus simple :
Le 29/01/2018 à 17h08
Ça serait donc du pur déclaratif au début ?
Même sans accéder aux sources des membres de ce club, c’est sûr qu’afficher les trackers sur un site écarterait rapidement des petits malins, mais pour ce qui est de l’arrière boutique ?
C’est comme le bio industriel (on ne met pas de pesticide, mais on exploite les gens, on gâche de l’eau, on produit hors saison, on produit très loin etc… Bio et bio quoi).
Ils prennent les trucs dispo, aux interfaces bien faites, et son prêts à payer parfois cher (pas tous mais il y a j’ai pu remarquer parfois une défiance quand à la fiabilité quand c’est gratis).
Le 29/01/2018 à 17h15
Le 29/01/2018 à 17h49
Ainsi, on pourrait plutôt imaginer un outil qui viendrait lister les trackers rencontrés, les catégoriser, indiquer où ils ont été vus récemment, etc.
uBO-Scope ?
Le 29/01/2018 à 18h05
Un dpe ?
Un diagnostic de performance ethernetique ?
Le 29/01/2018 à 18h20
Le 29/01/2018 à 18h31
“Webmasters élevés en plein air”
Fake, un webmaster ça mange des pizzas et évite la lumière du jour !
Blague à part, je crois que le mal est plus profond, depuis que j’ai désactivé les polices et le code extérieur aux pages visitée, pas un site s’affiche correctement, sauf nextinpact.com
Le 29/01/2018 à 18h55
Dans l’image : IMG.VR nous avons besoin d’un coup de pouce ? J’ai comme un doute, on parle bien de celui là ?
Le 29/01/2018 à 19h12
Comme très souvent, la réponse à une question de journaliste est “Non !”.
Déjà, un label n’est pas plus un gage de qualité qu’une élection est un gage d’élire un personnage compétent. Ici, la juxtaposition est même comique vu que le “bio” n’est pas meilleur que le conventionnel, et ce à tous les points de vue (il est même probablement plus mortel niveau santé).
Maintenant je comprends qu’il faille faire vivre le site et que ce choix un peu stéréotypé (moi bon, toi pas bon) soit facile à faire comprendre au lectorat moyen, d’autant plus que se poser en chevalier qui lave plus blanc que blanc peut sembler tout aussi satisfaisant d’un point de vue personnel tout en attirant le gogo multi-anxiogénisé avec l’argument fallacieusement imparable du “c’était mieux avant” (moins pollué, etc.).
Pour conclure je dirais que sur les sites qui sont impraticables, les clients y vont moins (Logics 101), et donc que le problème tend à se résoudre de lui-même. Ce n’est pas étonnant vu que c’est généralement le cas des CAS : ces systèmes ne fonctionnent pas en mode “Command & Control”, ils se régulent eux-mêmes, s’auto-adaptent aux contraintes, profitent des opportunités pour se développer, font peu cas des pressions artificiellement imposées, etc. Un peu comme les marchés. Oh wait…
Le 29/01/2018 à 22h12
Le 29/01/2018 à 23h19
Ouaip, un peu comme le principe de ADZhost, mais au niveau DNS et plus au niveau du fichier HOSTS. Plus facile pour l’utilisateur, mais faut avoir confiance (remarque, tu me diras aussi qu’il faut avoir confiance dans le fichier HOSTS, mais celui-ci faut le mettre à jour à la main).
Le 30/01/2018 à 00h38
”(…) il reste urgent d’attendre que Kimetrak grandisse tranquillement (…)” " />
Le 30/01/2018 à 00h50
Le 30/01/2018 à 00h53
Moi c’est pastebin qui m’étonne. J’en avais trouvé ya 2ans il me semble.. " />