De l’Internet distribué à la victoire des plateformes...

De l’Internet distribué à la victoire des plateformes…

Minitel-as-a-service

Avatar de l'auteur
David Legrand

Publié dans

Internet

25/07/2022 19 minutes
27

De l’Internet distribué à la victoire des plateformes...

En 2019, Internet fêtait ses 50 ans « techniques ». Quelques mois auparavant, on célébrait les 30 ans de l’un de ses usages : le World Wide Web. Et l’on est désormais bien éloigné de ce qu’étaient ces technologies à leurs débuts. Un peu trop même, selon certains.

Internet a été pensé, dès son origine, comme un réseau non seulement décentralisé, mais également distribué, résilient. Comprendre qu’en plus de ne pas reposer sur un nœud central pour son bon fonctionnement, chaque machine peut communiquer directement avec une autre, partager ses ressources, agir comme un client et/ou un serveur. Tout l’opposé de notre bon vieux Minitel.

Lorsque l’on cherche à représenter cet aspect, on utilise en général une image issue de l’introduction aux réseaux de communications distribués de Paul Baran (voir ci-dessous), l’un des pionniers d’Internet. La nuance y est claire : chaque maillon est relié à plusieurs autres.

L’information trouvera toujours son chemin pour aller d’un point A à un point B. Le réseau des réseaux portait ainsi en lui une véritable petite révolution pour nos moyens de communication. Outre l’aspect numérique et instantané des échanges, cette distribution des ressources devait, espéraient alors certains, permettre à chacun d’être à la fois un producteur et un consommateur de contenu. C’est d’ailleurs ce qui est arrivé… la distribution en moins.

Distribué… ou presque

Car l’idée à l’époque était que l’auto-hébergement serait la règle, d’où le fameux « @ » de l’adresse email, signifiant « at » et désignant un lieu (« à » en français). C’est pour cela qu’elle se compose d’un nom d’utilisateur et de l’endroit où joindre le serveur : son nom de domaine. On imaginait alors un Internet où chacun pourrait stocker ses fichiers, ses messages, les partager avec le reste du réseau. Mais l’évolution technologique et le comportement humain en ont décidé autrement.

Car mettre en place ses propres serveurs, assurer leur sécurité, les maintenir à jour, toujours en ligne sur une connexion internet grand public, ce n’est pas forcément très simple. Certes, les spécialistes et autres passionnés peuvent s’y retrouver, mais cela demande des connaissances et du temps. Et lorsque chacun rentre du travail ou se retrouve en week-end, il a le plus souvent mieux à faire que de se demander comment assurer le bon fonctionnement de son adresse email ou de son serveur de partage de fichiers.

C’est ainsi que sont nés les hébergeurs, ces acteurs se proposant de vous fournir des adresses email clé en main, toujours fonctionnelles. Et parfois de quoi héberger aussi un site personnel. Une bonne idée sur le papier. Mais pour ce qui nous occupe, c’était d’une certaine manière le début de la fin. Car on recommençait à différencier ces serveurs des clients, les utilisateurs.

Internet Mag #2

La (re)centralisation par les usages

Les technologies de l’Internet sont ouvertes, poussent à la décentralisation et permettent à chacun de fournir des services. Mais les nombreux acteurs qui étaient présents il y a une vingtaine d’années, se sont peu à peu concentrés. Que ce soit les fournisseurs d’accès, les hébergeurs ou les services en ligne.

Certains étaient plus pratiques que d’autres, gratuits et financés par la publicité plutôt que payants, regroupant plus d’utilisateurs que le concurrent, favorisant les échanges « innovants » hors des standards et des protocoles ouverts. C’est ce qui a fait le succès de services comme Caramail en France à une époque, puis d’acteurs internationaux tels que Google et son Gmail ou encore Facebook ces dernières années.

Actuellement, chacun peut donc devenir une star de la vidéo en streaming… à travers YouTube (Google) ou Twitch (Amazon). Vivre du partage de ses activités en ligne avec ses fans en devenant influenceur… sur Instagram (Facebook). Diffuser de l’information au plus grand nombre en direct via Twitter. Mais surtout, la majorité des utilisateurs d’Internet y agissent en consommateurs de produits, contenus et services.

On remplace la TV par le streaming, l’attitude est la même, les commentaires en direct en plus. Mais est-ce réellement cela, produire du contenu en ligne ? Lorsqu’ils partagent leurs pensées, photos ou vidéos, la plupart des internautes ne font finalement qu’alimenter « la bête ». Car les plateformes, avec leurs outils d’analyses de données et leurs modèles économiques, s’en nourrissent grassement.

Repenser un Internet sans plateformes

On est alors passé de l’Internet ouvert à celui des plateformes, qui sont comme autant de continents, avec leurs règles. Elles sont surtout dirigées par des acteurs qui font tout pour que vous utilisiez au maximum leurs services, sans sortir de leurs sites et autres applications.

Et comme s’y attendait Benjamin Bayart, il y a une quinzaine d’années, le Minitel a finalement gagné. S’il prédisait à l’époque que l’on ne ferait alors que retarder l’inévitable, soit un retour en force d’un Internet distribué dans ses usages autant que dans sa forme, cela n’est pas encore arrivé.

Mais peut-être que nous assistons actuellement aux prémices de cette nouvelle révolution avec l’émergence de nouveaux réseaux qui veulent placer la distribution au cœur de leur fonctionnement. C’est le sens du travail de Tim Berners Lee avec Solid, mais aussi d’initiatives autour de nouveaux protocoles comme IPFS et Dat.

On peut illustrer le « drame » de l’évolution du web avec un exemple simple, emblématique : la façon dont on télécharge des fichiers en ligne. Malgré toute la débauche de technologies à laquelle on a droit de nos jours, on n’a sans doute pas vu plus archaïque que la façon de faire actuelle. Et surtout plus éloignée de ce qui était au départ l’esprit d’un Internet distribué.

Pourquoi faire distribué, quand on peut faire multi-centralisé ?

Imaginons que vous vouliez partager un fichier avec un tiers. Vous le placez sur un serveur et vous envoyez une adresse que l’on nomme URL (Uniform Resource Locator) à votre contact pour qu’il puisse le télécharger. En cliquant dessus, il le récupérera et pourra l’ouvrir sur sa machine. En théorie, c’est simple, pratique, fonctionnel.

Mais à y regarder de plus près… rien ne va. En effet, dans cette façon de faire, rien ne permet au destinataire de s’assurer que le fichier récupéré est bien celui que vous avez mis en ligne, qu’il n’a pas été modifié ou altéré pendant le transport. Surtout, le fichier en question n’est présent que sur votre serveur. Si celui-ci est inaccessible, le fichier l’est aussi. Ni très sécurisé, ni très distribué, donc.

Plutôt que de corriger le problème à la racine, les grands acteurs d’Internet ont appliqué différents pansements avec le temps. Pour améliorer la disponibilité des fichiers, ils ont imaginé les CDN (Content Delivery Network). Un même fichier est placé dans de nombreux serveurs disséminés un peu partout dans le monde. En cas de téléchargement, un service se chargera de rediriger l’utilisateur en fonction de sa position géographique, la charge des serveurs, etc.

C’est par exemple ce qui est utilisé par Netflix, qui place certains de ses films directement dans le réseau des fournisseurs d’accès à Internet (FAI). Ainsi, ils sont au plus près des clients et se chargent vite, à bon débit. Tout du moins quand un accord financier a été trouvé pour se partager les frais d’une telle initiative. On est donc en présence de solutions qui ne sont ni totalement centralisées, ni pleinement distribuées. Surtout, elles ne concernent qu’un nombre restreint d’acteurs qui peuvent se permettre la mise en place de telles infrastructures.

La sécurité, c’est compliqué

Autre problème qu’il a fallu résoudre : la sécurité. Là aussi, une solution partielle a été trouvée : la mise en place de canaux de communication chiffrés via des protocoles comme TLS (le petit cadenas vert quand vous accédez à un site sécurisé via HTTPS). Il permet de s’assurer de l’identité du serveur, de l’intégrité des données échangées, qui ne peuvent pas être « lues » pendant leur transport.

Pendant longtemps, il a aussi été la chasse gardée de ceux qui pouvaient se payer un certificat auprès d’une autorité reconnue, protégeant surtout le commerce en ligne, l’accès aux comptes bancaires et à des services dont le niveau de sécurité l’exigeait. Heureusement, Let’s Encrypt est venu changer tout cela, permettant à chacun d’obtenir gratuitement des certificats, sans contrepartie.

Mais protéger ses services en ligne n’est pas simple pour autant, et cela a aussi favorisé l’émergence d’acteurs centraux, comme CloudFlare. Un service américain que vous ne connaissez peut-être pas, mais par lequel vous passez sans doute plusieurs fois chaque jour sans le savoir : c’est lui qui assure la protection de nombreux sites, fait office de CDN pour leurs contenus, assure leur accès sécurisé, etc.

Réseaux P2P : un faux départ…

Résultat des courses : la distribution de logiciels en ligne passe par des procédures qui ne permettent pas à l’utilisateur d’avoir toutes les garanties et le confort d’usage nécessaire. De quoi l’inciter à se tourner vers les boutiques applicatives, sécurisées car ultra-verrouillées : l’App Store d’Apple, le Play Store de Google ou le Microsoft Store pour ne citer que ces quelques exemples.

Seule exception : les gestionnaires de paquets des distributions Linux qui fonctionnent avec de multiples sources, une vérification des données téléchargées, etc. Sous Windows, Chocolatey se repose sur un tel système, au point que Microsoft s’en est inspiré pour mettre en place sa propre solution : winget. Annoncé l’année dernière, il se renforce peu à peu, mais reste pour le moment très centré sur ce qu’autorise Microsoft qui demeure (pour le moment) le seul fournisseur de dépôt. Mais cela devrait changer, l’initiative est donc à surveiller.

Dans ces deux cas cependant, on reste sur des procédures de téléchargement très classiques, passant par de bons
vieux protocoles tels que FTP ou HTTP. Pourtant, la nature distribuée d’Internet aurait dû favoriser un autre type d’échanges : le pair-à-pair (P2P). L’idée est ici de partager ou télécharger n’importe quel fichier depuis sa machine, faisant à la fois office de client et de serveur. Les données sont découpées en de multiples petits morceaux, que l’on récupère directement depuis les ordinateurs d’autres utilisateurs connectés au réseau.

Ceux que l’on a déjà récupérés sont partagés à leur tour avec la communauté. Un fichier existe donc tant qu’il y a au moins un appareil qui le met à disposition. Mais ces solutions ont été freinées dans leur ascension il y a une vingtaine d’années. Tout d’abord par l’accès à Internet qui s’est beaucoup développé à travers l’ADSL, dont le A signifie « asymétrique ». Ainsi, la vitesse de téléchargement est bien plus rapide que celle d’envoi des données. Les utilisateurs ont donc tout intérêt à télécharger vite, mais peu à partager, de quoi déséquilibrer tout l’écosystème.

Ensuite, le P2P a rapidement été associé au piratage. Que ce soit à travers des outils comme Napster et eMule, entre 2000 et 2010, le fait de pouvoir partager librement des fichiers protégés par le droit d’auteur, via de tels outils, a complètement occulté la possibilité qu’ils pouvaient également être utilisés de manière bien plus respectueuse de la loi.

D’ailleurs de nombreuses entreprises ont recours au pair-à-pair désormais. Nous l’avons déjà évoqué dans nos colonnes pour la diffusion des flux numériques de certains programmes de TF1, on pense également à PeerTube développé par Framasoft, au client Battle.net de Blizzard, ou aux nombreuses distributions Linux et autres applications qui utilisent le protocole BitTorrent pour assurer un accès rapide partout dans le monde.

Metalink : la bonne idée oubliée

Avec le standard Metalink, né il y a une quinzaine d’années, une bonne idée avait été trouvée. Elle consistait en un fichier dans lequel on déclarait des métadonnées pour chaque chose que l’on mettait à disposition en ligne : nom, taille, date de publication, identité du diffuseur, empreintes pour vérifier son intégrité, signature numérique pour s’assurer de son origine, liste de miroirs.

On pouvait ainsi déclarer différentes URL pour un même fichier, les pays d’hébergement, le niveau de priorité à assurer à tel ou tel. Bref, de quoi garantir la sécurité et le téléchargement depuis plusieurs sources sans avoir à dépendre d’acteurs spécifiques. Mais ce standard n’a jamais décollé.

Il est utilisé par quelques distributions et logiciels, comme Ubuntu ou LibreOffice, mais rares sont les clients de téléchargement à le gérer, aria2 est l’un d’entre eux. Même les développeurs de Firefox ne l’ont jamais implémenté au sein du navigateur, ce qui aurait pourtant donné un avantage certain à ce dernier tout en favorisant l’usage d’un standard aux attraits multiples.

… Avant la renaissance

Ainsi, bien qu’ils n’aient changé nos comportements en ligne aussi profondément que l’on aurait pu s’y attendre, ces protocoles ont avancé petit à petit, brique par brique. Mettant progressivement en place des solutions technologiques qui portent peut-être en elle les ferments de l’Internet de demain.

La première est la table de hachage distribuée, aussi connue sous l’acronyme DHT (Distributed Hash Table). Elle a
complètement bouleversé le fonctionnement de BitTorrent il y a quelques années, permettant de former une grande liste de l’ensemble des données partagées sur le réseau, pouvant être recherchées et retrouvées en très peu de temps. Chaque élément est identifié par une empreinte numérique (hash).

Nous ne reviendrons pas ici sur son fonctionnement précis ou les différents protocoles pouvant être exploités. Mais cela permet par exemple de ne plus avoir à passer par le site de Canonical pour télécharger la dernière version en date d’Ubuntu. On peut simplement la trouver au sein du réseau BitTorrent, puis la télécharger. Reste un problème : comment s’assurer que le fichier récupéré est bien l’ISO voulue et non une version contenant un malware par exemple ? C’est là que les liens magnets entrent en jeu, et avec eux le concept d’URN (Universal Ressource Name).

Passer des URL aux URN : la révolution

Rappelez-vous, l’URL nous permettait précédemment de télécharger un fichier en désignant le serveur où il était stocké et son emplacement sur ce serveur (d’où le L, pour Locator). L’URN vise à identifier directement la ressource par une de ses propriétés intrinsèques plutôt que sa localisation. C’est au réseau, ensuite, d’indiquer au client où et comment la télécharger.

Dans le cas des réseaux pair à pair, cet identifiant est en général son empreinte numérique, dans un format qui varie selon les protocoles. Ainsi, vous ne cherchez pas tel fichier ISO sur tel serveur, mais le fichier correspondant à une empreinte numérique précise. Cela ajoute au passage une couche de sécurité « by design ». Une fois téléchargé, le fichier peut en effet être vérifié par rapport à cette empreinte, on s’assure alors de sa conformité.

C’est ce qu’utilisent les liens Magnet de BitTorrent, sous le nom d’InfoHash (btih). Par exemple pour la dernière version d’Ubuntu Mate en date : magnet:?xt=urn:btih:897ba1967a2cebd37cf98b6d8071c12230362a28&dn=ubuntu-mate-20.10-desktop-amd64.iso. Le nom du fichier est ici optionnel, seul l’URN étant nécessaire à le télécharger via BitTorrent. L’InfoHash a néanmoins un défaut : son calcul dépend de la façon dont le fichier a été découpé. Un même fichier peut donc avoir différents identifiants sur le réseau, favorisant ainsi les doublons.

L’URN a un autre problème potentiel : chaque ressource étant identifiée de manière plus ou moins unique, elle pourrait être bloquée à travers cet identifiant. C’est d’ailleurs comme cela en cherchant quelle IP (et donc quel internaute) partage tel ou tel InfoHash que les services de protection des ayants droit identifient les « pirates », qui reçoivent alors leur « Lettre Hadopi ».

Certes, l’aspect distribué de ces réseaux rend le blocage plus difficile, mais cela pourrait venir nourrir la réflexion de certains acteurs intéressés et autres parlementaires adeptes de la censure en ligne.

Vers un Internet réellement distribué ?

Suite à ces évolutions des réseaux pair à pair, les idées ont également fusé du côté des promoteurs d’un Internet décentralisé, où les plateformes n’ont plus de rôle central à jouer. Ainsi, plutôt que de simplement permettre le partage de fichiers, pourquoi ne pas utiliser de tels protocoles et dispositifs pour héberger des sites et services distribués. On réduit ainsi les freins à la démocratisation de l’auto-hébergement et le besoin d’acteurs centraux.

C’est ainsi que sont nés des projets de réinvention du web distribué, non pas en utilisant les protocoles actuels comme tente de le faire Tim Berners Lee avec son nébuleux Solid (qui vient de s’ouvrir aux entreprises), mais sur l’URN et la DHT, et parfois le gestionnaire de versions Git. Au point même d’inspirer les scénaristes de la série « Silicon Valley » (diffusée en France sur OCS) qui ont construit leurs dernières saisons sur ce concept et de « L’Internet que l’on mérite ».

Ces alternatives se sont multipliées ces dernières années, du protocole Dat avec le navigateur Beaker à IPFS, intégré à Brave et qui a déjà droit à sa passerelle Cloudflare pour accéder à des sites qui y sont stockés via un navigateur classique. L’objectif est le même : permettre l’hébergement de sites et services depuis votre machine, répliqués au sein d’un réseau distribué.

IPFS voit par exemple toutes ses données comme des objets reliés entre eux, pouvant être regroupés pour former des fichiers ou des dossiers. Ils disposent tous d’une empreinte unique, ce qui évite les doublons au sein du réseau. Pour le moment, l’algorithme SHA-256 est utilisé, mais cela pourra évoluer dans le futur, notamment à travers le projet Multihash visant à préciser le type d’empreinte et sa longueur dans l’identifiant.

Le réseau se repose ainsi sur ses propres Content Identifiers (CID) et propose un outil permettant de naviguer dans les fichiers hébergés : https://cid.ipfs.io. L’évolution des données est suivie à travers une gestion de versions, à la manière de Git. Chacun peut installer IPFS sur sa machine, y diffuser des données ou des sites en quelques clics. D’autres protocoles visent spécifiquement les besoins en stockage, comme BitTorrent qui propose depuis peu son propre File System (BTFS) ou Sia.

Les cryptomonnaies pour assurer l’équilibre

Tous doivent néanmoins faire face au même problème : comment s’assurer que les membres du réseau jouent le jeu ? Car pour qu’un système distribué soit équilibré, il faut que les utilisateurs ne soient pas de simples consommateurs de ressources, ils doivent aussi en fournir.

Si la montée en puissance de connexions internet à très haut débit et symétrique comme la fibre (FTTH) y participe, ce n’est pas suffisant. C’est là que les cryptomonnaies entrent en jeu et pourraient bien trouver une première grande application, utile au plus grand nombre.

L’idée générale est que lorsque vous mettez des ressources à disposition du réseau, vous êtes rétribué en jetons (tokens). À l’inverse, lorsque vous utilisez les ressources du réseau, vous devez le payer avec ces mêmes jetons. Si vous n’en avez pas assez obtenu via votre partage de ressources, vous pouvez en acheter. C’est un peu comme si votre hébergeur ne vous faisait pas payer de facture mensuelle pour peu que vous mettiez un bout de votre HDD/SSD et de votre connexion internet à sa disposition.

BitTorrent a déjà introduit cette notion avec « Speed », intégré au sein de ses propres clients. Ils vous permettent de gagner des BTT (BitTorrent Token) lorsque vous partagez des fichiers, et vous donnent accès à un téléchargement prioritaire sur le réseau. De quoi permettre à chacun d’être, demain, un hébergeur à part entière sans que l’on ait besoin d’infrastructures géantes comme c’est actuellement le cas ?

Les solutions et les espoirs sont là, les paris sont ouverts. Nous espérons être encore là dans une dizaine d’années pour vous conter comment cette nouvelle révolution en ligne a tout changé… ou misérablement raté.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Distribué… ou presque

La (re)centralisation par les usages

Repenser un Internet sans plateformes

Pourquoi faire distribué, quand on peut faire multi-centralisé ?

La sécurité, c’est compliqué

Réseaux P2P : un faux départ…

Metalink : la bonne idée oubliée

… Avant la renaissance

Passer des URL aux URN : la révolution

Vers un Internet réellement distribué ?

Les cryptomonnaies pour assurer l’équilibre

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (27)


Lecture intéressante, merci !
2 fois le même chapitre “La sécurité, c’est compliqué”, c’est pour bien faire passer le message ?


StorJ fonctionne un peu de la manière indiquée à la fin de l’article ou l’utilisateur met à disposition du réseau de la place HDD et de la bande passante en contrepartie de crypto réutilisable ensuite.



Reste un problème : comment s’assurer que le fichier récupéré est bien l’ISO voulue le film voulu et non une version contenant un malware un porno par exemple ?




:cap:



Mais cela devrait changer d’ici 2021, l’initiative est donc à surveiller.




Et finalement… Ça a bougé ou non ? :)



Arcy a dit:


:cap:




Traumatisme d’eDonkey/eMule? :transpi:


Je ne répondrais pas, c’est derrière moi tout ça … :dd:
Mais c’est un “traumatisme” qui a dû être ressenti par beaucoup de personnes ici


Arcy

Je ne répondrais pas, c’est derrière moi tout ça … :dd:
Mais c’est un “traumatisme” qui a dû être ressenti par beaucoup de personnes ici


Ah que oui, quand je téléchargeais des Disney, parfois c’était plutôt Blanche Fesses et les 7 b…
Vérification obligatoire avant de lancer ça devant la petite :)


Pendant ce temps, il y a des gens qui, nostalgiques (voire « nostalgeeks » ?) du Web « simple » des années 1990, ont mis en place un nouveau protocole inspiré du vénérable Gopher (qui connaît d’ailleurs un regain de popularité, depuis quelques années) : Gemini (inspiré du programme spatial éponyme, les sites accessibles via ce protocoles sont d’ailleurs appelés « capsules »).



Gemini, c’est pas du Web mais un truc à part, conçu pour rester volontairement simple et techniquement limité (on ne peut mettre que du texte, des liens mais dans des lignes séparées, un formatage inspiré du Markdown mais limité aux mises en formes de titres et de paragraphes), qui n’autorise qu’une seule requête à la fois (donc, pas de cookie récupéré en plus de la page voulue, et donc pas de pistage possible par les GAFAM, normalement), et oblige à passer par des connexions sécurisées par TLS (mais sur le principe du TOFU, soit : le premier certificat de sécurité rencontré, de préférence auto-signé, est considéré comme valide pour le site visité).



Ça fait un peu plus de 3 ans que ça existe, et ça commence à être pas mal utilisé par des fans de cet Internet simple, sans superflu ni mainmise des GAFAM ou des enseignes commerciales. Actuellement, il est essentiellement peuplé par des blogs personnels, mais on y trouve aussi des moteurs de recherche, des proxies vers Wikipédia, Reddit, Hacker-News, CNN et autres sites de presse principalement US…



Ce serait peut-être bien de mentionner ce genre d’alternatives (avec FrogFind!, sorte de « proxy en mode lecture » rendant de nouveau accessibles des sites Web par de vieux navigateurs et systèmes, de l’Apple II au dernier modèle de PC en date), par et pour des gens qui fuient justement le Web actuel, devenu trop lourd, agressif et prédateur.


Je ne suis pas hyper convaincu de l’essor d’un Internet distribué car tout le monde n’a tout simplement pas quelque chose à partager et encore moins avec le reste du monde.



Perso, j’ai mon serveur privé avec certificats let’s encrypt et pour autant je n’y met quasiment rien à disposition du public. C’est principalement de l’accès privé aux utilisateurs de mon instance nextcloud.



Et il reste un domaine particulièrement délicat: les serveurs DNS et mail que je n’envisage même pas d’héberger moi-même.



Quand ä remplacer le HTML par du markdown, je ne trouve pas du tout l’idée intéressante. C’est jetter le bébé avec l’eau du bain.



On peut tout à fait revenir à des sites sans PHP et sans JavaScript sans avoir à tout réinventer.


Pas besoin d’avoir quelque chose à partager pour participer. Regarde peertube par ex. Il suffit de regarder une vidéo pour commencer à l’héberger, mais si tu n’as pas d’instance.


dada051

Pas besoin d’avoir quelque chose à partager pour participer. Regarde peertube par ex. Il suffit de regarder une vidéo pour commencer à l’héberger, mais si tu n’as pas d’instance.


Techniquement, tu as raison; mais je doute que cela corresponde au sens que voulaient les pionniers.



Le problème selon moi est que ceux qui ont de trucs intéressants à partager n’ont pas forcément les compétences techniques requises pour y parvenir et vice-versa.



Pour faire disparaitre les grosses plateforme qui vivent de nos contenus et de nos données, il faudrait pouvoir mettre en relation facilement caux qui ont des choses à partager avec ceux qui peuvent les y aider.


Je suis étonné de voir qu’on ne parle pas du Fediverse qui offre pourtant une décentralisation des plateformes en reposant sur un protocole normalisé (ActivityPub généralement), permettant de recouvrer la maîtrise de ses données et aussi de soit rejoindre une instance et une communauté existante, ou soit fonder la sienne et la connecter au reste. Le tout en passant via des services qui n’ont pas la même vocation (microblogging, blogging, photo, vidéo, etc) mais qui peuvent être interconnectés.



A mes yeux c’est clairement un retour au Web “d’antan”, voire Internet, (avec les forums, les chans IRC, etc) avec le petit plus qui est que chaque communauté peut être interconnectée.



wanou a dit:


Je ne suis pas hyper convaincu de l’essor d’un Internet distribué car tout le monde n’a tout simplement pas quelque chose à partager et encore moins avec le reste du monde.




Il suffit de voir Facebook ou Tweeter pour se convaincre que si, tout le monde partage. Après, il reste à savoir s’ils ont raison de le faire ou s’ils auraient mieux fait de se taire…


Je crois personnellement que c’est avant tout l’esprit de l’époque qui s’est perdu.



Car beaucoup on voulu y voir une façon de s’enrichir pécuniairement rapidement après que les bourses et les banques se soient intéressées au sujet.


“Mais cela devrait changer d’ici 2021”



Mouais



Argonaute a dit:


Je crois personnellement que c’est avant tout l’esprit de l’époque qui s’est perdu.



Car beaucoup on voulu y voir une façon de s’enrichir pécuniairement rapidement après que les bourses et les banques se soient intéressées au sujet.




J’pense aussi que l’une des choses qui a tué le P2P c’est pas la Hadopi, c’est youtube (et en partie Netflix).



Youtube a apporté de la monétisation de contenus - qui est parfois comme le dit alex.d discutable - mais qui a clairement apporté un nouvel usages et de nouveaux formats de diffusion.
Cette monétisation permet les chaines comme Nota Bene, Ballade Mentale et tant d’autre dont les réalisateurs peuvent aujourd’hui en vivre en toute indépendance et toucher un public plus large que tout ce qui aurais été possible avant.
On a clairement raté le coche de la monétisation distribuée par contre.



Netflix a porté une simplification sur le streaming que nos propres tenors (C+,…) n’ont jamais réussi à mettre en place notamment par une volonté absolue de contrôle sur la manière dont leurs usagers utilisent leurs services et sans remise en question sur leurs pratiques.



La-dessus je suis assez partagé :
Je télécharge encore beaucoup de séries & films, non pas parce que je n’ai pas les moyens de me payer Netflix, mais simplement car encore aujourd’hui je n’ai pas assez de bande passante et de qualité de service internet pour streamer en toute quiétude. Netflix a également, à mon sens, repris ces derniers temps les mauvaises habitudes des anciens services en imposant un contrôle strict sur les plateformes matérielles utilisés et un programme de certification payant.



Mais ce qui est important à mon sens c’est qu’aujourd’hui, rien dans l’infra internet (*) ne s’oppose réellement à l’émergence d’un service distribué innovant et inconnu aujourd’hui : Les protocoles sont là, l’IPv6 est là , le FTTH est là (gros changement par rapport à l’ADSL).
Certes le GPON français est asymétrique les débits effectifs en upload permettent des usages inconnus jusqu’à maintenant.
En contrepartie , les box restent hyper fermée (impossible par exemple d’héberger des choses au sein de la box elle-même - même si il me semble que sur certaines box on pouvais faire des VM ?), et héberger un truc chez soi implique les problèmes de sécurité, fiabilité et de conso élec à l’heure où nous sommes rare aujourd’hui à avoir un PC allumé 2424 dans un foyer.
Mais ce n’est pas impossible pour autant, toute les briques technologiques sont là.
Reste aussi la compétence et la volonté des utilisateurs potentiels, qui préfèrent clairement aujourd’hui tikotok & youtube à peertube et par là créent un effet de masse qu’il est de + en + intéressant d’arriver à centraliser pour en tirer des sous.


Pas de besoin de box, un micro-server/NUC ( consommation électrique optimale) peut servir de host pour plusieurs VMs/Conteneurs qui peuvent fournir plusieurs services assez différents sans adhérence sur son FAI: www, web service, serveurs de fichiers, backup/restore, home lab, IoT, infra…



Selon moi, tout cela est d’autant plus intéressant par l’offre d’infra fibre en terme de bande passante mais aussi voir surtout de latence.



Le seul vrai frein que j’y vois est que c’est quand même orienté vers du geek qui a les connaissances techniques suffisantes pour déployer et assurer la maintenance de ses services.



(quote:2085526:alex.d.)
Il suffit de voir Facebook ou Tweeter pour se convaincre que si, tout le monde partage. Après, il reste à savoir s’ils ont raison de le faire ou s’ils auraient mieux fait de se taire…




J’aurais bien fait de préciser en effet que j’entendais par partage le fruit d’un vrai travail ou à minima des choses ayant un vrai intérêt pour une communauté dodonnée



Les chaînes sérieuses sous youtube, c’est un peu la fleur qui pousse au millieu d’une décharge.



Mais si les partageurs devaient se coltiner la technique sous-jacente ou l’assumer pécuniairement, ils auraient le temps de réfléchir à l’utilité de mettre en ligne leurs contenus.



Finalement, c’est la trop grande facilité de partage qui crée le gâchis de bande passante.



Si vous n’en avez pas assez obtenu via votre partage de ressources, vous pouvez en acheter. C’est un peu comme si votre hébergeur ne vous faisait pas payer de facture mensuelle pour peu que vous mettiez un bout de votre HDD/SSD et de votre connexion internet à sa disposition.




C’est un peu comme si j’avais installé des panneau photovoltaïques et que je refilait du courant a Engie, en échange de crédits sur ma conso d’électricité :p



Ils vous permettent de gagner des BTT (BitTorrent Token) lorsque vous partagez des fichiers, et vous donnent accès à un téléchargement prioritaire sur le réseau




Cela ne va pas dans le sens de la neutralité du Net.
Note que je ne suis pas contre l’idée d’une telle plateforme mais ça remet beaucoup de chose en question. Notamment, qui distribue les bons et les mauvais points.
Actuellement, l’humain lambda n’a strictement aucun levier sur la définition de l’infrastructure mondiale de l’information. ( non, choisir ce que l’on consomme ne nous donne pas un levier décisionnel, ceci est une autre affaire ).



OB a dit:


J’pense aussi que l’une des choses qui a tué le P2P c’est pas la Hadopi, c’est youtube (et en partie Netflix).



Mais ce qui est important à mon sens c’est qu’aujourd’hui, rien dans l’infra internet (*) ne s’oppose réellement à l’émergence d’un service distribué innovant et inconnu aujourd’hui : Les protocoles sont là, l’IPv6 est là , le FTTH est là (gros changement par rapport à l’ADSL). Certes le GPON français est asymétrique les débits effectifs en upload permettent des usages inconnus jusqu’à maintenant. En contrepartie , les box restent hyper fermée (impossible par exemple d’héberger des choses au sein de la box elle-même - même si il me semble que sur certaines box on pouvais faire des VM ?), et héberger un truc chez soi implique les problèmes de sécurité, fiabilité et de conso élec à l’heure où nous sommes rare aujourd’hui à avoir un PC allumé 2424 dans un foyer. Mais ce n’est pas impossible pour autant, toute les briques technologiques sont là. Reste aussi la compétence et la volonté des utilisateurs potentiels, qui préfèrent clairement aujourd’hui tikotok & youtube à peertube et par là créent un effet de masse qu’il est de + en + intéressant d’arriver à centraliser pour en tirer des sous.




Effectivement, la Freebox Delta permet d’héberger des VM grâce à son processeur ARM, ses éventuelles disques durs internes et sa RAM.



Alors certes, ce n’est pas un hébergement de compétition, mais suffisant pour un usage personnel, familiale ou d’initiation à l’informatique grâce aux nombreux tutos existant.



Argonaute a dit:


Effectivement, la Freebox Delta permet d’héberger des VM grâce à son processeur ARM, ses éventuelles disques durs internes et sa RAM.



Alors certes, ce n’est pas un hébergement de compétition, mais suffisant pour un usage personnel, familiale ou d’initiation à l’informatique grâce aux nombreux tutos existant.




Même sans être de competition, c’est le genre de chose qui pourrais largement suffire à héberger une instance peertube (ou autre truc similaire).



Reste à voir bien sur les notions de responsabilité, de droit de regard de l’opérateur dessus, les problèmes de mises à jour et de vulnérabilités….
(Typiquement je pense que les AD seraient trop content de pouvoir trouver un moyen de mettre en cause Free plutôt que les clients finaux dans ce genre de chose - plus facile d’extorquer du gros pognon à Free qu’à un particulier)


J’ai entendu hier (en replay donc émission d’avant hier je crois) dans l’émission ‘le code a changé’ (pub) que seulement 11 % des utilisateurs de je ne sais plus quelle plateforme “sociale” postent des contenus.
Donc il ne faut pas négliger que la grande majorité des utilisateurs en ligne sont des consom-mateurs qui n’ont rien à partager ou pas la volonté de le faire et qui donc n’investiront pas pour l’existence de l’internet autrement qu’en payant un service (FAI, plateforme, pub).
Et d’ailleurs j’en fait partie depuis plus de 30 ans.



Cetera a dit:


Pas de besoin de box, un micro-server/NUC ( consommation électrique optimale) peut servir de host pour plusieurs VMs/Conteneurs qui peuvent fournir plusieurs services assez différents sans adhérence sur son FAI: www, web service, serveurs de fichiers, backup/restore, home lab, IoT, infra…



Selon moi, tout cela est d’autant plus intéressant par l’offre d’infra fibre en terme de bande passante mais aussi voir surtout de latence.



Le seul vrai frein que j’y vois est que c’est quand même orienté vers du geek qui a les connaissances techniques suffisantes pour déployer et assurer la maintenance de ses services.




Lorsque tu en es à placer un nas / nuc / micro-serveur chez toi c’est que tu es déjà un geek.

Pour que le P2P marche efficacement (notament pour que la “longue traine” puisse exister) il faut que beaucoup, beaucoup de personne laissent tourner un truc, pas seulement quelques geek (même si il en faut)
D’où l’idée de la box internet, que tu n’éteinds jamais (par habitude) et qui nécessite rien d’autre. Un non geek achetera jamais un appareil physique dans l’objectif exclusif d’utiliser un protocole, à moins que ça marche déjà assez pour qu’on le trouve au rayon micro-informatique de grandes surfaces (et donc que ce soit déjà très monétisé).



Je ne sais pas si un autre FAI français fait comme Free avec les VM. Je ne vois pas SFR ni Orange le faire en tous cas (sur livebox c’est déjà tellement la cata comme c’est…)



Argonaute a dit:


Je crois personnellement que c’est avant tout l’esprit de l’époque qui s’est perdu.



Car beaucoup on voulu y voir une façon de s’enrichir pécuniairement rapidement après que les bourses et les banques se soient intéressées au sujet.




C’est surtout que le grand public est arrivé.
Consommateur mais non intéressé par le fonctionnement et non “geek”



Et quand on voit cette nouvelle génération qui utilise des smartphones mais ne pigent rien au système, alors que les anciens de 7080 ans comprennent bien mieux… C’est mal barré ^^


Les rêves de l’enfance sont les regrets de la maturité.



Touts les révolutions se font un peu comme ça, les pionniers qui découvrent/invente un monde nouveau. Les chercheurs d’or comme des Héraults d’une nouvelle ère, et puis se sont les fabricants de pelles, de brouettes et de trains qui font fortunes et viennent les banquent puis les administration qui façonnent les villes. Et les chercheurs d’or regarde un monde d’aventure et de “tout à faire/inventer, libres” se perdre et se diluer dans les limbes de leur mémoire et dans la tristesse de leur âmes qui ne reverront plus, ne vivront plus de nouveau une telle aventure.



Nous auront eu au moins la chance d’être là dès le début (pour les plus anciens d’entre nous) d’y faire fortune (dans tous les sens du termes) (pour les plus chanceux d’entre nous). Nous avons contemplé une horizon extraordinaire, à perte de vue. Libre et plein de promesses. Nous contemplons maintenant la ville et son béton qui a tout avalé. Nos rêves et nos espoirs.



Certains essayent de faire renaitre cette passion, ou de la découvrir eux même. Mais c’est hélas peine perdue. Ce qui a été ne sera plus.



Aujourd’hui la génération née en 2000 ne sait pas ce qu’est l’informatique, elle n’a pas connu le monde sans. Elle ne sait pas envoyer un mail correctement, à peine se servir efficacement d’un ordinateur ou agencer des lignes de codes. Elle utilise le monde que nous avons bâti. Comme nous utilisons le monde électrique que nos aïeux ont bâti.



C’est ainsi, nous ne pouvons que constater et nous souvenir. Et travailler pour que ça n’empire pas plus.



wanou a dit:


Pour faire disparaitre les grosses plateforme qui vivent de nos contenus et de nos données, il faudrait pouvoir mettre en relation facilement caux qui ont des choses à partager avec ceux qui peuvent les y aider.




Mieux mettre en avant les CHATONS, donc, qui ont justement été conçus dans cet objectif précis.