Les travaux du CEA sur la 6G (140 GHz), avec des « surfaces réfléchissantes intelligentes »

Les travaux du CEA sur la 6G (140 GHz), avec des « surfaces réfléchissantes intelligentes »

Parfait pour les miroirs connectés ?

Avatar de l'auteur
Sébastien Gavois

Publié dans

Société numérique

18/08/2021 8 minutes
97

Les travaux du CEA sur la 6G (140 GHz), avec des « surfaces réfléchissantes intelligentes »

En Europe, pas moins de neuf projets sont en cours sur la 6G sous la houlette de la 5G PPP. But avoué : « ne pas se laisser devancer par la Chine ». Le CEA, coordinateur de l’un d’entre eux, dévoile des détails techniques et présente ses travaux, notamment sur une « antenne orientable électroniquement ».

La 5G est désormais disponible un peu partout dans le monde, y compris en France depuis quelques mois. Il s'agit encore bien souvent de 5G NSA (Non Stand Alone), qui repose sur un cœur de réseau 4G, la 5G SA (StandAlone) n'étant attendue que dans un second temps, notamment dans l’Hexagone.

L'étape d'après est déjà connue : le passage à la 6G. Ces standards étant établis pour une dizaine d'années, les travaux de recherche et de prospective sur les usages commencent bien en amont. Nous en sommes encore à ce stade pour le prochain standard (Release 21) qui n'est pas attendu avant 2030.

3GPP Release Calendrier 6G
Crédits : 3G4G

Les annonces se succèdent, l’Europe a neuf projets sur le feu…

Les choses se précisent peu à peu. LG était l’un des premiers à évoquer le sujet de la 6G dès le début de l’année 2019, suivi quelques mois plus tard par Huawei ; mais sans entrer dans les détails à chaque fois. Mi-2020, Samsung passait la seconde avec un livre blanc et des détails techniques sur sa vision et ses travaux autour de la 6G.

L’Europe aussi se mobilise : fin 2020, Nokia et Ericsson prenaient la tête de Hexa-X, un projet de recherche sur la prochaine génération de téléphonie mobile. La 5G Infrastructure Public Private Partnership (alias 5G PPP) – initiative commune entre la Commission européenne et l’European Information and Communication Technologies (ICT) – référence pas moins de neuf autres projets sur son site, dont la durée varie entre 30 et 42 mois.

RISE-6G, coordonné par le CEA

La France est impliquée dans les deux tiers d'entre eux. Le Commissariat à l'énergie atomique et aux énergies alternatives (CEA) participe aux initiatives Hexa-X et Dedicat-G. Il est également le coordinateur de RISE-6G (Reconfigurable Intelligent Sustainable Environments for 6G Wireless Networks).

D’autres acteurs, comme Orange, sont partie prenante de plusieurs projets (MARSAL, Hexa-X, Dedicat-6G et Rise-6G). L'opérateur agit également au sein des différents groupes de travail visant à définir le standard.

6G 5GPPP

RISE-6G a officiellement été lancé le 1er janvier 2021. Il comprend des industriels (NEC, Orange, Telecom Italia), des universités (Göteborg, Aalborg, Athènes et Notthinham), des centres de recherches (CEA, CNRS, Consorzion Nazionale Interuniversitario Italiano) et d’autres partenaires comme la SNCF et le Centro Ricerche Fiat.

« Pour l'Europe, il s'agit de rester dans la course et de ne pas se laisser devancer par la Chine dans le développement de ce nouveau standard », explique le CEA. 

Débit multiplié par 1 000, latence divisée par 10 

Dans une vidéo récemment mise en ligne, le Laboratoire d'électronique et de technologie de l'information (Leti) donne de plus amples détails. Notez qu’il est parfois question de B5G dans les documents, une référence à « Beyond 5G », et donc ce qui arrivera après la 5G (la 6G, CQFD).

Pour commencer, le CEA rappelle que, « globalement, la 6G se situera dans la continuité naturelle de la 5G », qui est elle-même dans la continuité de la 4G, etc. Il s'agit en effet de révisions successives d'un même standard.

De nouvelles bandes de fréquences sont évidemment à l’étude afin de faire transiter toujours plus de données, toujours plus vite. La 6G proposera ainsi « un débit environ 1 000 fois plus élevé pour supporter l'augmentation exponentielle de la quantité d'informations circulantes. La réalité augmentée, les lunettes connectées et les hologrammes en seraient les principales sources, sans parler des voitures, drones, robots… », explique le CEA.

Deuxième point crucial dans une connexion à Internet, la latence : « déjà diminuée avec la 5G, elle devrait être encore fortement réduite pour descendre sous une milliseconde. Cette réduction de latence sera par exemple fondamentale dans l'industrie 4.0 ou la réalité augmentée interactive ».

De 1 ms en 5G, les chercheurs espèrent arriver à 0,1 ms en 6G. Pour rappel, Samsung évoquait la même chose dans son livre blanc : « les objectifs de performance [en 6G] ciblent une latence inférieure à 0,1 ms et une latence de bout en bout (E2E) inférieure à 1 ms » expliquait alors le constructeur.

6G CEA RISE-6G6G CEA RISE-6G

La 6G jusqu’à 1 000 km/h, de nouvelles bandes sub-térahertziennes

Enfin, la 6G compte se déployer à une bien plus grande échelle que les technologies précédentes : elle « permettra d'assurer des communications dans l'espace, dans les airs, sur terre et en mer, à des vitesses allant jusqu'à 1000 km/heure ». Là encore, le CEA rejoint (dans les grandes lignes) les propos de Samsung.

« La bande millimétrique de la 5G sera complétée par les ondes sub-térahertziennes et la vitesse de transmission des données sera 100 fois plus rapide qu'avec la 5G ». Dans ce document, il est question des ondes dans les 140 GHz, une fréquence millimétrique proche des ondes térahertz.

Pour rappel, plus la fréquence est élevée, plus la portée est courte. Comme avec les 26 GHz, il faudra avoir la cible dans sa ligne de mire pour transférer des données dans le sub-térahertz. Le CEA rappelle que ces ondes peuvent être « bloquées ou fortement atténuées par des murs, des arbres ou même des fenêtres ». « Même avec un chemin de propagation dégagé, des antennes à gain élevé sont nécessaires », ajoute-t-il. 

Ces fréquences ont par contre l’avantage de disposer de larges bandes disponibles, permettant de faire transiter de grosses quantités de données : il est bien plus facile de trouver des milliers de MHz de disponible dans les 140 GHz qu’en dessous de 10 GHz… et c’est peu de le dire ! 

6G CEA RISE-6G

Le CEA développe des « surfaces réfléchissantes intelligentes »

Afin d’exploiter aux mieux ces fréquences, le Commissariat est en train de concevoir « des technologies au-delà de l'état de l'art avec une haute directivité et une antenne orientable électroniquement », ainsi que des « surfaces réfléchissantes intelligentes ». 

« Ces réflecteurs focaliseront l’énergie de rayonnement et diminueront fortement la consommation et l’exposition aux ondes. Ils s’inscrivent dans une vision européenne de la 6G qui priorise la réduction des impacts et l’augmentation du niveau de sûreté. Les acteurs asiatiques, pour leur part, privilégient à ce jour le gain de performance », explique le CEA.

Dans ce document, le CEA rappelle les grandes lignes directrices et objectifs de RISE-6G :

  • « définir de nouvelles architectures de réseau et stratégies d'exploitation intégrant de multiples surfaces intelligentes reconfigurables, 
  • caractériser les limites fondamentales du nouveau système en s’appuyant sur les modèles réalistes et validés de propagation des ondes radio, 
  • concevoir des solutions afin de trouver le juste milieu entre connectivités haute capacité, efficacité énergétique, exposition aux champs électromagnétiques et précision de localisation […] tout en tenant compte des exigences législatives et réglementaires spécifiques sur l’utilisation du spectre, la protection des données et l’émission de champs électromagnétiques
  • proposer ‎un prototype/benchmark de ces innovations via deux essais complémentaires (site de production Fiat Industry 4.0 et gare SNCF) ».

Patience est le maitre mot… la 6G prévue pour 2030

« La 6G sera naturellement exploitée pour l'Internet des objets, dans l'industrie 4.0, la conduite autonome, les usines intelligentes et de nombreux autres domaines. Mais pour en bénéficier, il faudra patienter une bonne dizaine d'années ! », ajoute le CEA.

Cette nouvelle génération est en effet prévue qu’à l’horizon 2030. Des étapes intermédiaires sont évidemment en place pour encadrer ce chantier. Les grandes tendances et les technologies clés devraient être définies aux alentours de mi-2022, tandis que la standardisation technique ne devrait pas arriver avant cinq ans.

6G CEA RISE-6G6G CEA RISE-6G

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Les annonces se succèdent, l’Europe a neuf projets sur le feu…

RISE-6G, coordonné par le CEA

Débit multiplié par 1 000, latence divisée par 10 

La 6G jusqu’à 1 000 km/h, de nouvelles bandes sub-térahertziennes

Le CEA développe des « surfaces réfléchissantes intelligentes »

Patience est le maitre mot… la 6G prévue pour 2030

Fermer

Commentaires (97)


Pfizer compatible avec la 6G ou il faudra une mise à jour du vaccin ?


Si on pouvait s’éviter les HS inutiles du genre, ce serait sans doute pas plus mal ;)


David_L

Si on pouvait s’éviter les HS inutiles du genre, ce serait sans doute pas plus mal ;)


Désolé, je voulais faire une petite blague à la manière de vos sous-titres.



Je comprends les personnes qui pensent que la 6G est inutile, un peu comme pour la 5G si on reste dans l’utilisation d’internet d’aujourd’hui mais demain on aura peut-être besoin de la 5G/6G.



Comme la fibre à 100Mo/s down et 60Mo/s up contre 12Mo/s down et 100Ko/s up pour l’ADSL, il est vrai que 12Mb/s est suffisant pour aller sur FB mais pour une vidéo conférence par personne dans une famille de 4 personnes toutes confinées, les 100Ko/s en upload seraient clairement insuffisants.



Example avec la 5G qui permettrait les objet connecté, actuellement c’est useless mais peut être dans 5 ans, un monde sans objet connecté serai impensable.



Avec la 6G, la précision de la localisation est meilleure, nous passerions de 10cm en 2D à 1cm en 3D, et cela peut changer notre vie quotidienne, cela permet de passer d’un débit de 50Mbps dans un rayon 2D à un débit de 10Gps dans un rayon 3D parce que l’antenne connaît votre position réelle en 3D, et comme nous sommes dans un monde en 3D, c’est mieux.



alors oui, pour surfer, c’est clairement surfait, mais comme personne ne connaît l’avenir, la technologie doit faire des bonds de géant pour éviter que notre imagination ne soit bloquée pas par elle.


On va finir avec des antennes sur nos toits pour capter en intérieur.
Par contre, la latence fait rêver. C’est vraiment le problème des lignes 3G/4G. Le débit n’est pas forcément un problème, mais la latence est ultra importante pour plein de site qui font une véritable cascade de téléchargement.


Je ne comprends pas bien, on a des latences de plusieurs centaines de millisecondes en filaire, je ne vois pas l’intérêt d’une latence à 0,1 ms ?


Tandhruil

Je ne comprends pas bien, on a des latences de plusieurs centaines de millisecondes en filaire, je ne vois pas l’intérêt d’une latence à 0,1 ms ?


Tu les sors d’ où tes chiffres ?
La latence techno cable version 3 (SFR) c’ est 15 ms chez moi en général
pas plus que ça
en fibre optique on est à 5


Tandhruil

Je ne comprends pas bien, on a des latences de plusieurs centaines de millisecondes en filaire, je ne vois pas l’intérêt d’une latence à 0,1 ms ?


L’interêt d’une faible latence est de déplacer les capacités de calcul chez l’opérateur et de facturer à l’usage. Rolala c’est cher une IA pour voiture alors qu’elle passe 99% du temps immobile. Hop on déplace le calculateur dans le cloud et c’est un abonnement … magique (mais encore plus cher)


Vous ne trouvez pas que cette courses a la vitesse ne sert a rien ?
Je veux dire, si une industrie a besoin d’une latence de 0.1s, c’est que c’est de l’application critique et pour ca, passer par un reseau sans fil c’est… tendu niveau fiabilité. Et aussi, le reseau plante et plus aucune voiture ne fonctionne ? Non merci


Yep y’a “aucun” intérêt. La 5G était déjà critiqué pour la même raison. Ce sera pareil sur la 6G. Après en R&D je ne vois pas le souci.


Hugues1337

Yep y’a “aucun” intérêt. La 5G était déjà critiqué pour la même raison. Ce sera pareil sur la 6G. Après en R&D je ne vois pas le souci.


Comme dit, ce sont des réseaux développés sur 10 ans, prévus pour durer 10 ans. Penser que les besoins ne changeront pas en 20 ans c’est être sûr de se tromper à 100%.



Les réseaux évoluent avec les besoins. Et il vaut mieux qu’ils le fassent en avance de phase plutôt que l’inverse (mais revenez au WAP sinon :D)



La technologie évolue, dans ses capacités et son efficacité. Ce que l’on en fait c’est autre chose. Il faut toujours ne pas veiller à confondre les deux.




(quote:1891407:Benoit NI)
Je pensais que la fibre allait à la vitesse de la lumière, qu’on était à la vitesse maximale, et donc avec la latence la plus faible.




La lumière dans la fibre oui, les équipements de chaque côté…


0.1 ms de latence en 6G et 1 ms de bout en bout. De bout en bout ça signifie entre le terminal utilisateur et un serveur speedtest ?
Je trouve ça surprenant car même en fibre (rien ne peut aller plus vite, en théorie, n’est-ce pas ?), on a plutôt du 4 ou 5 ms (2 ms pour les chanceux) entre un pc ou un smartphone jusqu’à un serveur de speedtest.net.


On continue à nous parler d’un univers ultra numérique ultra connecté avec des objets intelligents partout, des tera de données transférés par à peu près tout ce qui nous entoure…
Ce qui implique donc de créer des dizaines de milliards de produits, entre les objets connectés, les nouvelles infras etc… Juste pour permettre ces “nouveaux usages” qui semblent effectivement tellement indispensables.



Et pendant ce temps…





Les mêmes matériaux qui sont INDISPENSABLES pour énormément de produits CRITIQUES (communication selon les standards actuels, ordinateurs pour la production humaine, puces pour les machines-outils notamment toutes celles qui gèrent la production de notre électroménager / transports / équipements réellement utiles)…
Et sachant que de nombreux pays dits “en développement” veulent (logiquement, et assez légimitement) déjà atteindre le niveau de confort actuel des pays développés (ce qui d’ailleurs constitue déjà aujourd’hui un des facteurs majeurs de la pression de la demande) ?



Il n’y a que moi qui ai envie de foutre des tartes et botter des culs parmi nos “dirigeants” là ? On pourrait pas pour une fois admettre l’existence du mur et éviter de s’y précipiter tout sourire à 100 à l’heure ?


L’évolution numérique s’accompagne généralement d’une évolution des matériaux utilisés, en espérant qu’on puisse trouver des alternatives à ceux utilisés aujourd’hui qui soient plus performants et moins polluants quant à leur extraction, ou leur fabrication.



C’est généralement une évolution beaucoup plus lente, mais l’épuisement des ressources va mettre au pied du mur tous ceux qui voudront vendre des produits électroniques on va dire. Et je pense qu’il y aura des solutions :)


Complètement d’accord. À force de faire comme si tout allait bien, les impacts seront très violents. Alors qu’on devrait déjà s’organiser avec en tête un rationnement des ressources.



Franchement, mes inquiétudes sur la vie privée avec toutes ces technos « connectées » s’estompent. J’ai bien peur qu’on n’y soit pas confrontés très longtemps encore.



(reply:1891403:Benoit NI)




Les faisceaux hertziens ont une latence bien moins élevée que la fibre, c’est pour ça qu’ils sont utilisés pour des applications type trading à haute fréquence :chinois:


Je pensais que la fibre allait à la vitesse de la lumière, qu’on était à la vitesse maximale, et donc avec la latence la plus faible.



(quote:1891403:Benoit NI)
0.1 ms de latence en 6G et 1 ms de bout en bout. De bout en bout ça signifie entre le terminal utilisateur et un serveur speedtest ? Je trouve ça surprenant car même en fibre (rien ne peut aller plus vite, en théorie, n’est-ce pas ?), on a plutôt du 4 ou 5 ms (2 ms pour les chanceux) entre un pc ou un smartphone jusqu’à un serveur de speedtest.net.




Ils doivent vouloir dire latence ajoutée à la latence naturelle liée à la vitesse de la lumière. Et en réseaux sans fil, on a l’habitude que les annonces se fassent sur les performances maximales jamais atteintes en réalité, sans que ce soit forcément indiqué “jusqu’à”.



D’où des chiffres toujours délirants qui n’ont l’air d’avoir aucun intérêt, mais qui permettent de partir de plus haut pour qu’une fois appliquée la dégradation de performances causée par le monde réel, on se retrouve avec des performances meilleures mais pas démesurées par rapport à la génération d’avant dans les mêmes conditions.



Quant aux applications annoncées, c’est toujours la foire à la saucisse, on y met les trucs hypes du moments (voitures autonomes) plus des trucs hyper vieux et ressortis chaque fois mais jamais mis en place pour autant (opérations chirurgicales à distance), donc il ne faut pas y prêter attention.



(reply:1891403:Benoit NI)




Il y a fort à parier que d’ici 10ans le réseau aura évolué et il y aura moins de goulots d’étranglement. On va grapiller les ms restantes sur l’infrastructure ou en proposant le contenu au plus proche de l’abonné. Je ne sais pas quels progrès seront fait dans le domaine mais il y aura surement quelque chose pour l’innovation au niveau fibre optique, conversion signal électronique / optique et aussi au niveau du traitement de l’information (serveur / logiciels).



Pour ceux qui y voient aucun intérêt, c’est ceux qui ne comprennent pas que toute chose évolue, même nous nous évoluons pour nous adapter à notre environnement (mais ça prend plus de temps que nos inventions). Vous auriez eu le même discours avec le WIFI a,b,g etc ou le processeur pentium de l’époque. Chaque amélioration est louable si elle est meilleure sur tous les points (économique, environnement, performance).



(quote:1891403:Benoit NI)
Je trouve ça surprenant car même en fibre (rien ne peut aller plus vite, en théorie, n’est-ce pas ?),




En théorie et en pratique dans la fibre tu es dans un media qui, comparé à l’air, ajoute un indice de réfraction, ce qui ralenti la vitesse de la lumière. Donc transmission dans le vide ou dans l’air (indice de réfraction faible) > vitesse dans une fibre. Y’avait un très bon exemple de ça dans le documentaires “Les nouveaux loups de Wall Street” où des opérateurs font la course à la milliseconde pour proposer à leur client d’atteindre des échanges boursiers plus rapidement que leurs concurrents pour le trading haute fréquence. Il y a ceux qui tirent des fibres le plus possible en ligne droite et ceux qui optent pour le rachat d’antennes abandonnées pour y installer des liaisons hertzienne et parcourir la plus longue distance dans l’air, tout ça pour des microsecondes qui valent de l’or (un peu HS mais je trouvais l’exemple parlant).




on a plutôt du 4 ou 5 ms (2 ms pour les chanceux) entre un pc ou un smartphone jusqu’à un serveur de speedtest.net.




Par contre le 0.1ms en E2E j’y crois moyen en effet, ton équipement va accrocher l’antenne relais la plus proche qui aura soit une connectivité au sol (fibre / cuivre) soit relaiera ton signal à l’antenne suivante etc … Ou alors ils parlent de 2 terminaux sur la même antenne.



edit: grillé par les commentaires précédents (vous êtes bien réveillés)


Concernant les “antenne orientable électroniquement”, c’est le même principe que les Phased Array Antenna comme fait Starlink ?



Je voyais ça comme une techno propre à l’antenne, et pas forcement impactant sur le protocole :zarb:


Je suppose que pour une cible en déplacement il faut la trianguler pour la suivre. Le fait d’intégrer dans le protocole des informations sur la “qualité” de réception de plusieurs sources peut aider à accélérer l’orientation des antennes (traitement protocolaire et non applicatif).



apwwn a dit:


Je veux dire, si une industrie a besoin d’une latence de 0.1s, c’est que c’est de l’application critique et pour ca, passer par un reseau sans fil c’est… tendu niveau fiabilité.




Il n’y a pas que l’industrie qui a besoin de pouvoir faire du “temps réel”. Dans les sites logistiques, difficile de piloter un robot mobile en filaire (c’est le câble pour le coup qui pourrait être tendu) par exemple.




Et aussi, le reseau plante et plus aucune voiture ne fonctionne ? Non merci




Un véhicule autonome, comme son nom l’indique, n’a aucun besoin de réseau pour son fonctionnement. Le réseau sert à des améliorations du service, comme le recalcul des itinéraires en fonction des informations de trafic, ou le pilotage de flottes, ou des services comme la livraison autonome. Mais sans besoin de telles performances.



Reste à savoir s’il y aura encore des voitures (au sens véhicule particulier) après 2030.


@luminouw, @emmettbrown, @Inodemus, @PSXBH : merci à tous pour vos explications. Il fallait donc savoir / se rappeler que la vitesse de propagation des ondes dépend du milieu dans lequel elles évoluent. Mieux vaut donc éviter de faire trop de noeuds avec sa fibre :)



Pour ce qui est de l’intérêt, je pense que les usages viendront avec. Un exemple : casque VR sans fil 6G qui fait tourner un programme PCVR sur du cloud computing, dans ce cas, la latence est très importante. Il n’y a dans ce cas plus de dépendance à un endroit fixe, de quoi faire rêver ceux qui ont un casque VR avec cable relié à leur PC fixe.



Cumbalero a dit:


Reste à savoir s’il y aura encore des voitures (au sens véhicule particulier) après 2030.




Tu veux détruire les véhicules particuliers en circulation actuellement (yc les neufs) alors qu’ils peuvent rouler plus de 10 ans ?


Moi je n’ai strictement rien contre la 5G et même la 6G mais quand je vois mes usages la 4G ne me pose aucun problème je peux rester avec aussi longtemps que possible si le tarif n’évolue pas.
J’ai fait un test avec un collègue de lancement de site internet et vidéos Youtube moi en 4G+ orange prixtel et lui en 5G orange, et la différence est quasi inexistante dans les usages réels, je parle pas de speedtest. Maintenant ça doit être plus rapide pour DL mais je fais beaucoup plus de streaming.



(reply:1891418:titi-henry)




C’est comme entre la fibre et l’ADSL, pour le surf, la différence n’est pas énorme, ça dépend de la charge du serveur qu’on a en face. Et cela ne change pas grand chose pour de nombreux petits fichiers à télécharger nécessaires à l’affichage d’un site.


Autant je comprend le fait de devoir avancer pour éviter de se faire doubler par tout le monde. Autant on en arrive au ridicule, on est en pleine shadokerie.
Le marketing de la 5G a déjà été démonté, et au final entre les ligne le marketing a pris le pas sur la technique ( cf les différences de débit a l’intérieur même de la 5G en fonction des fréquences ici même : https://www.nextinpact.com/article/46241/le-deploiement-5g-continue-bon-train-carte-sites-a-plus-240-mbs-mise-a-jour )



Pour les objets connectés c’est plus une question de paradigme :




  • moi j’aimerai que tout passe par mon réseau pour le gérer

  • orange & co aimeraient bien passer un max en WAN pour augmenter leur clientèle.



Ensuite on nous dit que la voiture du futur aura besoin de la 5G pour être autonome, mais aucun démonstrateur n’a pointé le bout de son nez, donc ce ne sont que des pures suppositions.



J’ai l’impression qu’on a changé de mode de fonctionnement, avant, la technologie ouvrait de portes a des applications concrètes et était poussé pour, maintenant on pousse la nouvelle techno en espérant que de nouvelles applications vont en naitre.



Tandhruil a dit:


Tu veux détruire les véhicules particuliers en circulation actuellement (yc les neufs) alors qu’ils peuvent rouler plus de 10 ans ?




Il suffit de les exclure des centres urbains.
Ca en prend le chemin, et je ne vais certainement pas m’en plaindre. Pour une fois qu’il y a un semblant de tenue des engagements pris…




(quote:1891418:titi-henry)
Moi je n’ai strictement rien contre la 5G et même la 6G mais quand je vois mes usages




La 5G et la 6G ne sont pas des évolutions destinées aux usages que tu en as, la fameuse caricature de télécharger un boulard en quelques secondes… C’est essentiellement l’IoT et les applications industrielles qui sont concernés.



CR_B7 a dit:



Pour les objets connectés c’est plus une question de paradigme




C’est aussi une question de vocabulaire: les objets connectés ne sont pas nécessairement à ton domicile.




Ensuite on nous dit que la voiture du futur aura besoin de la 5G pour être autonome




Encore une question de vocabulaire: si elle est autonome, elle n’a besoin de rien. Les applications que l’on peut faire d’un véhicule sans chauffeur, elles, peuvent avoir besoin de réseau.




J’ai l’impression qu’on a changé de mode de fonctionnement, avant, la technologie ouvrait de portes a des applications concrètes et était poussé pour, maintenant on pousse la nouvelle techno en espérant que de nouvelles applications vont en naitre.




Il me semble que ça a toujours été le cas, depuis l’invention de la roue. Elle n’a pas été créée parce qu’on avait besoin de trottinettes. On n’a pas inventé la transmission sans fil parce qu’on avait besoin d’écouter BFM à la radio. On n’a pas développé les réseaux informatiques pour que l’“internet 2.0” puisse t’apporter les rézosocio


La roue a été crée pour être plus efficace sur les traineau et c’est très vite rependue, c’est bien que c’est une ‘brique technologique’ qui a ouvert de grand progrès.



Pour l’instant la 5G n’a rien ouvert de special.



Tandhruil a dit:


Je ne comprends pas bien, on a des latences de plusieurs centaines de millisecondes en filaire, je ne vois pas l’intérêt d’une latence à 0,1 ms ?




Tout dépend ce que tu appelles filaire. Sur un réseau, on est généralement < 1ms. En ADSL, plutôt de l’ordre de 30-100ms (rarement plus).
En 4G, on est dans les dizaines de ms (voire bien plus si saturé).



L’aspect “réactif” d’un site web est plus sur la latence que sur le débit (bon, avec des sites qui pèsent 50Mo pour une page, le débit est important aussi). Quand ta page charge 10 fichiers, puis en déduis qu’il faut en charger encore 10 autres, puis encore 10 autres, entre les paquets réseaux du DNS (si pas en cache DNS), ceux liés à la négociation SSL (sur plusieurs sites souvent) + les paquets des requêtes web, la latence pèse.



Sans compter les sessions distantes, qui commence à sembler “lourdes” avec des latences > 40ms (souvent atteinte en 4G), ou pour le JV en streaming.




(quote:1891407:Benoit NI)
Je pensais que la fibre allait à la vitesse de la lumière, qu’on était à la vitesse maximale, et donc avec la latence la plus faible.




On est en radio, non full duplex. Le protocole doit être adapté à des faibles latences. Si le protocole c’est “je cause 10ms, tu causes 10ms”, ta latence ne descendra pas sous les 20ms.



Cumbalero a dit:


Il suffit de les exclure des centres urbains. Ca en prend le chemin, et je ne vais certainement pas m’en plaindre. Pour une fois qu’il y a un semblant de tenue des engagements pris…




Tu parles des ZFE.
Ok effectivement, mais pour le coup ça n’élimine pas les véhicules des particuliers, ça les remplace par des véhicules électriques dans les centres urbains denses (sans parler des centrales électriques nécessaires pour recharger les dits véhicules).




(quote:1891430:brice.wernet)
Tout dépend ce que tu appelles filaire. Sur un réseau, on est généralement < 1ms. En ADSL, plutôt de l’ordre de 30-100ms (rarement plus). En 4G, on est dans les dizaines de ms (voire bien plus si saturé).



L’aspect “réactif” d’un site web est plus sur la latence que sur le débit (bon, avec des sites qui pèsent 50Mo pour une page, le débit est important aussi). Quand ta page charge 10 fichiers, puis en déduis qu’il faut en charger encore 10 autres, puis encore 10 autres, entre les paquets réseaux du DNS (si pas en cache DNS), ceux liés à la négociation SSL (sur plusieurs sites souvent) + les paquets des requêtes web, la latence pèse.




En général le DNS est géré par le réseau local, à part la gestion SSL (pourquoi plusieurs site ?) si le site est propre (pas de google analitics et autres saloperies) il ne doit pas y avoir des centaines de sources. En plus il y a des règles dans la transmission de données pour permettre d’envoyer un nombre important de packets sans acknowledge avant de devoir attendre (d’ailleurs en liaison satellite les fenêtres sons beaucoup plus grandes).



Pour moi le protocole de communication compense largement ces problèmes de latence (c’est plus problématique avec des lignes de mauvaises qualité (paquets en erreur)



(reply:1891403:Benoit NI)



0.1 ms de latence en 6G et 1 ms de bout en bout. De bout en bout ça signifie entre le terminal utilisateur et un serveur speedtest ?




Non, là je suppose qu’ils parlent uniquement de ce qui se passe entre deux antennes au niveau de du transport de l’information. Ça ne doit pas être comparé à la latence constatée par l’utilisateur en bout chaîne, qui elle est la somme de plusieurs latences, dont celle-ci fait partie.



Tandhruil a dit:


Tu parles des ZFE. Ok effectivement, mais pour le coup ça n’élimine pas les véhicules des particuliers, ça les remplace par des véhicules électriques dans les centres urbains denses




C’est la 1ere étape.
Augmentation exponentielle des tarifs de stationnement, piétonisation massive des centre-villes, ça arrive, c’est en cours par endroit.
C’est fini les 90% de la taille de la chaussée réservée à la bagnole, et c’est pas trop tôt.



Quand tu regardes la bagnole avec un esprit d’ingénieur, il y a de quoi se taper la tête sur les murs. Charge utile moyenne inférieure à 10% de la masse transportée, véhicule dit automobile mais à l’arrêt plus de 90% du temps. Un véritable non-sens.



Pour rappel, plus la fréquence est élevée, plus la portée est courte. Comme avec les 26 GHz, il faudra avoir la cible dans sa ligne de mire pour transférer des données dans le sub-térahertz. Le CEA rappelle que ces ondes peuvent être «bloquées ou fortement atténuées par des murs, des arbres ou même des fenêtres ».




Oh, ben pas de soucis : avec le réchauffement climatique, y aura plus d’arbres le temps que ça sorte. Ils auront soit cramés, soit abattu à cause d’un parasite, etc. :reflechis:



(Et quitte à devoir adapter les infrastructures autant dépenser l’argent du contribuable européen dans des panneaux solaires ou tout simplement le recyclage de tout ces éléments…)


La 5G (et la 6G ensuite) pour les véhicules autonomes, c’est surtout en direct entre véhicules proches, sans passer par une antenne d’un réseau externe. Cela permet d’échanger des informations pour synchroniser les actions de conduite. La latence <1ms est la bienvenue.
Le risque de collision entre véhicules autonomes devient alors quasi nul.



David_L a dit:


Si on pouvait s’éviter les HS inutiles du genre, ce serait sans doute pas plus mal ;)




Complètement d’accord, dehors les trolls.


Et côté sécurité, ils ont prévu de boucher les énormes trous qu’ils laissent à chaque fois derrière eux ? La 2G, c’était une passoire. La 3G, ils en ont ajouté autant qu’ils en ont corrigé. La 4G, ils ont dû corriger le pire, mais il en reste pleins. En 5G, là, je ne sais pas trop, mais je m’attends pas à quelque-chose de reluisant. Pour la 6G, je n’ai plus trop d’espoir. De là à croire que c’est fait a dessein pour les oreilles de “nos amis chinois du FBI”…


La 5G améliore significativement la sécurité,
même si il y a probablement encore des failles..



https://www.lemonde.fr/economie/article/2019/06/12/la-5g-provoque-un-vent-de-panique-au-sein-des-services-de-securite-europeens_5475179_3234.html




La 5G provoque un vent de panique au sein des services de sécurité européens
La technologie réduirait les capacités des forces de renseignement à identifier et localiser les mobiles, selon un rapport d’un coordinateur de la politique antiterroriste de l’UE.(…)



Première difficulté : la 5G pourrait fortement compliquer l’identification et la localisation des appareils mobiles. Le chiffrement rendrait, en effet, impossible la lecture de l’IMSI (International Mobile Subscriber Identity), le numéro code unique qui permet à un réseau de téléphonie mobile d’identifier un usager lors de chaque appel. Ce code est stocké dans la carte SIM de l’appareil – la puce qui enregistre les données pour l’abonné – et il n’est pas connu de l’utilisateur.



une nouvelle fonction de la 5G permettrait aux usagers comme aux opérateurs de détecter les intercepteurs IMSI, réduisant ainsi à néant ce que les experts de l’office policier européen décrivent encore comme « le plus important des outils opérationnels et tactiques d’investigation ».




ramaspaceship a dit:


La 5G (et la 6G ensuite) pour les véhicules autonomes, c’est surtout en direct entre véhicules proches, sans passer par une antenne d’un réseau externe. Cela permet d’échanger des informations pour synchroniser les actions de conduite. La latence <1ms est la bienvenue. Le risque de collision entre véhicules autonomes devient alors quasi nul.




Ca me fait un peu peur dans le sens ou une voiture peut communiquer avec une autre pour s’éviter, mais quid des voitures non équipée, ou des vélos, piétons etc..
Ca veut dire que si on veut aller par la il va falloir ‘stériliser’ les routes de tout autres présences que des voitures aux mêmes standards ?


perso je n’imagine pas une communication entre véhicules “pour s’éviter”, mais pour anticiper beaucoup mieux les aléas.



parmi les idées qui avaient été évoquées y’a déjà plus de 10 ans il me semble, le système des “trains de voitures”, c’est à dire que si plusieurs véhicules parcourent le même tronçon de route, ils se regroupent en convoi et roulent donc bien plus proches les uns des autres (amélioration globale de l’aérodynamisme = économies de carburant) mais du coup, si le véhicule de tête freine, faut pas que le dernier se mette a freiner à la détection des feux de l’avant dernier véhicule, dès que le premier détecte qu’il va freiner, la communication directe ferait que tous les véhicules du convoi freinent en même temps.



y’avait aussi des exemples à un croisement, si tous les véhicules présents se synchronisent correctement, ils pourraient se croiser sans avoir à marquer d’arrêt, mais bien entendu si un véhicule n’est pas synchronisé avec les autres (typiquement un véhicule avec un conducteur humain) ben le croisement fonctionne “à l’ancienne”, avec feux / stop / priorité à droite …
dans la théorie la synchro des véhicule fluidifierait le trafic de manière générale, et pour cette synchro il faut de la communication inter-véhicules



edit : typo / aération



La 6G proposera ainsi « un débit environ 1 000 fois plus élevé pour supporter l’augmentation exponentielle de la quantité d’informations circulantes. La réalité augmentée, les lunettes connectées et les hologrammes en seraient les principales sources, sans parler des voitures, drones, robots… », explique le CEA.




@David : si on regarde dans le rétro de ce qui se disait il y a 5 or 10 ans sur la 5G et 4G, je pense qu’on rigolera pas mal. Je sais que politiquement, les promoteurs doivent faire rêver mais parler des usages de la 6G dès maintenant, c’est de la divinations ^^



David_L a dit:


La technologie évolue, dans ses capacités et son efficacité. Ce que l’on en fait c’est autre chose. Il faut toujours ne pas veiller à confondre les deux.




Tu noteras que je n’ai jamais prétendu le contraire.
Je serais très heureux si les objectifs affichés de cette techno étaient, ENFIN, de poser un palier technologique durable pour les 30 à venir avec…




  • Réduction puis disparition des inégalités d’accès au réseau

  • Stabilisation des usages (impliquant du coup à priori un meilleur ratio usage / consommation / impact environnemental).



Là c’est faire de la techno pour fuir toujours plus en avant.
Tu veux une autre formulation ?
Allons-y, en mode simple : dans 30 ans non seulement on n’aura plus forcément les matières premières pour assurer tous les usages (en tout cas pour une majorité de population), mais on aura très probablement des soucis majeurs pour remplir les besoins de base notamment parce qu’au lieu de se poser la question de ce qui est réellement utile on aura accéléré dans le modèle de la sur-consommation.



Et le truc triste c’est qu’il n’y a vraiment plus moyen de faire semblant qu’on ne le sait pas, mais une majorité de gens de pouvoir restent dans le déni total, car ils devraient autrement reconnaître la responsabilité majeure qu’ils portent dans cet état de fait.



Si encore on savait recycler les composants électroniques de manière vraiment rapide et efficace, à la limite, pourquoi pas, se dire “le jour où on est dans la merde noire on retransforme pour rationaliser” sauf que c’est très loin d’être le cas.


Vous êtes très fort pour savoir ce que seront les technologies dans 30 ans. Ils y a à peine 30ans que le premier navigateur oueb est né ainsi que Linux. Alors dans 30 ans ni vous ni moi savons ce que sera l’électronique (ou autre chose) ni son usage


the_frogkiller

Vous êtes très fort pour savoir ce que seront les technologies dans 30 ans. Ils y a à peine 30ans que le premier navigateur oueb est né ainsi que Linux. Alors dans 30 ans ni vous ni moi savons ce que sera l’électronique (ou autre chose) ni son usage


Pluzun.


the_frogkiller

Vous êtes très fort pour savoir ce que seront les technologies dans 30 ans. Ils y a à peine 30ans que le premier navigateur oueb est né ainsi que Linux. Alors dans 30 ans ni vous ni moi savons ce que sera l’électronique (ou autre chose) ni son usage


Navré, mais c’est vraiment un commentaire boulet.
As-tu seulement pris la peine de lire les liens de mon précédent commentaire ? Ou juste de réfléchir au monde 10mn ?



EN L’ÉTAT ACTUEL on a déjà atteint les prévisions de changement climatiques plus tôt qu’à peu près toutes les prévisions qui avaient été faites entre 80 et 2000, même les plus pessimistes.



EN L’ÉTAT ACTUEL les projections basées sur l’état des technologies d’extraction (et leur coût) et la consommation actuelle “moyenne” annuelle donne un épuisement des métaux précieux qui va de 10 à 150 ans selon les cas. Si tout le monde se met à “consommer” comme les usa tu peux diminuer d’au moins 30% en moyenne la durée restante.



EN L’ÉTAT ACTUEL il y a déjà une pression forte et toujours croissante de manière non linéaire sur les matières premières rien qu’avec les usages existants, notamment avec tous les pays en développement qui veulent profiter du même niveau de vie que nous.



De nombreuses recherches courent depuis des années pour trouver des matériaux alternatifs ou des techniques de construction ou recyclage plus efficaces, mais il faut compter au grand minimum 10 ans entre le moment où une nouvelle technologie est validée en laboratoire et son utilisation “pour de vrai”. Et plusieurs dizaines d’années avant que ça devienne le nouveau standard de fait si vraiment la techno est aboutie.
Notamment parce que ça implique de modifier (ou reconstruire) des chaînes de production, reprogrammer, former les gens, etc…



EN L’ÉTAT ACTUEL le stockage de l’énergie reste extrêmement problématique quelque soit la solution adoptée, tandis que la production d’énergie reste globalement polluante (y compris le nucléaire même si ce n’est pas le même type de pollution ni de risques).
Côté stockage, on a tous les 6 mois l’annonce d’un support ou procédé innovant représentant un gain majeur, mais ça peine à passer l’étape d’analyse de rentabilité.
Côté production, la fusion nucléaire semble reconnue par de nombreux scientifiques comme un eldorado potentiel, et (heureusement) la recherche dans le domaine se poursuit avec une coopération internationale, reste qu’ils sont tous d’accord pour dire qu’au mieux on “maîtrisera” le processus dans 25 ans, et le temps que ça décante en construction de réacteurs faut tabler sur 50 ans. Même dans un monde idéal où la techno est librement partagée et tout le monde bosse en harmonie.



Ça c’est pour le côté pile.
Pour le côté face…




  • Événements climatiques majeurs dont les dégâts économiques et humains vont toujours croissants. Plus aucune personne saine d’esprit oserait aujourd’hui soutenir que nos activités humaines n’ont qu’une incidence moindre que majeure.

  • Techniques d’extraction des matériaux qui ruinent l’environnement au sens large donc contribuent également à réduire l’espace habitable et la qualité de vie pour tous les êtres, humains comme animaux.

  • Extinction des espèces qui, même si on prenait un point de vue égoïste de “on s’en fout des non-humains” va conduire à un effet domino sur la production de nourriture.

  • Changement climatique qui va également lourdement affecter la production de nourriture, l’accès à l’eau, et la qualité de vie en général.



En résumé…
1/ On aboutit à une période critique en termes de choix pour savoir si a) les humains du prochain siècle auront des conditions de vie à peu près décentes et b) si nous saurons le faire sans cataclysme géopolitique.
2/ On sait que notre activité débridée et franchement inutile est la cause principale de nos maux.
3/ On peut constater en regardant l’histoire des 50 dernières années que la technologie n’a jamais entraîné une réduction des impacts, car les gains en efficacité de toute sorte n’ont fait que servir de tremplin pour une multiplication des usages faute de volonté politique.
4/ On a toute l’histoire de l’humanité, des lignées de penseurs, philosophes, théologiens, pour nous rappeler ce qui est vraiment essentiel au bonheur.
5/ Même en arrêtant complètement de produire toute nouvelle oeuvre intellectuelle de n’importe quelle nature on aurait de quoi se distraire 1000 vies.
6/ Toutes les projections mènent à une situation cataclysmique d’ici même pas 30 ans, tandis qu’il nous faudrait des dizaines d’années pour “convertir” la société à de nouvelles technos en conservant les usages.



Et donc, on est partis pour consommer encore plus de ressources entre la mise à jour de l’infrastructure et la production d’objets connectés au service d’usages dont l’intérêt reste pour beaucoup à démontrer…
Bref, l’état d’esprit de 1920, avec les connaissances scientifiques et l’état environnemental de 2020.



Je te laisse en tirer les conclusions. :)


Citan666

Navré, mais c’est vraiment un commentaire boulet.
As-tu seulement pris la peine de lire les liens de mon précédent commentaire ? Ou juste de réfléchir au monde 10mn ?



EN L’ÉTAT ACTUEL on a déjà atteint les prévisions de changement climatiques plus tôt qu’à peu près toutes les prévisions qui avaient été faites entre 80 et 2000, même les plus pessimistes.



EN L’ÉTAT ACTUEL les projections basées sur l’état des technologies d’extraction (et leur coût) et la consommation actuelle “moyenne” annuelle donne un épuisement des métaux précieux qui va de 10 à 150 ans selon les cas. Si tout le monde se met à “consommer” comme les usa tu peux diminuer d’au moins 30% en moyenne la durée restante.



EN L’ÉTAT ACTUEL il y a déjà une pression forte et toujours croissante de manière non linéaire sur les matières premières rien qu’avec les usages existants, notamment avec tous les pays en développement qui veulent profiter du même niveau de vie que nous.



De nombreuses recherches courent depuis des années pour trouver des matériaux alternatifs ou des techniques de construction ou recyclage plus efficaces, mais il faut compter au grand minimum 10 ans entre le moment où une nouvelle technologie est validée en laboratoire et son utilisation “pour de vrai”. Et plusieurs dizaines d’années avant que ça devienne le nouveau standard de fait si vraiment la techno est aboutie.
Notamment parce que ça implique de modifier (ou reconstruire) des chaînes de production, reprogrammer, former les gens, etc…



EN L’ÉTAT ACTUEL le stockage de l’énergie reste extrêmement problématique quelque soit la solution adoptée, tandis que la production d’énergie reste globalement polluante (y compris le nucléaire même si ce n’est pas le même type de pollution ni de risques).
Côté stockage, on a tous les 6 mois l’annonce d’un support ou procédé innovant représentant un gain majeur, mais ça peine à passer l’étape d’analyse de rentabilité.
Côté production, la fusion nucléaire semble reconnue par de nombreux scientifiques comme un eldorado potentiel, et (heureusement) la recherche dans le domaine se poursuit avec une coopération internationale, reste qu’ils sont tous d’accord pour dire qu’au mieux on “maîtrisera” le processus dans 25 ans, et le temps que ça décante en construction de réacteurs faut tabler sur 50 ans. Même dans un monde idéal où la techno est librement partagée et tout le monde bosse en harmonie.



Ça c’est pour le côté pile.
Pour le côté face…




  • Événements climatiques majeurs dont les dégâts économiques et humains vont toujours croissants. Plus aucune personne saine d’esprit oserait aujourd’hui soutenir que nos activités humaines n’ont qu’une incidence moindre que majeure.

  • Techniques d’extraction des matériaux qui ruinent l’environnement au sens large donc contribuent également à réduire l’espace habitable et la qualité de vie pour tous les êtres, humains comme animaux.

  • Extinction des espèces qui, même si on prenait un point de vue égoïste de “on s’en fout des non-humains” va conduire à un effet domino sur la production de nourriture.

  • Changement climatique qui va également lourdement affecter la production de nourriture, l’accès à l’eau, et la qualité de vie en général.



En résumé…
1/ On aboutit à une période critique en termes de choix pour savoir si a) les humains du prochain siècle auront des conditions de vie à peu près décentes et b) si nous saurons le faire sans cataclysme géopolitique.
2/ On sait que notre activité débridée et franchement inutile est la cause principale de nos maux.
3/ On peut constater en regardant l’histoire des 50 dernières années que la technologie n’a jamais entraîné une réduction des impacts, car les gains en efficacité de toute sorte n’ont fait que servir de tremplin pour une multiplication des usages faute de volonté politique.
4/ On a toute l’histoire de l’humanité, des lignées de penseurs, philosophes, théologiens, pour nous rappeler ce qui est vraiment essentiel au bonheur.
5/ Même en arrêtant complètement de produire toute nouvelle oeuvre intellectuelle de n’importe quelle nature on aurait de quoi se distraire 1000 vies.
6/ Toutes les projections mènent à une situation cataclysmique d’ici même pas 30 ans, tandis qu’il nous faudrait des dizaines d’années pour “convertir” la société à de nouvelles technos en conservant les usages.



Et donc, on est partis pour consommer encore plus de ressources entre la mise à jour de l’infrastructure et la production d’objets connectés au service d’usages dont l’intérêt reste pour beaucoup à démontrer…
Bref, l’état d’esprit de 1920, avec les connaissances scientifiques et l’état environnemental de 2020.



Je te laisse en tirer les conclusions. :)


On n’a pas élevés les cochons ensemble donc les insultes dès le départ vous pouvez les garder ça ferait autant de CO2 en moins . Je me demande pourquoi vous écrivez vu le pavé car ça doit consomer pas mal de ressources réseau et serveurs. De votre faute un bébé Ours va mourir. C’est ballot


Citan666

Navré, mais c’est vraiment un commentaire boulet.
As-tu seulement pris la peine de lire les liens de mon précédent commentaire ? Ou juste de réfléchir au monde 10mn ?



EN L’ÉTAT ACTUEL on a déjà atteint les prévisions de changement climatiques plus tôt qu’à peu près toutes les prévisions qui avaient été faites entre 80 et 2000, même les plus pessimistes.



EN L’ÉTAT ACTUEL les projections basées sur l’état des technologies d’extraction (et leur coût) et la consommation actuelle “moyenne” annuelle donne un épuisement des métaux précieux qui va de 10 à 150 ans selon les cas. Si tout le monde se met à “consommer” comme les usa tu peux diminuer d’au moins 30% en moyenne la durée restante.



EN L’ÉTAT ACTUEL il y a déjà une pression forte et toujours croissante de manière non linéaire sur les matières premières rien qu’avec les usages existants, notamment avec tous les pays en développement qui veulent profiter du même niveau de vie que nous.



De nombreuses recherches courent depuis des années pour trouver des matériaux alternatifs ou des techniques de construction ou recyclage plus efficaces, mais il faut compter au grand minimum 10 ans entre le moment où une nouvelle technologie est validée en laboratoire et son utilisation “pour de vrai”. Et plusieurs dizaines d’années avant que ça devienne le nouveau standard de fait si vraiment la techno est aboutie.
Notamment parce que ça implique de modifier (ou reconstruire) des chaînes de production, reprogrammer, former les gens, etc…



EN L’ÉTAT ACTUEL le stockage de l’énergie reste extrêmement problématique quelque soit la solution adoptée, tandis que la production d’énergie reste globalement polluante (y compris le nucléaire même si ce n’est pas le même type de pollution ni de risques).
Côté stockage, on a tous les 6 mois l’annonce d’un support ou procédé innovant représentant un gain majeur, mais ça peine à passer l’étape d’analyse de rentabilité.
Côté production, la fusion nucléaire semble reconnue par de nombreux scientifiques comme un eldorado potentiel, et (heureusement) la recherche dans le domaine se poursuit avec une coopération internationale, reste qu’ils sont tous d’accord pour dire qu’au mieux on “maîtrisera” le processus dans 25 ans, et le temps que ça décante en construction de réacteurs faut tabler sur 50 ans. Même dans un monde idéal où la techno est librement partagée et tout le monde bosse en harmonie.



Ça c’est pour le côté pile.
Pour le côté face…




  • Événements climatiques majeurs dont les dégâts économiques et humains vont toujours croissants. Plus aucune personne saine d’esprit oserait aujourd’hui soutenir que nos activités humaines n’ont qu’une incidence moindre que majeure.

  • Techniques d’extraction des matériaux qui ruinent l’environnement au sens large donc contribuent également à réduire l’espace habitable et la qualité de vie pour tous les êtres, humains comme animaux.

  • Extinction des espèces qui, même si on prenait un point de vue égoïste de “on s’en fout des non-humains” va conduire à un effet domino sur la production de nourriture.

  • Changement climatique qui va également lourdement affecter la production de nourriture, l’accès à l’eau, et la qualité de vie en général.



En résumé…
1/ On aboutit à une période critique en termes de choix pour savoir si a) les humains du prochain siècle auront des conditions de vie à peu près décentes et b) si nous saurons le faire sans cataclysme géopolitique.
2/ On sait que notre activité débridée et franchement inutile est la cause principale de nos maux.
3/ On peut constater en regardant l’histoire des 50 dernières années que la technologie n’a jamais entraîné une réduction des impacts, car les gains en efficacité de toute sorte n’ont fait que servir de tremplin pour une multiplication des usages faute de volonté politique.
4/ On a toute l’histoire de l’humanité, des lignées de penseurs, philosophes, théologiens, pour nous rappeler ce qui est vraiment essentiel au bonheur.
5/ Même en arrêtant complètement de produire toute nouvelle oeuvre intellectuelle de n’importe quelle nature on aurait de quoi se distraire 1000 vies.
6/ Toutes les projections mènent à une situation cataclysmique d’ici même pas 30 ans, tandis qu’il nous faudrait des dizaines d’années pour “convertir” la société à de nouvelles technos en conservant les usages.



Et donc, on est partis pour consommer encore plus de ressources entre la mise à jour de l’infrastructure et la production d’objets connectés au service d’usages dont l’intérêt reste pour beaucoup à démontrer…
Bref, l’état d’esprit de 1920, avec les connaissances scientifiques et l’état environnemental de 2020.



Je te laisse en tirer les conclusions. :)


Merci d’avoir pris le temps de rédiger un commentaire aussi long et didactique.



Malheureusement, je finis par penser que ça ne sert au final qu’à gaspiller ton propre temps. Les gens ne sont probablement pas intéressés pour réfléchir et changer d’opinion/de croyances sur une discussion de ce genre, surtout sur un sujet qui vient ébranler autant une vision du monde où tout ira bien, parce qu’on est les plus forts et que la technologie va nous sauver. Et puis après tout il reste la carte de “toutes façons il est déjà trop tard, autant en profiter jusqu’au bout maintenant” pour éviter de se responsabiliser sur une catastrophe collective.
La science, c’est bien, mais surtout quand ça va dans le sens qui nous convient.



Cumbalero a dit:


Quand tu regardes la bagnole avec un esprit d’ingénieur, il y a de quoi se taper la tête sur les murs. Charge utile moyenne inférieure à 10% de la masse transportée, véhicule dit automobile mais à l’arrêt plus de 90% du temps. Un véritable non-sens.




Amen.



Citan666 a dit:



Là c’est faire de la techno pour fuir toujours plus en avant. Tu veux une autre formulation ? Allons-y, en mode simple : dans 30 ans non seulement on n’aura plus forcément les matières premières pour assurer tous les usages (en tout cas pour une majorité de population), mais on aura très probablement des soucis majeurs pour remplir les besoins de base notamment parce qu’au lieu de se poser la question de ce qui est réellement utile on aura accéléré dans le modèle de la sur-consommation.




Sans compter l’énergie… Je pense qu’on va vers un avenir où on ne pourra plus tout laisser connecté en permanence. Il va falloir que les programmeurs réapprennent à faire des logiciels qui ne font pas n’importe quoi quand un des composants n’est pas dispo (un serveur, le réseau, …)



(reply:1891415:Benoit NI)




Certes, il y a la vitesse de la lumière qui compte pour la latence, mais ça ne devient vraiment sensible qu’en intercontinental. Grosso modo, pour tous les milieux courants, on reste entre 100.000 et 200.000 km/s (comme dans le cuivre).
Mais il ne faut pas oublier tous les coûts de protocole : taille de trame, headers, encodage 810 ou autre, CRC, protocole sur le bus PCIe, etc. Sur courte distance, c’est ça qui fait la latence, pas a vitesse de la lumière.


“Patience est le maitre mot… la 6G prévue pour 2030” : chaque nouvelle génération succède à la suivante tous les 0 ans, 2G, 3G, 4G, 5G … ce n’est déjà pas si mal comme effort quand il faut déployer un réseau sur tout un pays


Je cite : “La 5G est désormais disponible un peu partout dans le monde, y compris en France depuis quelques mois. Il s’agit encore bien souvent de 5G NSA (Non Stand Alone), qui repose sur un cœur de réseau 4G, la 5G SA (StandAlone) n’étant attendue que dans un second temps, notamment dans l’Hexagone.”
Avecl a 5G il y a des gains en débits mais également une nouvelle architecture logicielle avec des réseaux virtuelles … et toutes sortes de fonctionnalités impliquant du logiciel



Quelles restriction du 5G NSA / 5G SA ?


La 5G SA demande un investissement beaucoup plus important. Il faut refaire le cœur de réseau qui est aujourd’hui en 4G. Malgré les avantages induots (ceux promis par la 5G), pour le moment on est pas pressé en France… Peut-être qu’on attend qu’un autre pays le fasse avant nous pour avoir son retour d’expérience côté installation, choix du matériel, processus, retombé des bénéfices…



CR_B7 a dit:


Pour l’instant la 5G n’a rien ouvert de special.




C’est bien là que tu te trompes à ne considérer que ton GSM.
Par exemple


Je n’ai pas accès à l’article mais à première vue c’est juste de l’IOT, juste que les fréquences sont désormais normalisées grâce à la 5G


Tandhruil

Je n’ai pas accès à l’article mais à première vue c’est juste de l’IOT, juste que les fréquences sont désormais normalisées grâce à la 5G


La 5G, en réduisant la latence, permet un pilotage en temps réel de chaînes de production et de logistique automatisées, en résumé.
C’est bien la réduction de latence qui est attendue, au delà de l’augmentation des débits.
J’ai trouvé cet article qui est en accès libre, il me semble.


Cumbalero

La 5G, en réduisant la latence, permet un pilotage en temps réel de chaînes de production et de logistique automatisées, en résumé.
C’est bien la réduction de latence qui est attendue, au delà de l’augmentation des débits.
J’ai trouvé cet article qui est en accès libre, il me semble.


La fibre permet DEJA de piloter avec une latence meilleure qu’en sans fil (physique des milieux élémentaire…)
Le wifi 5GHZ est plus économique et simple à maintenir/gérer et, il est compatible avec tous les terminaux DEJA en place…



Je ne comprends toujours pas ce stakhanovisme autour de la 5G…



the_frogkiller a dit:


Vous êtes très fort pour savoir ce que seront les technologies dans 30 ans. Ils y a à peine 30ans que le premier navigateur oueb est né ainsi que Linux. Alors dans 30 ans ni vous ni moi savons ce que sera l’électronique (ou autre chose) ni son usage




C’est marrant car il y à 20 ans certains disaient la même chose ici et depuis internet n’a pas évolué d’un iota… Dans 30 ans internet n’aura pas non plus évolué. Au mieux de chez mieux ça sera une augmentation le bande passante pour diffuser du contenu en super haute résolution.



(reply:1891471:skankhunt42 )




Heu, il y a 20 ans en France c’était le minitel … L’adsl arrivait à peine (PC inpact c’est il y a 18 ans …)
Il y a 20 ans chez moi on ne pouvait pas téléphoner et utiliser internet en même temps (et j’avais internet uniquement par ce que mon père travaillait dans l’informatique)



L’iphone c’est 2007, ça fait 14 ans seulement … (et on va pas me dire que les smartphone n’ont pas changé les habitudes)



Là, internet semble plus face à un défi de latence que de débit, et on parle d’une technologie qui réduit la latence justement.



va pas me dire que les smartphone n’ont pas changé les habitudes




C’est indéniable ( quoi que… ) mais entre le premier iphone et le dernier iphone il y à pas vraiment de différence fondamentale. Ce n’est qu’une upgrade au niveau puissance ce qui permet la montée en résolution du contenu. Résolution qui sera naturellement bloquée un jours à cause de notre corps ( c’est déjà le cas depuis de nombreuses année en fait ).




the_frogkiller a dit:


Vraiment pas d’évolutions ? Pas d’évolutions entre le RTC, la fibre optique et même l’introduction de communications quantique sécurisés. Et sans compter les usages qui on explosés




Sur du desktop je ne vois aucune différence entre de l’adsl “2.0” et de la fibre optique, désolé !



(quote:1891471:skankhunt42 )
C’est marrant car il y à 20 ans certains disaient la même chose ici et depuis internet n’a pas évolué d’un iota… Dans 30 ans internet n’aura pas non plus évolué. Au mieux de chez mieux ça sera une augmentation le bande passante pour diffuser du contenu en super haute résolution.




Vraiment pas d’évolutions ? Pas d’évolutions entre le RTC, la fibre optique et même l’introduction de communications quantique sécurisés. Et sans compter les usages qui on explosés



(quote:1891471:skankhunt42 )
C’est marrant car il y à 20 ans certains disaient la même chose ici et depuis internet n’a pas évolué d’un iota…




Je crois que tu confonds le web et Internet…



Cumbalero a dit:


Je crois que tu confonds le web et Internet…




En terme stricte serveur > client le web c’est internet et vice versa…



(reply:1891480:skankhunt42 )




On parle beaucoup plus de système terminaux / cloud depuis quelques temps (shadow, 365 cloud pc, stadia, …). Ce n’est pas encore une réussite, mais sans la fibre / 5G ce seraient des initiatives vouées à l’échec (c’est pas compliqué, ce sont des solutions que je ne peux pas envisager en Belgique car les FAI pensent que 20 mbps en upload c’est déjà beaucoup)



Je suis persuadé que l’évolution d’internet a également permis une augmentation des freelance. L’impact sur la société n’est pas forcément positif (Uber …), mais pour moi il y a du bon à prendre (même si ça doit être dompté ce qui n’est pas du tout le cas actuellement).



On peut aussi prendre youtube / twitch qui ont permis une certaine émancipation vis a vis des grands médias audio visuels.



Et je suis désolé d’en parler, mais imagine cette pandémie sans un internet rapide (je crois que durant l’épidémie de polio les enfants suivaient des cours via la radio …)



Et là je ne parle que de quelques changements pour le grand publique.



Je ne veux pas dire que tout a été révolutionné avec l’augmentation du débit, je trouve juste que nier tout changement c’est être aveugle.


Personne ne nie l’introduction de l’assistanat par virtualisation, non neutre avec usages spécialisés et payants par les opérateurs…
Juste, on en parle pas.



Tout comme le mot “contexte” a disparu du jargon technoïde. On en parle pas non plus car c’est mieux d’incanter seul et prêcher sa foi en une unique technologie bien qu’elles soient diverses et surtout COMPARABLES.



misocard a dit:


Je ne veux pas dire que tout a été révolutionné avec l’augmentation du débit,




C’est pourtant le cas…




(reply:1891489:Idiogène)




L’avantage de la 5G c’est que tu peut l’utiliser sur site et hors site, ça simplifie pas mal de chose. Même si théoriquement la 5G pourrais utiliser les mêmes protocole que le WIFI.



(reply:1891492:skankhunt42 )




C’est la même chose… à 2-3 détails près comme la puissance x10 des émetteurs comparée à celle permise par l’UE pour le wifi…



(reply:1891492:skankhunt42 )




L’application du décret 2016-1074 du 3 août 2016 va se heurter à quelques difficultés donc…



Je me demande d’ailleurs comment EN distanciel l’employeur s’assure déjà que ses employés sont sous-exposés… :fumer:



(reply:1891489:Idiogène)
Vu ici
« Des performances comparables à celles du futur Wi-Fi 6, sans ses inconvénients. « En Wi-Fi, dès que la quantité de terminaux augmente, la qualité de service se détériore et le débit s’écroule », pointe Mathieu Lagrange, chercheur à l’Institut de recherche technologique B-com. Derrière cet exploit, la technologie du « massive multiple-input – multiple-output » (multiples entrées –multiples sorties), ou Mimo massif »




(reply:1891484:skankhunt42 )




Internet est un réseau informatique mondial. Le Web (HTTP) n’est qu’un de ses usages et il faut se rappeler qu’il existe beaucoup d’autres protocoles. Même si le Web a phagocyté la plupart des autres protocoles en intégrant leurs usages ou en se mettant en avant comme point d’entrée via des clients Web.



Les usages client / serveur ne sont pas tous du Web. Au hasard, l’email qui repose sur des protocoles différents (SMTP/POP/IMAP).


Je pense que la différence fondamentale entre internet et le web c’est la synchronisation des données et ça tend de plus en plus à disparaitre pour de l’utilisation exclusive et de facilité de référencement.



C’est marrant que tu site l’email en exemple car le formatage du texte est fait en html comme une page web et bien souvent les images sont chargées via un serveur web.



ps : J’ai compris ou tu voulait en venir mais je pense que cette conversation n’est pas pertinente car ça embrouilles les esprits des utilisateurs lambda.



SebGF a dit:



Les usages client / serveur ne sont pas tous du Web. Au hasard, l’email qui repose sur des protocoles différents (SMTP/POP/IMAP).




Ca reste du client/serveur…



Après tu peux effectivement t’appuyer sur internet pour connecter tes entreprises entre elles en VPN ou faire du P2P.
A titre personnel c’est la transformation d’internet en plateforme de service (MMO, Cloud, Applicatif (office 365), …) qui me désole.



La bonne idée de départ de la 5G était de pouvoir faire de l’IOT à travers les infrastructure GSM. Pour une entreprise qui a des sites industriels un peu partout en France ça peut être intéressant de faire des télémesures simples via des objets sans ressources humaines sur place. J’avoue, depuis que je ne travaille plus dans le domaines (avant la 5G) je n’ai pas suivi l’évolution des objets connectés mais on n’en entend pas beaucoup parler.



L’histoire du technicien au japon qui pilote un robot en temps réel en France on en entend beaucoup parlé mais je n’ai pas l’impression que ça soit vraiment utilisé de nos jour.



Enfin, l’autre truc qui plante l’internet aujourd’hui, c’est la cybersécurité (ou tout au moins les cyberattaques.)


Je répondais à un commentaire qui estime que le web et l’Internet sont la même chose, ce qui est faux. Le client serveur, ça existe depuis bien avant que le Web n’ait été créé.



Quant à la transformation d’Internet en plateforme de service, j’ai envie de dire que ce n’est pas nouveau. Internet a toujours été une plateforme de services, des services en ligne qu’on vient consommer en tant que client via l’accès à des ressources disponibles sur le réseau en utilisant un protocole de communication. La tendance vraiment inquiétante (qui est déjà réalité aussi) à mes yeux est l’hyper centralisation de ceux-ci entre les mains d’acteurs en position dominante qui peuvent y dicter leur loi.



C’est la raison pour laquelle je préfère encourager et soutenir les services décentralisés utilisant le Fediverse.



(reply:1891489:Idiogène)




Je veux bien que tu me montres comment on relie par fibre optique des paniers sur un tapis roulant, des robots chargés d’aller chercher des palettes dans des rayonnages, les casques de réalité virtuelle pour les piloter.



Ce que je ne comprends pas c’est que tu n’envisages à aucun moment que les industriels qui font ces choix les ont éprouvés en fonction d’un cahier des charges. Tu devrais aller leur expliquer.




(quote:1891484:skankhunt42 )
En terme stricte serveur > client le web c’est internet et vice versa…




En fait, ta vision est encore plus erronée que ce que je pensais.


Bonne remarque mais au delà du cahier des charges qui porte la responsabilité de gestion du réseau de machines ou de robots hors site ?



Ce que je veux dire c’est qu’à mettre dans le même panier du sans fil privé et du public on confond tout…



D’où que le WiFi6 c’est pas si mal…



Wifi 7 ou antennes orientables… faut arrêter de baver sur un numéro…



Cumbalero a dit:


Je veux bien que tu me montres comment on relie par fibre optique des paniers sur un tapis roulant, des robots chargés d’aller chercher des palettes dans des rayonnages, les casques de réalité virtuelle pour les piloter.




Via un réseau local sans fil appelé wifi / bluetooth ?




Cumbalero a dit:


En fait, ta vision est encore plus erronée que ce que je pensais.




L’utilisation du “web” permet de facilité la communication au détriment des performances qui déclinent au fur et à mesure qu’ont multiplie la communication par ce vecteur.



(quote:1891519:skankhunt42 )
Via un réseau local sans fil appelé wifi / bluetooth ?




Mais pourquoi tous ces crétins d’industriels qui ont choisi la 5G n’ont pas fait appel à toi, le génie absolu du réseau?




L’utilisation du “web” permet de facilité la communication au détriment des performances qui déclinent au fur et à mesure qu’ont multiplie la communication par ce vecteur.




Tu devrais juste commencer par aller vérifier ce qu’est le web, ça t’éviterait de dires des bêtises.
Et ce qu’est Internet aussi.



Ensuite, tu m’expliqueras comment une transaction carte bancaire passe par le web, où comment on interconnecte toutes les entités d’une multinationale en utilisant un VPN qui utilise le web.




(quote:1891517:Idiogène)



D’où que le WiFi6 c’est pas si mal…




En résidentiel, on a déjà parfois du mal à trouver la bande que les voisins ne squattent pas et tu voudrais que des automates soient confrontés aux mêmes soucis alors qu’il va aussi falloir utiliser le WiFi pour les réseaux bureautiques et autres utilisations?
En 26GHz, t’es un peu plus peinard… Et si tu as besoin d’une largeur de bande de spectre de 10MHz, tu n’en utiliseras pas les 80 par canal du WiFi et donc 8 fois plus de réseaux isolés (et à courte portée ce qui peut aussi être un besoin) si tel est ton besoin.
Ca n’a juste pas de sens de comparer le WiFi (pire encore le BT de skankhunt!) avec la 5G et/ou la 6G. Et juste se dire “le WiFi marche très bien chez moi) sans vouloir imaginer que la 5G peut répondre à des besoins spécifiques.


En 2015 on utilisait du zigbee, du LoRa mais ce n’est pas sécurisé, la seule sécurité était dans la faiblesse de la portée.



Il y a d’autre contrainte que la portée ou le chiffrement, c’est l’autonomie, s’il faut recharger (remplacer) les accus a des fréquences trop élevées, il vaut mieux un opérateur (en fonction du volume de capteurs)
une opération de 30 mn => Un ETP (220 jours) pour 3000 capteurs


Tandhruil

En 2015 on utilisait du zigbee, du LoRa mais ce n’est pas sécurisé, la seule sécurité était dans la faiblesse de la portée.



Il y a d’autre contrainte que la portée ou le chiffrement, c’est l’autonomie, s’il faut recharger (remplacer) les accus a des fréquences trop élevées, il vaut mieux un opérateur (en fonction du volume de capteurs)
une opération de 30 mn => Un ETP (220 jours) pour 3000 capteurs


LoRa n’est pas sécurisée et de courte portée ?


tomdom

LoRa n’est pas sécurisée et de courte portée ?


Si, il est possible de sécuriser du LoRa effectivement, il faut que les terminaux retenus l’implémentent, mais ça consommait un peu trop (ce n’est pas la solution que nous avions retenue).



Désolé pour cette simplification un peu à la hache :incline:


Tandhruil

Si, il est possible de sécuriser du LoRa effectivement, il faut que les terminaux retenus l’implémentent, mais ça consommait un peu trop (ce n’est pas la solution que nous avions retenue).



Désolé pour cette simplification un peu à la hache :incline:


Pas de souci ;)



Surtout que le protocole impose 2 clés (AppKey et NwkKey) à partir desquelles tu dérives les différentes clés de session permettant de chiffrer et d’authentifier les messages.



Par contre, si ton SI retourne ok à chaque join request, tu peux avoir un réseau non sécurisé ;)


Tandhruil

En 2015 on utilisait du zigbee, du LoRa mais ce n’est pas sécurisé, la seule sécurité était dans la faiblesse de la portée.



Il y a d’autre contrainte que la portée ou le chiffrement, c’est l’autonomie, s’il faut recharger (remplacer) les accus a des fréquences trop élevées, il vaut mieux un opérateur (en fonction du volume de capteurs)
une opération de 30 mn => Un ETP (220 jours) pour 3000 capteurs



(reply:1891532:Idiogène)




Chaque protocole a ses spécificité et la 5G est une réponse possible. Les choix qu’ont fait les industriels qui utilisent cette techno en réseau privé prennent en compte leurs besoins, entre latence, débit, liberté de l’implémentation, fragmentation des réseaux, portée, consommation…


Je vois peu d’usines à proximité immédiate d’habitations… donc 26ghz cela n’a pas tant d’utilité pour l’instant.
Le Mimo c’est la même fréquence donc le prix d’un routeur wifi est dérisoire comparé à la 5G. Massive mimo c’est fastoche à reproduire. Faux débat.



D’autre part tu peux gérer ton réseau en interne sans sous-traitance et faire autant de vlan que tu veux. C’est même plus évident vu le secteur qui n’est économiquement soutenu que par le résidentiel ou les ordiphones.



Tu oublies aussi que le wifi répond à des besoins spécifiques idem. La norme n’est qu’une norme, c’est la qualité du matériel et son coût à long terme qui compte sur l’envers du cahier des charges : l’appel d’offres…



Voilà, le LoRa est déjà plus adapté que la 5G pour l’essentiel des acteurs industriels…
Des amazon avec un fort besoin de rapidité d’execution il n’y en a pas beaucoup en comparaison des industries primaires…



Cumbalero a dit:


Mais pourquoi tous ces crétins d’industriels qui ont choisi la 5G




Parce que la population est assez crétines pour penser que sans la 5g c’est impossible alors qu’au final cette même population ne pourra pas vraiment en profiter ? Au passage les industriels n’ont pas attendu la 5g pour mettre ce genre de truc en place.




le génie absolu du réseau?




Parle bien… Merci !




Ensuite, tu m’expliqueras comment une transaction carte bancaire passe par le web




A quoi ça te sert de pinailler en fait ? Quasiment tout est fait sur le serveur web ( j’ai bossé la dedans ) puis le serveur de la banque demande une autorisation de paiement. Ça ne passe pas par le web mais ça pourrais très bien avec un header / mime différent.



(quote:1891532:Idiogène)
Voilà, le LoRa est déjà plus adapté que la 5G pour l’essentiel des acteurs industriels… Des amazon avec un fort besoin de rapidité d’execution il n’y en a pas beaucoup en comparaison des industries primaires…




Je pense que pour la gestion de palette (entrepot), les puces RFID avec une spatialisation en 3D est plus efficace.
Tu peux aussi avoir des repères au sol pour guider les robots (c’était mon projet de bac F2 en 1986), un robot filoguidé qui suivait une fréquence attribuée circulant dans un câble rayonnant traçant son parcours au sol :phiphi:
Edit : Pilotés par un Solar c’était très efficace


Ahah ! Il existe aussi des suiveurs optiques avec bande peinte au sol !




Citan666 a dit:


De nombreuses recherches courent depuis des années pour trouver des matériaux alternatifs ou des techniques de construction ou recyclage plus efficaces, mais il faut compter au grand minimum 10 ans entre le moment où une nouvelle technologie est validée en laboratoire et son utilisation “pour de vrai”. Et plusieurs dizaines d’années avant que ça devienne le nouveau standard de fait si vraiment la techno est aboutie. Notamment parce que ça implique de modifier (ou reconstruire) des chaînes de production, reprogrammer, former les gens, etc…




Les matériaux alternatifs n’existent pas. Tu parles de régimes ou de process de transformation plus ou moins pertinents pour des assureurs…



Apriori, la nécessité du recyclage s’apparente à un process au moins aussi lourd que la transformation initiale. Autrement dit plus tu réduis les étapes de tansformation avant ou après usage plus ton matériau a un impact faible.
La recherche sur ce plan est trop souvent un leurre ou un secret de polichinelle…




6/ Toutes les projections mènent à une situation cataclysmique d’ici même pas 30 ans




Cataclysmique ?!!
l’Obélix n’a même plus besoin de faire cuire son sanglier au charbon avec tous ces feux de forêt.
Il en faut des sangliers pour affronter le changement climatique. :D


J’adore les slides qui disent le contraire de ce qu’elles veulent dire :




  • On va diviser par 100 la précision de la localisation


  • On va passer à une fiabilité du réseau de 0.000000001. Les 99.9999999 % autres, les appels ne seront pas routés



:pastaper:


La vitesse de la lumière c’est 1ms pour parcourir 300km. Donc on va sortir du cloud tranquille pour avoir une bonne latence :-)


Et arreter de faire de la com’ pour ces industries. Preciser le debit X fois plus rapide sans donner à quoi on se réfère. Donner une latence sans préciser les points de mesure… On n’est pas sur bfmtv ici.


1 pifomètre seconde c’est trendy sur télé-poubelle. Mais surtout, ça rapporte des alouettes. :ouioui:


Le 20/08/2021 à 14h 38