Ah nooon, c’est trop triste. Le seul site sur lequel je suis abonné, et que je suis depuis le tout début… Vous faites vraiment un travail de qualité ça serait terrible que ça s’arrête !
Les abonnées prévoyants qui auront donc un onduleur sur leur box par exemple que ce soit fibre ou cuivre ça ne changera rien pour eux.
Au contraire c’est utile, ce sont les antennes mobiles qui ne tiennent que 20 min, le réseau fibre peut tenir plusieurs heures de coupures de courant. Si ta box, ton téléphone fixe et ton ordi sont sur onduleur, tu pourras surfer et téléphoner pendant le délestage.
Il faut comprendre : les images obtenues avec les filtres F140M et F210M apparaissent en bleu sur l’image, les autres en vert, etc… C’est pour expliquer la composition de l’image, pas pour dire qu’on a utilisé des filtres bleu, vert ..sur les télescope.
(quote:1914504:Patrick_C.) Je suis gêné par la conclusion de l’article : ce n’est pas 140 articles qui compte mais la proportion de dangereux et le fait que malgré les signalements il n’y a pas de retrait effectif.
Je me suis fait exactement la même remarque en arrivant sur la conclusion, dommage de tout bien expliquer dans l’article pour finir sur cette conclusion erronée…
Je pense qu’il faut de sacrés bons yeux pour voir des satellites à 1000 km :-)
Tu n’as clairement jamais levé les yeux vers le ciel pour dire ça. Regardes ce soir et reviens en parler sérieusement ensuite. C’est pas le satellite qu’on voit c’est le reflet de la lumière du soleil dessus.
Le
03/03/2021 à
10h
48
barlav a dit:
Je vais évoquer le concept du tri, qui est utilisé pour les téléscopes il me semble: Plutot que 20 45s de prises de vues, pourquoi ne pas empiler 200 4.5s de prises de vues après un tri manuel des vues manifestement brouillées?
Si le signal sur tu veux capturer nécessite de poser 45s pour commencer à apparaître, ça ne sert à rien de faire 1000 poses de 4,5s. Il y a une durée minimum de capture en fonction de ce qu’on veut photographier. Si la plage de temps de pose maximale est fortement limitée par le passage de satellites on fait une croix définitive sur tout ce qui est faiblement lumineux…
Le
03/03/2021 à
10h
37
barlav a dit:
Bref, pour résumer on peut avoir les moyens d’observation globalement, si on les partage. Mais on ne peut garantir que chacun profite individuellement de sa belle qualité de vue sur la nébuleuse du crabe, désolé. Ce n’est pas écrit dans le réglement de la copro. J’en suis navré, mais ce n’est pas un droit de l’homme.
Désolé mais ce n’est pas non plus un droit de l’homme que des sociétés privées s’approprient le ciel et impose à l’humanité de vivre dans une cage technologique de laquelle on ne peut pas sortir. Tout ça pour le bénéfice d’une minorité alors qu’il existe des alternatives.
Le
01/03/2021 à
20h
38
ashlol a dit:
Pour revenir au sujet ça va commencer à faire un paquet de satellite dans le ciel, bon du coup ils passent assez vite donc ne doit pas si déranger que ça non ?
S’il n’y en avait qu’un ça serait pas grave mais la on parle de dizaines de milliers: une route avec une voiture par heure, on peut vivre avec, une autoroute avec une voiture toutes les 5s ça n’a rien à voir. Un ordre de grandeur pour comprendre le désastre à venir, au total à l’œil nu en comptant les 2 hémisphères on peut voir, dans de bonnes conditions (c-a-d loin de toute pollution lumineuse), environ 6000 étoiles. Actuellement on parle de mettre des dizaines de milliers de satellites en orbite basse, peut être 50 000 . Donc pour chaque étoile naturelle on va avoir 10 satellites mobiles dans le ciel. Autant dire que ça sera la fin définitive du ciel naturel…
En astronomie, on prend on photo des objets très faibles en terme de luminosité, donc on doit poser très longtemps, des dizaines de secondes à des dizaines de minutes, avec des satellites lumineux qui passeront régulièrement partout ça deviendra juste impossible…
Le
01/03/2021 à
12h
13
Oui les astronomes, mais aussi tout un chacun ! Parceque si c’est pour, dans 10 ans, quand on lèvera les yeux la nuit ne plus voir qu’une myriade de points en mouvement sans plus pour distinguer les étoiles naturelle et les autres merveilles du ciel… Le dernier endroit qu’on n’avait pas encore trop pollué et dégradé…
Pour la précision, il n’y a aucune station qui s’appelle “Gaston Berger” dans le métro à Rennes" />, la station qui est avenue Gaston Berger s’appelle “Villejean Université”
Par exemple cela explique la perturbation de l’orbite de Venus autour du soleil, que n’explique pas Newton. Idem pour l’infiniment petit avec la théorie quantique.
Ils ont plus de stock ^^ j’aurais bien voulu voir le prix!
Il n’y a effectivement plus de stock mais en cherchant sur Internet, on trouve des sites que les vendaient de 100 à 300€ environ http://francepresent.com/utyugarasu/). Par contre on peut s’inscrire sur le site web de l’artiste pour être informé dés qu’il y aura à nouveau du stock ;-)
Parce que la si je comprend bien toutes ces affaires de DDOS, l’admin ne peut rien faire à part pleurer ou payer xx centaines de milliers d’euros des routeurs cisco de compétition + le reseau qui va avec.
Quelque soit la taille des routeurs et du réseau, il sera toujours possible (mais plus compliqué) de les saturer. Le problème est insoluble. C’est une course à l’armement sans fin, le réseau peut s’adapter pour nettoyer/protéger les utilisateurs mais les attaquand vont trouver d’autres méthode pour saturer le réseau… L’IP a été conçu dans un monde de bizounours :-)
Mais il n’y-a pas plus ni moins de problème de conception que sur la route ou les taxi/tracteurs/camions… vont manifester et créer des gros bouchons et empêcher toute la circulation.
Comme ça a été dit par seb2411, le problème de saturation des réseaux n’est pas évitable. Ça restera encore longtemps l’un des points faibles de l’Internet.
@tazvld et Loninol: Je suis d’accord avec vous pour ce qui concerne les mail et la navigation WEB mais il n’y a pas que ça qui passe par internet. Pensez-vous que le téléphone ou le flux télé par exemple pourrait être soumis au même règle que les mail ? Il y a quand même un peu plus de nécessité d’avoir la réponse à votre question rapidement et pas dans 10 sec. Il s’agit du réseau internet qui nécessite un minimum de QOS et pas le service WEB.
L’absence de QoS sur Internet ne veut pas dire absence de QoS en interne sur le réseau d’un ISP pour prioriser les flux voix et vidéos qui le nécessitent, mais pour moi ce n’est pas un service de l’Internet. C’est un service offert par l’opérateur qui peut utiliser (ou non) sa même infrastructure réseau que pour le rendre son service Internet. Ça ne rentre pas dans le débat. Les opérateurs de téléphone s’interconnectent entre eux pour pouvoir rendre un bon service de voix avec des accord commerciaux et les garanties/engagement qui vont bien.
Définir un modèle de QoS universel est techniquement impossible. Je peux citer pleins d’exemples, au hasard:
La voix est très sensible à la gigue, la gigue est dépendante de la taille des paquets, si on mélange des gros paquets et des petits, on en créé. Donc si on ne contrôle ce qui est classé dans la classe voix, on va dégrader la qualité de cette classe et la QoS n’aura pas fonctionné. Mais sur Internet, qui pourrait définir et contrôler quels flux ont le droit d’y aller ? Est-ce neutre ? Est-ce que cela ne va pas empêcher l’émergence de nouveaux usage ?
Est-ce qu’une discussion vocale pendant un jeu en ligne est un appel voix qui mérite d’être classé dans les flux voix ?
Pourquoi un appel téléphonique ou un flux télé serait plus important qu’une vidéo de caméra surveillance utilisé par la police ou pour surveiller sa maison ?
Si j’invente un protocole qui contrôle à distance mon drone, il est important qu’il soit traité rapidement, est-ce que j’ai le droit de prendre la file prioritaire ? qui me l’autorise ? et si je fais passer des gros passer qui font plein de gigue pour les flux voix, c’est grave ?
Bref, je vois la QoS comme une fausse bonne idée parce qu’il apportera plus de contraintes de restrictions et brisera à jamais la neutralité du net, sans apporter une réponse techniquement satisfaisante.
Le
16/07/2014 à
17h
56
tazvld a écrit :
Pourquoi priorisé le flux ? ça ne résoudra pas la congestion on est d’accord. Tout au plus, on pourrait accepter qu’une ambulance ou les pompiers puissent avoir la priorité, mais je ne vois pas spécialement qui peut prétendre être suffisamment vital et volumineux pour obtenir une tel priorité sur internet (parce que bon, pour un e-mail, la différence entre 45ms et 1seconde, je doute que ça joue beaucoup).
Je partage ton avis " />
tazvld a écrit :
J’ai une vague idée sur le fonctionnement du réseau internet (je me suis arrêté en gros à l’algo théorique derrière les routeurs). Mais je ne sais pas comment sont financer l’ensemble qui gère tous les cables/machines.
Le problème me semble symétrique, c’est a dire que le FAI du géant a besoin d’un réseau aussi dimensionné que le trafic qu’il génère. Le géant paye en théorie la moitié de sa part. L’autre moitié, c’est les clients des FAI qui demandent accès à à ce géant. Ici donc, c’est bien les clients qui demande le service. De plus, que ce soit 1 seul géant ou 36 petits, le problème sera le même, les clients du FAI demande le même service.
En théorie peut-être mais la réalité d’Internet est bien plus complexe, faite d’accords de peering gratuits ou payants, d’accords de transite, de prestations achetées à différentes conditions… et comme toutes les entreprises cherchent toujours à réduire leurs coûts, tout le monde essaye de minimiser la taille de son réseau et de retarder l’investissement…
S’ajoute aussi le fait qu’il y a obligatoirement un facteur de sous dimensionnement du réseau (le coeur du réseau est plus petit que la somme des débits des ‘accès, tout comme une autoroute fait 2 ou 3 voies et pas 200 comme le nombre de routes qui y mènent) et que la matrice des flux n’est plus sous la responsabilité des ISP (avec la politque de cache, ce sont les sociétés de caches et les géants qui contrôlent vraiment par où les flux passent, ce n’est plus le routage classique contrôlé par les ISP).
Bref, on ne peut pas raisonner à partir d’une feuille blanche, il faut prendre en compte la réalité de l’Internet et des accords entre ISP.
Le
16/07/2014 à
13h
33
tazvld a écrit :
Problème de dimension du réseau : ben ça ralenti, c’est pas magique, c’est pas en privilégiant un paquet par rapport à un autre que ça va améliorer le trafic, ça risque même de l’empirer (CF : voie de bus/taxis à Paris).
Les mécanismes de qualité de service fonctionnent très bien, sont très utiles et ont fait la preuve de leur efficacité depuis longtemps. C’est une grande partie de la valeur apportée par les réseaux privés (MPLS/VPN…) pour les entreprises.
Par contre effectivement, la QoS ne sert pas à résoudre un problème de sous dimensionnement ou de congestion structurel.
La bonne question c’est est-ce que la priorisation de flux à sa place dans l’Internet et si oui pour quel usage et où…
tazvld a écrit :
Est ce à géant de payer pour redimensionner le réseau ? mais ne le font-il pas déjà en payant pour s’y connecter, comme nous, simple client de FAI ?
Le problème n’est pas si simple, les géants peuvent payer un raccordement à un premier FAI qui transmet sont trafic à un second puis à un troisième… etc, au final le FAI qui raccorde les abonnées et subit la congestion ne reçoit pas d’argent du géant qui congestionne son réseau puisqu’il n’a pas de raccordement en direct. Si tous les géants étaient raccordés à tous les FAIs, effectivement, on pourrait considérer qu’il paient déjà le FAI comme les utilisateurs. Mais ce n’est pas le cas.
non parce que j’ai souvenir de l’aeroport de Dubai avec du wifi illimité mais avec une couverture très pauve et surtout de grosses difficultés à m’y connecter…
En même temps, il y-a pleins de bornes d’accès gratuites à Internet dans l’aéroport de Dubai (limitées dans le temps mais on peut se reconnecter autant qu’on veut).
Le
19/06/2014 à
13h
53
eb303 a écrit :
Tokyo Haneda. Pareil gratos, et je suis presque sûr que c’est illimité. Après, je ne voyage pas tant que ça, donc difficile à dire pour les autres…
Oui Tokyo Haneda gratuit et illimité (par contre le surf sur des PC est payant), à l’aéroport de Tokyo Narita aussi c’est gratuit. L’aéroport d’Osaka aussi c’est gratuit…
idem dans la plupart des grandes gares du Japon, il y a du wifi gratuit (mais accessible uniquement dans les salles ou espaces d’attentes)
C’est pour les gros routeurs donc back-bone qui peuvent se contenter d’IPv6. Tu fais une conversion IPv4/IPv6 uniquement là ou tu en as besoin. Ton cœur reste en IPv6.
OK pourquoi pas surtout qu’il est très simple de transporter un paquet IPv4 en IPv6, mais le soucis c’est que les équipements de coeur de réseau (back-bones) sont 100% administrés et gérés en IPv4 aujourd’hui, ça ne sera pas possible avant de longues années que toute l’exploitation se fasse en IPv6.
Quant-à faire de la conversion IPv4/IPv6, il va y avoir de la perte au passage, aucun des mécanismes n’est parfait et transparent (quel que soit le sens IPv4->IPv6 ou IPv6->IPv4).
sylware a écrit :
J’imagine que tu trolles ou que tu es ignorant en la matière car tu sais bien que les classes de traffic IP n’ont pas besoin de DPI. D’ailleurs ça dérange ceux qui tentent de justifier le besoin de DPI via le besoin de QoS (voix, jeux vidéo rapides, ssh-terminal, etc). Ce qui est faux bien entendu.
" />
Non non je suis très sérieux et je connais très bien le domaine. Jusqu’à présent la QoS se faisant de façon assez simple basée sur une classification des paquets sur les niveaux 3 et 4 (infos de l’entête du paquet IP, protocole TCP/UDP et ports), mais vu que maintenant on emplie tout et n’importe quoi sur HTTP et que les entreprises veulent une QoS dynamique et fine, il a une vraie demande pour faire de la QoS en remontant tout en haut de couches avec du DPI.
Ce n’est pas juste pour faire plaisir aux services de renseignement que tous les constructeurs de routeur ajoutent le support du DPI dans leurs routeurs de toutes tailles, c’est parce qu’il y a un vrai marché de masse basé sur une demande réelle, même si en dehors du monde du réseau ça n’est pas encore visible.
Par contre ce besoin ne concerne pas (encore?) les réseaux internet (quoique pour les interceptions légales) mais les réseaux d’entreprises.
Il ne faut pas confondre les outils (le DPI) avec l’usage qui en est fait ;-)
Je ne fais pas la promotion du DPI, je ne fais que constater une réalité.
Le
22/05/2014 à
19h
41
sylware a écrit :
Si pas trop bêtes, le design est full “open source”, et complètement minimal, genre IPv6 et pas plus.
Pourquoi que IPv6, tu veux te couper de 97% de l’internet qui est toujours en IPv4 ?
sylware a écrit :
C’est à dire pas de DPI possible, par contre classes de trafic IP (diffserv et label IPv6) avec QoS (pour du jeu vidéo rapide et de la voix sans accro).
Sachant que l’usage premier du DPI c’est de faire de la QoS fine par application (se limiter aux ports TCP/UDP devant trop basique), je vois comme une contradiction dans ta phrase " />
Le
22/05/2014 à
15h
52
Dr.Wily a écrit :
Un peu oui… mais passons. C’est de l’électronique, avec les documents qui vont bien tout est possible (et même sans avec du temps…). C’est pas des extra-terrestres qui ont conçu les composant squi équipent la plupart des équipements réseau.
Après si tout le monde achète en toute confiance… mais a mon avis ces “révélations” ne sont pas forcément avérées. Ou tout du moins globales.
C’est avec ou sans du temps ?
Je n’ai jamais douté de la faisabilité, j’ai répondu sur le fait que ça soit simple et rapide. S’il faut mettre 10 ingénieurs à bosser 6 mois sur chaque nouvelle carte, sur chaque nouveau routeur et aussi chaque nouvelle version de logiciel sachant que les catalogues de Cisco et Juniper contiennent des milliers de références et qu’ils en sortent tous les mois, le coût de cette étude va vite devenir déraisonnable ;-)
Quant à dire que le fonctionnement n’est pas mystérieux, il est quand même très très cacher et confidentiel, et il est très difficile d’avoir l’information sur le comportement réel détaillé des routeurs ou switchs… Le problème est donc d’avoir “les documents qui vont bien” comme tu le dis, et ensuite de passer du temps pour les comprendre et vérifier.
Au final, mieux vaut embaucher des personnes à développer des routeurs Européens, ça sera plus efficace " />
Le
22/05/2014 à
15h
19
Dr.Wily a écrit :
Perso je trouve ça invraisemblable. Le matos réseau ça se vérifie, son fonctionnement n’est pas mystérieux. Il y des composants, la plupart du temps standard et réutilisés dans d’autres marques concurrentes, un firmware et il existe de nombreux outils de vérifications soft et hard pour analysé le comportement d’un périph réseau.
Même en implantant ça en hard, ça se verrait quand même.
Euh, tu t’y connais vraiment en équipement réseau pour dire ça ?
Rappelle-moi depuis combien de temps à peu près aucune upgrade n’a été nécessaire.
Des upgrades des réseaux des ISP, il y en a tout le temps, ça ne s’arrête jamais et quelque soit le coté: coté accès client, coté coeur de réseau ou peering.
brazomyna a écrit :
Pour rappel,
on fait passer sans se fouler 40 GB/s sur un seul brin de fibre de nos jours, et on connecte, on route, on demultiplexe tout ça avec des équipements considérés comme standards dans l’industrie ; rien d’exorbitant.
l’usage d’un backbone au plus fort de la journée (vers 18h) aujourd’hui, c’est environ 300kbits/s par client (soit 1 besoin aggrégé d’une fibre de 40Gb/s pour 120 000 clients).
Il y a 20 millions de foyers en France.
Un simple câble ultra classique contient 48 brins de fibre.
Faites les calculs vous-même.
Il manque des éléments très importante pour faire le calcul : la répartition des français sur le territoire, la répartition des points de peering sur le territoire et la matrice de trafic des échanges (qui parle avec qui et quand)… Sans ça c’est impossible de calculer la couverture de fibre nécessaire , ni le nombre de port et de routeurs ;-)
Pour information, les réseaux font pour la plupart le saut directement de 10Gbps à 100Gbps sans passer par le 40Gbps.
Il faut aussi savoir que toutes les fibres ne supportent pas le passage à 40 ou 100Gbps (tout comme certaines n’ont pas supportées le passage de 1Gbps à 10Gbps). Il faut parfois tirer des nouvelles fibres.
J’aimerai bien que tu détailles un peu plus ta remarques sur “ de nos jours,on route, on demultiplexe tout ça avec des équipements considérés comme standards dans l’industrie”. Vus les débits dont on parle ici (plusieurs Tbps par routeur), on est sur des routeurs très haut de gamme, très cher et en général que les ISP sont les 1er à déployer pour suivre la montée en débit.
Il me semblait que la voix n’était pas si exigeante que ça. La perte de paquet, on s’en moque. Le ping, pas besoin de l’avoir à 30ms (je dirais que le délai se remarque dans une conversation à partir d’une demi-seconde, pas beaucoup moins). Le seul point délicat, c’est le débit, mais y’en a pas besoin de tant que ça du moment que t’envoies pas du lossless (et la qualité assez pourrie de la téléphonie depuis son invention, qu’elle soit due au micro, au haut-parleur ou au codec, laisse supposer que y’a pas besoin d’un Mo par seconde). J’avais cru voir un jour que la voix c’était même pas 1% du traffic IP.
Non le problème c’est la vidéo, qui demande lui énormément de débit.
Tu te trompes pour la VoIP, regardes les exigences d’un service de voix sur IP (de bonne qualité) " />
Le fait que la voix ne représente qu’une part marginale du trafic en volume ne veut pas dire qu’il faille l’ignorer, bien au contraire, c’est elle qui a le plus d’exigence.
Et encore je ne parle de la la gigue (variation du temps de transport), qui est un critère très important pour la voix et qui oblige à faire passer les flux voix dans une classe de service particulière pour ne pas mélanger de gros avec les petits paquets de la voix…
PS: le terme correct c’est délai de transit au lieu de ping (qui est le non d’une commande qui permet justement de le mesurer) ;-)
Le
06/04/2014 à
10h
20
Patch a écrit :
la neutralité n’empêche pas une QoS en fonction des services demandés, juste une neutralité à l’intérieur d’un même type de service (par ex pas question de privilégier DM face à Youtube) " />
Si justement, c’est bien là le soucis…
Le
06/04/2014 à
08h
42
Presteus a écrit :
L’offre Triple Play c’est réalisé par :
1 Fournisseur d’Accès Internet (avant tout)
1 Fournisseur de Télécommunication (puisque réseau cuivre)
1 Fournisseur de Contenu (pour rentabiliser)
Oui ce découpage est possible, mais là où ce n’est pas clair du tout, c’est que si on applique une stricte neutralité au FAI qui ne fournit que des tuyaux, le fournisseur de télécommunication ne peut pas délivrer son service de transport de la voix, qui est très exigent en terme de qualité de transport sur le réseau (délai de transit, gigue, perte de paquet), avec la qualité nécessaire…
Le choix est là: soit on respecte une stricte neutralité mais ne pourra pas se plaindre si le téléphone ne marche pas tout le temps ou mal (puisqu’il sera techniquement impossible de lui garantir la qualité dont il a besoin), soit on se paye un accès supplémentaire qui ne sert qu’au téléphone lui permettant de parfaitement fonctionner tout le temps. Est-ce vraiment une avancée ?
Le
04/04/2014 à
20h
05
ArchangeBlandin a écrit :
Depuis quand les opérateurs internet ont besoin d’être plus que des gestionnaires de tuyaux ?
C’est tout ce que je leur demande !
Effectivement bonne question, Pourquoi pas mais aujourd’hui les FAI sont aussi des fournisseurs de téléphone (avec toutes les contraintes légales que ça impose) et accessoirement de télévision.
Donc avoir des FAI qui ne fournissent qu’un accès Internet, ça veut dire qu’il faudra acheter un accès Internet + 1 accès téléphonique sans mutualiser les 2 + 1 accès télévision si l’on veut (ou alors se contenter d’un accès téléphonique sur l’accès Internet mais sans aucune garantie de service).
Au risque de passer pour naïf, je comprends pas les mecs qui passent leurs journées à concevoir des malwares, virus, trojan et autres saloperies. Concrètement ça rapporte du blé ? Ils se font des battle entre eux genre “hé regarde Michel j’ai infecté 1 millions de pc en Chine” “ Ouah trop fort Jean-Luc, total respect !”
Oui ça rapporte beaucoup d’argent, ce ne sont plus des gamins qui s’amusent à faire des virus mais des entreprises criminelles et mafieuses. Le monde a changé " />
Dans l’explication du “classement”, vous indiquez Bouygues avant SFR, alors qu’il est devant. Ça porte à confusion.
Sur ce point, je vois ça comme une liste par ordre alphabétique (B-F-O-S) mais pas un classement; maintenant c’est vrai que le mettre sous forme de classement aurait été plus parlant vu l’analyse qui en a été faite.
Et ici on s’inquiète du DPI qui analyse le contenu du paquet, pas les en-têtes :p
C’est bien de préciser ça, sauf que si tu ne regardes que l’entête IP ça ne s’appelle pas du DPI " />
PS: même bien dimensionné un réseau à besoin de QoS, pour les pics de trafic (congestion ponctuelle inévitable, rien qu’en cas de panne d’un lien par exemple), ou prioriser la signalisation (qui sert à faire fonctionner le réseau). La QoS n’est pas un mécanisme pour sous-dimensionner un réseau.
Le
26/04/2013 à
13h
04
Glyphe a écrit :
Si la poste doit acheminer plus de courrier demain, j’imagine qu’ils embaucheront plus de personnel. Ils ne vont pas commencer à ouvrir les lettres et voir celles qui doivent être acheminées en priorité.
Ah bon, pourtant j’avais cru voir des timbres économiques, des timbres verts et des timbres prioritaires (avec un prix différent) " />
La poste fait de la QoS pour prioriser les lettres en fonction du prix payé (sans ouvrir le contenu).
Et pas que VPN, mais aussi ghostery, noscript & co…
Effectivement, il faut supprimer les cookies et d’éviter de te faire identifier, mais ça fait longtemps que les site web n’utilise plus uniquement l’adresse IP pour identifier une personnes, ça n’est pas fiable du tout.
Dans tous les cas le VPN (Vitual Private Network) n’a rien à voir là dedans, où alors revois ta définition de VPN.
Je ne sais pas si les opérateur Telecom on déjà changé pour du matos chinois, mais le nombre de ligne internet qui ne sont plus parfaitement transparente a augmenté de manière exponentielle depuis cet été.
Tu veux dire quoi par une ligne internet plus parfaitement transparente ?
Pas de backdoor, mais il ne dément pas pour l’utilisation de DPI.
Mais si l’on doit s’en offusquer, que dire de Blackberry qui met les conversations sur BB Messenger à disposition de la police…
Y-a un truc que je ne comprend toujours dans cette polémique: les opérateurs réseaux demandent à leur fournisseurs de routeurs d’intégrer les mécanismes de DPI dans leurs équipements. C’est donc ce que fait Huawei tout comme le fait Cisco, Juniper, ALU… pour répondre à la demande de leurs clients. Et on vient leur reprocher de développer ce que leurs clients demandent ?
40 commentaires
Next INpact change de propriétaire : au revoir chère communauté ;-)
25/09/2023
Le 25/09/2023 à 17h 04
Bonne continuation et encore merci !
Next INpact vit ses dernières semaines… sauf miracle
12/06/2023
Le 08/06/2023 à 10h 06
Ah nooon, c’est trop triste.
Le seul site sur lequel je suis abonné, et que je suis depuis le tout début…
Vous faites vraiment un travail de qualité ça serait terrible que ça s’arrête !
Toute l’équipe de Next INpact vous souhaite une bonne année 2023 !
31/12/2022
Le 01/01/2023 à 07h 31
Bonne année et merci pour votre excellent travail !
En cas de délestage, le réseau mobile d’Orange tiendra pendant encore 20 minutes
13/12/2022
Le 13/12/2022 à 08h 56
Au contraire c’est utile, ce sont les antennes mobiles qui ne tiennent que 20 min, le réseau fibre peut tenir plusieurs heures de coupures de courant. Si ta box, ton téléphone fixe et ton ordi sont sur onduleur, tu pourras surfer et téléphoner pendant le délestage.
James Webb plonge au cœur de la nébuleuse d’Orion
13/09/2022
Le 13/09/2022 à 07h 00
Il faut comprendre : les images obtenues avec les filtres F140M et F210M apparaissent en bleu sur l’image, les autres en vert, etc…
C’est pour expliquer la composition de l’image, pas pour dire qu’on a utilisé des filtres bleu, vert ..sur les télescope.
Au revoir et merci Next INpact
07/09/2022
Le 07/09/2022 à 10h 48
Bonne continuation ! Une page se tourne…
Et surtout un énorme merci pour tous tes très bons articles que je suis depuis le début.
Next INpact fête son 19e anniversaire et vous offre des cadeaux !
05/05/2022
Le 05/05/2022 à 11h 15
Joyeux anniversaire et longue vie à ce super site d’information !
Merci a toute l’équipe pour ces contenus de qualité !
La DGCCRF ordonne le déréférencement de Wish, la plateforme contre-attaque
24/11/2021
Le 24/11/2021 à 20h 34
Je me suis fait exactement la même remarque en arrivant sur la conclusion, dommage de tout bien expliquer dans l’article pour finir sur cette conclusion erronée…
Telesat Lightspeed : 298 satellites pour un accès mondial à Internet, en partenariat avec Thales
01/03/2021
Le 03/03/2021 à 18h 17
Tu n’as clairement jamais levé les yeux vers le ciel pour dire ça. Regardes ce soir et reviens en parler sérieusement ensuite.
C’est pas le satellite qu’on voit c’est le reflet de la lumière du soleil dessus.
Le 03/03/2021 à 10h 48
Si le signal sur tu veux capturer nécessite de poser 45s pour commencer à apparaître, ça ne sert à rien de faire 1000 poses de 4,5s. Il y a une durée minimum de capture en fonction de ce qu’on veut photographier. Si la plage de temps de pose maximale est fortement limitée par le passage de satellites on fait une croix définitive sur tout ce qui est faiblement lumineux…
Le 03/03/2021 à 10h 37
Désolé mais ce n’est pas non plus un droit de l’homme que des sociétés privées s’approprient le ciel et impose à l’humanité de vivre dans une cage technologique de laquelle on ne peut pas sortir. Tout ça pour le bénéfice d’une minorité alors qu’il existe des alternatives.
Le 01/03/2021 à 20h 38
S’il n’y en avait qu’un ça serait pas grave mais la on parle de dizaines de milliers: une route avec une voiture par heure, on peut vivre avec, une autoroute avec une voiture toutes les 5s ça n’a rien à voir.
Un ordre de grandeur pour comprendre le désastre à venir, au total à l’œil nu en comptant les 2 hémisphères on peut voir, dans de bonnes conditions (c-a-d loin de toute pollution lumineuse), environ 6000 étoiles. Actuellement on parle de mettre des dizaines de milliers de satellites en orbite basse, peut être 50 000 . Donc pour chaque étoile naturelle on va avoir 10 satellites mobiles dans le ciel. Autant dire que ça sera la fin définitive du ciel naturel…
En astronomie, on prend on photo des objets très faibles en terme de luminosité, donc on doit poser très longtemps, des dizaines de secondes à des dizaines de minutes, avec des satellites lumineux qui passeront régulièrement partout ça deviendra juste impossible…
Le 01/03/2021 à 12h 13
Oui les astronomes, mais aussi tout un chacun ! Parceque si c’est pour, dans 10 ans, quand on lèvera les yeux la nuit ne plus voir qu’une myriade de points en mouvement sans plus pour distinguer les étoiles naturelle et les autres merveilles du ciel…
Le dernier endroit qu’on n’avait pas encore trop pollué et dégradé…
Exposition aux ondes : 33 « points atypiques » dépassaient les 6 V/m en 2018
25/03/2019
Le 26/03/2019 à 07h 50
Pour la précision, il n’y a aucune station qui s’appelle “Gaston Berger” dans le métro à Rennes" />, la station qui est avenue Gaston Berger s’appelle “Villejean Université”
Et si on violait le principe d’équivalence de la chute libre ? Les explications de Thibault Damour
26/01/2018
Le 26/01/2018 à 13h 34
558ème édition des LIDD : Liens Idiots Du Dimanche
28/11/2015
Le 29/11/2015 à 12h 06
Attaque DDoS contre ProtonMail : entre chantage, excuses et campagne de dons
06/11/2015
Le 06/11/2015 à 12h 18
Neutralité : un rapport du Sénat propose de viser FAI et géants du Net
16/07/2014
Le 17/07/2014 à 08h 42
Le 16/07/2014 à 17h 56
Le 16/07/2014 à 13h 33
[MàJ] Aéroports de Paris : Wi-Fi gratuit à 512 kb/s, une offre payante à 10 Mb/s
19/06/2014
Le 19/06/2014 à 13h 55
Le 19/06/2014 à 13h 53
L’Allemagne ne veut plus du matériel réseau des entreprises américaines
22/05/2014
Le 23/05/2014 à 17h 11
Le 22/05/2014 à 19h 41
Le 22/05/2014 à 15h 52
Le 22/05/2014 à 15h 19
Stéphane Richard (Orange) parle Bouygues, sécurité et neutralité du net
19/05/2014
Le 21/05/2014 à 09h 47
Paquet Télécom : une « menace » pour la Fédération Française des Télécoms
04/04/2014
Le 07/04/2014 à 07h 15
Le 06/04/2014 à 10h 20
Le 06/04/2014 à 08h 42
Le 04/04/2014 à 20h 05
Windows XP : « L’efficacité des antivirus se réduira avec le temps »
17/01/2014
Le 17/01/2014 à 12h 01
SMS et MMS du Nouvel An : 56 millions pour Free, la tendance à la hausse
02/01/2014
Le 02/01/2014 à 12h 23
Nouveau billet de 5 € : des détecteurs pas à jour, des commerçants sceptiques
14/05/2013
Le 14/05/2013 à 11h 33
Fleur Pellerin répond à Isabelle Attard sur l’utilisation du DPI
26/04/2013
Le 26/04/2013 à 13h 19
Le 26/04/2013 à 13h 04
Françoise Castex s’attaque à l’IP tracking et saisit la Commission européenne
29/01/2013
Le 29/01/2013 à 10h 02
Le 29/01/2013 à 08h 29
[MàJ] Huawei et ZTE, une menace pour la sécurité nationale américaine
09/10/2012
Le 09/10/2012 à 09h 12
Huawei : « nous nous engageons à ne pas mettre de backdoor »
04/10/2012
Le 04/10/2012 à 11h 37