Connexion
Abonnez-vous

Réseau à 10 Gb/s sur 50 mètres : un câble RJ45 Cat 6 est-il suffisant ?

Qui ne tente rien...

Réseau à 10 Gb/s sur 50 mètres : un câble RJ45 Cat 6 est-il suffisant ?

Le 21 juillet 2021 à 09h38

Avec la montée en débit du réseau local, les câbles en cuivre peuvent atteindre leur limite sur de longues distances. Tout du moins en théorie. Et en pratique ? Pour le savoir, nous avons tenté de relier deux machines à 50 mètres de distance avec un câble de catégorie 6 à 36 euros.

Actuellement, la plupart des ports réseau de nos PC peuvent fournir un débit de 1 Gb/s (IEEE 802.3ab, 1000BASE-T). Le standard – qui existe depuis 1999 – ne permet pas de dépasser un maximum théorique de 128 Mo/s.

Un débit très insuffisant pour la plupart des composants actuels, qu'il s'agisse des HDD (de 100 à 250 Mo/s), des SSD S-ATA (550 Mo/s) ou des SSD PCIe NVMe qui peuvent atteindre plusieurs Go/s. Même une simple clé USB 3.0 peut aller bien au-delà. On peut alors se demander pourquoi rien n'a changé dans le monde de l'Ethernet.

Comme nous l'avions évoqué dans un précédent article, des évolutions ont eu lieu en 22 ans. On trouve désormais dans l'offre grand public des solutions dites Multi-Gig à 2,5 Gb/s (320 Mo/s) ou 5 Gb/s (640 Mo/s), puis le 10 Gb/s (1,25 Go/s). Un standard qui pousse certains à migrer vers des connexions fibres, moins gourmandes en énergie et plus évolutives. Mais le bon vieux câble réseau, qui peut transporter du courant, a toujours la cote.

Il faut néanmoins en connaître les limites.

Catégorie de câble et débit : quelles règles à plus de 1 Gb/s ?

Il existe plusieurs « catégories » de câbles réseau. Ils se distinguent par la fréquence du signal qu'ils peuvent assurer de manière correcte sur une distance de 100 mètres, tel que défini par la norme. Jusqu'à 100 Mb/s, un câble de catégorie 5 était suffisant, le 5e ayant pu atteindre 1 Gb/s, puis 2,5 Gb/s et 5 Gb/s sur une moindre distance.

Pour le 10 Gb/s, un câble de catégorie 6a est recommandé, mais on peut souvent se contenter d'un modèle de catégorie 6. En effet, les constructeurs indiquent en général une distance maximale d'une cinquantaine de mètres à plein débit. De quoi permettre une économie, puisque plus la catégorie est faible, moins le coût est élevé.

Tableau RJ45 Réseau Câbles Catégories

Outre la distance et le prix, plusieurs facteurs sont à prendre en compte. Par exemple, la facilité à remplacer le câble. Si vous effectuez un passage en gaine lors d'une rénovation, vous aurez tout intérêt à prendre une ou deux catégorie au-dessus de ce qui vous est nécessaire afin de pouvoir gérer de futures évolution des normes. C'est d'ailleurs ce qui incite certains à préférer la fibre dans certains cas (la norme NF C 15 - 100 recommande néanmoins des câbles cuivre spécifiques).

Notez au passage que des câbles de catégorie 7a (1 000 MHz) sont parfois proposés. Ils ne sont pas utilisés en pratique, ne sont pas reconnus par la Telecommunications Industry Association (TIA) et ne sont rattachés à aucun standard réseau actuel. En effet, pour les 25GBASE-T et 40GBASE-T (25 et 40 Gb/s en datacenter, 802.3bq), un câble de catégorie 8 (2 000 MHz) est recommandé pour une distance pouvant aller jusqu'à 30 mètres.

D'autres éléments techniques sont parfois mis en avant, comme le type de blindage, mais il n'influe pas directement sur le débit maximal pouvant être atteint. Nous avions abordé ce sujet plus en détails dans un article sur la composition des câble réseau et le remplacement des connecteurs 8P8C (RJ45 dans le langage courant).

10 Gb/s sur 50 mètres avec un câble Cat 6 : c'est possible ?

Depuis notre article de 2018, si nombre de nos lecteurs nous ont dit être passés à des connexions fibre pour de grandes distances (parfois même de manière générale), il nous a régulièrement été demandé si la limite de 55 mètres pour un câble de catégorie 6 en 10 Gb/s se vérifie.

Nous avons profité de tests récents pour effectuer un essai avec deux machines sous Windows 10, chacune équipée d'une carte réseau avec un contrôleur AQC107 de Marvell, paramétrées avec les derniers firmware (3.1.121) et pilote (2.2.23) en date. Chacune était équipée d'un SSD capable de débiter plus de 2 Go/s en lecture/écriture.

Nous avons relié celle faisant office de serveur à un switch SX10 de Netgear, sur lequel était également connecté un routeur. Le câble utilisé était de seulement quelques mètres, de catégorie 7 qui n'est pas prévue pour le RJ45 selon la norme. Elle est donc largement surdimensionnée pour le besoin qui est ici le nôtre.

Le second port à 10 Gb/s était relié à la machine faisant office de client via un simple câble de catégorie 6 de 50 mètres (S/FTP), payé 36 euros. Il était déroulé sur 35 mètres, la quinzaine de mètre restante étant enroulée. Nous avons comparé le résultat sur un transfert de multiples fichiers ISO depuis un partage Windows avec la même installation, mais avec deux câbles de catégorie 7 de quelques mètres. Voici nos captures :

Réseau 10 Gb/s Distance courteRéseau 10 Gb/s Distance longue
À gauche un transfert sur quelques mètres en Cat 7, à droite le même transfert avec un câble Cat 6 de 50 mètres

Comme vous pouvez le voir, dans les deux cas le débit est stable aux alentours de 1,1 Go/s avec une petite baisse dans les 900 Mo/s pendant le temps de transfert d'un des fichiers. Nous n'avons pas relevé de différence notable entre les deux tests dans les débits. La latence était sous les 1 ms dans les deux cas.

Le câble de catégorie 6 est donc parfaitement utilisable sur 50 mètres pour 10 Gb/s.

« Je n'ai pas 1,1 Go/s en pratique » : quelles solutions ?

Lors de nos recherches et discussions dans le cadre de cet article, nous avons pu constater que lors de tests, il arrivait que certains, pourtant équipés d'un réseau à 10 Gb/s, ne parvenaient pas à obtenir des résultats similaires. 

Tout débit mesuré correspond à une chaîne, où chaque élément a son importance. Il faut certes disposer de câbles, cartes réseau et switchs/routeurs gérant le 10 Gb/s, mais également s'assurer qu'ils soient tous à jour, bien configurés et que les machines puissent suivre la cadence.

C'est le cas du processeur central, qui peut être crucial sur les performances dans le cas d'un NAS à 10 Gb/s par exemple, mais aussi du côté du stockage. En effet, un disque dur seul sera souvent limité à 250 à 280 Mo/s dans le meilleur des cas et les SSD PCIe/NVMe peuvent tenir plusieurs Go/s, surtout en lecture. En écriture... c'est parfois plus compliqué. Si vous constatez des débits inférieurs à 1 Go/s, pensez donc à vérifier l'ensemble des composants.

Réseau à plus de 1 Gb/s : plus accessible, pas toujours abordable

Reste un point : la raison pour laquelle le réseau à 1 Gb/s est encore le plus courant. Ce, alors que le 10GBASE-T a été défini en 2006, les 2.5GBASE-T et 5GBASE-T en 2016. On les retrouve en effet surtout dans des usages professionnels, même si le grand public s'y met petit à petit.

Il y a plusieurs raisons à cette stagnation. La première est, qu'au quotidien, les utilisateurs se sont habitués à des transferts « lents », d'autant que 1 Gb/s est en général bien au-delà de ce que propose la connexion Internet moyenne ou les solutions Wi-Fi. Mais il y a aussi la question du coût, bien plus élevé dès qu'on dépasse 1 Gb/s.

Il suffit de regarder le tarif d'un simple switch non manageable. On trouve des modèles à 8 ports 1 Gb/s à 22 euros, soit 2,75 euros par port, ou des modèles 24 ports à 76 euros, soit 3,2 euros par port. Si l'on veut des ports à 2,5 Gb/s, il faut au minimum compter 130 euros, soit 26 euros par port.

Et il en va de même des autres composants. Une carte réseau à 2,5 Gb/s se trouve aux alentours de 30 euros. Le prix d'une carte RJ45 à 10 Gb/s est presque inchangé depuis trois ans : 100 euros. Un simple switch Mikrotik avec quatre cages SFP+ coûte 141 euros, soit un peu plus de 35 euros par port. Et il faut l'utiliser avec un câble spécifique (Direct Attach Copper, DAC) à moins d'ajouter le coût de transceivers pour utiliser ces ports avec des câbles fibre/cuivre de plus de 7 mètres. Autant dire que cela freine l'équipement individuel, même des plus motivés. 

D'autant que ce surcoût, qui peut être important pour une installation complète, ne baisse pas de manière significative pour le moment. Espérons que cela viendra vite. Car avec la généralisation d'offres fibre à plus de 1 Gb/s, les internautes seront de plus en plus nombreux à vouloir s'équiper.

Le 21 juillet 2021 à 09h38

Commentaires (73)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

C’est probablement lié au fait que les constructeurs grand publique n’en voit pas l’intérêt, du coup la production de masse ne peux jamais démarer.



Beaucoup de pc portable abandonnent l’ethernet, les téléphones et tablettes n’en ont pas par essence. Reste les PC fixe/nas/box mais ça ne fait pas lourd sur le marché.

votre avatar

La production de masse est là, notamment sur le 2.5G (et même le 10G dans une moindre mesure). Mais à l’inverse, le fait que le 1G reste le standard freine le fait qu’on mette du 2.5G partout et du 10G parfois même si ça arrive dans plus en plus de cartes mère (notamment sous l’impulsion d’Intel et son i225-V)



On peut toujours se demander qui de l’oeuf ou de la poule, mais sur le fond, ce serait bien que les choses évoluent à ce niveau au moins pour le 2.5G

votre avatar

” 5 Gb/s (640 Go/s)”



je pense que c’est Mo ici ! :)

votre avatar

Il y a un bouton pour signaler les erreurs :chinois: (corrigé)

votre avatar

Après, tant que les grands fabricants de NAS (comme Synology) ne s’y mettront pas, l’intérêt au niveau domestique va rester relativement faible (les plus gros transferts, dans mon cas, sont entre mes machines et mon NAS pour les synchronisations de fichiers).
La plupart du temps, le goulot d’étranglement est la Box pour aller sur Internet (je ne connais plus grand monde qui fasse de LAN parties, la plupart des parties en réseaux se font via le net), ou le Wifi pour les personnes qui préfèrent la flexibilité du sans fil…

votre avatar

les 55m max pour du cat6 en 10G, indiqué dans le tableau c’est mesuré ou calculé ou sourcé ?

votre avatar

Même Synology commence à généraliser le 10G, mais ils boudent encore le Multi-Gig oui (notamment le 2.5G qui est presque devenu la règle chez ASUSTO/QNAP). Mais bon, ça ne devrait plus durer longtemps.



Informations constructeur de l’époque (donc théorique), d’où le test pratique

votre avatar

Merci pour cette analyse et les quelques éléments techniques, j’y ai déjà appris des choses.



Reste un point, comment s’équiper en fibre si on veut rénover sa maison? Quels sont les connecteurs, avec quoi sont ils compatibles, etc?



Je trouverais ça sympa d’avoir un petit dossier là dessus pour les “néophytes éclairés” que ça intéresse.

votre avatar

On en avait parlé quand la Freebox Delta est sorti, ça n’a pas trop changé depuis.

votre avatar

Y a un moyen de vérifier que la ligne est bien 10Gb/s ?
j’ai la delta, l’offre 10Gb/s (et c’est indiqué comme le max dans les options de la box), j’ai pris un cable et une carte reseau sfp+ 10Gtek® mais lors des speetest je dépasse pas 600Mb/s.



Une idée pour vérifier que la ligne est ok ?



edit : précision le disque dur est un M2 et proc ryzen 9

votre avatar

Petso je switcherai l’installation en 10 gb/s le jour où on trouvera des routeurs abordables avec ports 10 gb/s ET sur lesquels on peut mettre ddwrt où autre.



Autre point, vous parlez de rénovations : il faut savoir que les seules gaines ICTA precablees qu’on peut trouver avec 2 câbles dedans (donc 1 gaine = 2 prises) c’est en cat 6 utp surdes gaines de 20. Ça a son importance, la plupart du temps à côté des prises reseau il y a aussi du courant, donc la gaines qui va bien aussi.
Perso sur mes prises j’ai 3 gaines dans le mur : un double cat 6, le 220v et un spare (pour de la fibre future, pour du courant commandé, etc.
Faire passer 4 gaines pour avoir 2 prises rj blindées, ça aurait été chaud en câblage (et super onereux)

votre avatar

Il faut vérifier d’abord entre le PC et la delta que ça soit bien en 10gb/s, la carte 10gtek est sur que port PCie de la carte mère ?



Vous faites un speedtest via un navigateur ? Vous pouvez essayer en installant l’application de test sur le PC

votre avatar

Perso, j’ai juste changé mes vieilles prises téléphoniques en RJ45. En remplaçant le câble torsadé par de l’Ethernet. Après je n’ai pas la possibilité de passer plus de gaines car c’est déjà un enfer autour du tableau électrique ^^ (6 pièces ça ramène pas mal de monde au tableau…)



Ce que je trouve limité par contre ce sont les boîtiers de télécommunications proposés par détaillant en électricité. Ça manque de flexibilité avec souvent des kits dont la moitié ne sert pas.

votre avatar

C’est du marketing, t’es sur une ligne mutualisé donc à la rigueur essai vers 3h du mat :D
En théorie, plus il y aura du monde avec la fibre, moins on arrivera à atteindre les débits max annoncés.

votre avatar

darknoon29 a dit:


Ce que je trouve limité par contre ce sont les boîtiers de télécommunications proposés par détaillant en électricité. Ça manque de flexibilité avec souvent des kits dont la moitié ne sert pas.




Oui, les VDI du commerce c’est souvent de la merde.
Perso j’ai pris un rack mural peu profond et j’ai fait mon tableau VDI moi même, BEAUCOUP BEAUCOUP plus flexible

votre avatar

Chez moi j’ai installé une baie 10pouces, je manquait de place pour mettre une 19pouces, mon NAS il ne rentre pas dans la baie 10pouces. J’arrive à faire rentrer tout juste dedans la freebox mini 4k server

votre avatar

600 Mb/s (même pas 1Gb/s) ou 600 Mo/s (~5 Gb/s) ? Dans le 2ème cas c’est “seulement” 2 fois moins. Après ça dépend avec quel serveur tu effectues ton test, tu pourrais avoir 10 Gb/s de chez toi à Free, mais de Free au serveur il pourrait y avoir une surcharge ou pas suffisamment de bande passante.
Regarde à quelle vitesse tu télécharges les ISO sur http://test-debit.free.fr/
Sur speedtest.net choisis le serveur Scaleway à Vitry-sur-Seine. Scaleway est un hébergeur de services de cloud, c’est une société sœur de Free qui devrait avoir un excellent débit pour les abonnés Free.

votre avatar

Normalement la Freebox te dit le niveau de débit détecté, Windows aussi (parfois ce sont des codes couleur sur les LED des ports pour les switchs). Sinon plutôt qu’un speed test tu peux déjà tester le débit entre la box et ton PC avec la commande suivante (sous Windows 10) :



curl -L http://mafreebox.freebox.fr/gen/10G -o file



Tu peux aussi essayer de récupérer le fichier via un navigateur pour un test de téléchargement.

votre avatar

C’est surprenant que le 10 Gb/s fonctionne sur 50 mètres avec de pauvres câbles Ethernet à moins d’1€ le mètre, mais que quand il s’agit d’USB ou Thunderbolt, on ne puisse pas faire du 40 Gb/s sur plus de 80 cm de câble qui coûte une blinde.

votre avatar

Pas les mêmes protocoles ni besoins. Ils n’ont pas été pensés/créés pour de la longue distance. Notamment parce qu’Ethernet est là pour ça.

votre avatar

Si ça n’avance pas, c’est que la demande du grand publique est tout bonnement inexistante. Nous, ne sommes pas le grand publique.
A quel moment Mr tout le monde se soucis de transférer des fichiers en multi Gig sur son réseau local ?
Sait il ce qu’est un partage CIFS ? Sait il seulement ce qu’est un NAS ?
Si on avait un sondage dans le Parisien, vous en tomberiez de votre chaise si seulement 5% des gens interrogés savaient ce qu’est un NAS (de nom) ?



Le besoin du multi gig en 2021 pour le grand publique n’existe pas. Ca répond parfaitement à la question du “pourquoi ça bouge pas/peu”.



Personnellement, je suis full 2,5Gbps (box, switch, carte réseau) et malgré ça, mon Syno est resté en 1Gbps, ce qui ne me pose pas de problème actuellement, ça me permet d’assurer des transferts sans crainte de saturer qui ou quoi que ce soit, ce qui est relativement agréable.

votre avatar

Oui et non. Dire que ça n’avance pas est eronné. Les tarifs évoluent peu mais l’offre s’étend si l’on compare à la situation de 2018. Pour le reste, c’est ce que je dis : la seule chose qui pousse à la montée en débit côté réseau local c’est la montée en débit des connexions internet.



On l’a vu avec le Wi-Fi, qui était merdique chez tout le monde, avec au mieux un interêt pour l’étendue de la couverture (et donc des achats en masse de répéteurs à 50 euros en grande surface).



Puis la fibre est arrivée, personne ne comprenait pourquoi on avait des speedtest à 30 Mb/s sur une ligne qui propose 10/20x plus. Le plus symptomatique, c’est que pour beaucoup, (même sur des sites de tech, c’est dire) Speedtest est utilisé pour tester un réseau local alors que ça n’a rien à voir.



Là on voit le même mouvement avec le passage à plus de 1 Gb/s des offres fibre et le besoin pour la connexion locale de suivre. Même si d’expérience, passé 500 Mb/s la plupart des utilisateurs se contentent déjà bien de ce qu’ils ont sans trop chercher plus loin.

votre avatar

Ethernet contient des algo de corrections d’erreurs, de gestion du signal qui sont pensés pour les “longues distances”. Ce qui n’est pas le cas d’USB/thunderbolt, pensé pour des périphériques proches de la machine hôte.



Dans un domaine voisin, Wi-FI et Bluetooth utilisent tous les deux le 2.4Ghz, mais je te mets au défi d’avoir un débit correct sur Bluetooth (et j’évoque même pas la distance). Parce que c’est pas pensé pour ;)

votre avatar

Je me suis posé la question en rénovant chez moi et même au niveau du prix c’est plus intéressant d’installer une baie 19”/10” qu’un boitier legrand à 300€ où il n’y a pas la place de mettre box plus hub



Pour information je croix que la norme exige d’avoir quand même l’arrivé dsl/fibre sur un boitier standard blanc type électrique mais le reste peux être dans une baie.

votre avatar

Tirnon a dit:


Je me suis posé la question en rénovant chez moi et même au niveau du prix c’est plus intéressant d’installer une baie 19”/10” qu’un boitier legrand à 300€ où il n’y a pas la place de mettre box plus hub




:baton: :D

votre avatar

Zian a dit:


Si ça n’avance pas, c’est que la demande du grand publique est tout bonnement inexistante. Nous, ne sommes pas le grand publique. A quel moment Mr tout le monde se soucis de transférer des fichiers en multi Gig sur son réseau local ? Sait il ce qu’est un partage CIFS ? Sait il seulement ce qu’est un NAS ? Si on avait un sondage dans le Parisien, vous en tomberiez de votre chaise si seulement 5% des gens interrogés savaient ce qu’est un NAS (de nom) ?




Quand ils sont chez Free ils connaissent le CPL.



On me répond que le wifi ça suffit il n’y a pas besoin de câbles, difficile de faire comprendre les problématiques du wifi à Mr tout le monde

votre avatar

Maintenant, je comprends mieux pourquoi on attend toujours du 10Gb abordable. La norme est sortie il y a à peine 15 ans. 15 ans ! Clairement beaucoup trop court pour amortir la R&D. Il faudrait au minimum entre 53 et 327 ans. :cartonrouge:
L’article parle d’un bond du coût au-dessus de 1Gb. C’est dû à quoi ? Des effets quantiques dans les câbles ? De l’intermodulation qui dégrade le signal ? La difficulté de produire des puces assez rapides, car il y a des moins en moins de canards à trois pâtes pour les sacrifices rituels ? Ou juste un bête effet rapace / pigeon ?
Si c’est parce que les utilisateurs ce sont habitués aux transferts lents, pourquoi ils ne se sont pas habitués avec le 100Mb, plutôt de le 1Gb ? A l’époque, c’était déjà au-dessus des capacités d’une ligne ADSL. Il n’y avait pas plus de raison de passer à 1Gb hier que de passer à 10Gb aujourd’hui…

votre avatar

Top, merci !

votre avatar

Une segmentation marketing probablement, plus une demande du grand public qui doit être proche du néant.

votre avatar

C’est juste que le 10Gb est utilisé en entreprise donc c’est des câbles fibres (ou DAC) sur SFP+ mais pas tout de cuivre et les liaisons cuivre en 10Gb commencent à peine à être utilisé chez les particuliers donc c’est moins répandu et plus cher



Aujourd’hui le 1gb est un facteur limitant comme le 100mb il y a 6ans en arrière, j’avais encore quelques switchs 100mb en entreprise à cette époque

votre avatar

Tout dépend de ce qu’on entend par “entreprise”, dans le monde du datacenter oui, dans le monde de la PME certainement pas, si le coeur de réseau est en 10Gb c’est déjà le bout du monde.
Et de toute façon quasi tout les PC simple type bureautique n’ont qu’une interface 1Gb.



J’ai refait le coeur de réseau dans ma boite il y a 2 ans, ben la seul partie en 10Gb, c’est les interco entre switch, même les serveurs ne sont pas encore passé en 10Gb, bien que pour le renouvellement à venir, vu comment la volumétrie a augmenté, il va falloir y passer car une restauration avec le réseau 1Gb, ça va faire couiner du monde tellement ça va être long.

votre avatar

En entreprise on fait du 10G fibre.
Le 10G Base-T consomme trop de W par port.



Même sur un Cisco Nexus tout frais, si on utilise des SFP+ 10G base-T ça bouffe tellement de jus que ça rend inutilisable une partie des ports…



Donc en général ça termine
courte distance < 10m : DAC
et ensuite multi ou monomode selon le cablage du site.



Je ne vois du mGig que sur les gammes campus PoE pour brancher des AP wifi de la mort WiFi 6

votre avatar

Vous faites vraiment du multi-mono pour la fibre ? Autant faire du mono partout non, les différences de prix sont en général assez faibles maintenant (c’est peut être différent sur de gros volumes)

votre avatar

et pour ceux qui aiment mesurer les débits sans être contraints par le CPU ou le disque …
2 machines sous Linux :



serveur1$ nc -l -p 1337 | wc -c



serveur2$ dd if=/dev/zero bs=$((220)) count=$((210)) | nc -q 0 serveur1 1337



1048576+0 records in
1048576+0 records out
1073741824 bytes (1.1 GB) copied, 9.68675 s, 111 MB/s



(remplacer serveur1 et serveur2 par les noms/IP et choisir un port TCP quelconque >1024 - ici 1337)



(edit : bizarre ce markdown)

votre avatar

curl -L http://mafreebox.freebox.fr/gen/10G -o file ça marche pas, il aime pas le -L apparemment.

votre avatar

Oui après le souci de ce genre de chose c’est qu’on teste des conditions qui ne seront jamais rencontrées en pratique. C’est bien pour tester le lien réseau, mais quand on pas pas les perfs dans tous les autres cas ça n’aide pas trop à comprendre où peut être le problème.



Si tu ne le mets pas ça ne peut pas fonctionner (rappel, la commande est juste ok pour le cmd de Windows 10 sur d’autres systèmes il faut éventuellement adapter)

votre avatar

Il me met ça comme message
PS C:\Users\bente> curl -L http://mafreebox.freebox.fr/gen/10G -o file
Invoke-WebRequest : Impossible de trouver un paramètre correspondant au nom « L ».
Au caractère Ligne:1 : 6




  • curl -L http://mafreebox.freebox.fr/gen/10G -o file

  • ~~


    • CategoryInfo : InvalidArgument : (:) [Invoke-WebRequest], ParameterBindingException

    • FullyQualifiedErrorId : NamedParameterNotFound,Microsoft.PowerShell.Commands.InvokeWebRequestCommand


votre avatar

Moi je suis très déçu de mon installation.
J’ai la Freebox pop avec 5Gbits/s théoriques descendant, et une prise 2.5Gbits/s.



J’étais branché en 1Gbits/s, sur ma carte mère, et déjà je trouvais les débits de Free extrêmement variables selon les heures de la journée et les sites visités (ce qui a été pendant de nombreuses années un gros problème chez eux, mais que j’imaginais résolu).



Auparavant j’étais chez Orange avec 1Gbit/s descendant, sur la même prise 1Gbit/s qu’actuellement. Le débit était très constant et très proche du max.



Bref, voyant que c’était moyennement satisfaisant avec Free, j’ai décidé pour le fun, d’acheter une carte 2.5/5/10Gbits/s à savoir l’Asus XG-C100C. J’ai aussi acheté un câble Cat 7 avec un bon blindage (je ne me souviens plus, un truc du style S/FTP), car je soupçonnais aussi mon câble Cat 5 (qui tenait pourtant bien le gigabit, mais qui n’est pas très long).



Cette carte est une purge. En gros il faut déconnecter/reconnecter physiquement le câble ou désactiver/réactiver logiciellement l’interface réseau pour retrouver une connexion sensiblement plus élevée que le Gbit/s (genre 1250Mbits/s, alors que ma connexion locale est sensée être 2.5G et ma connexion Internet 5G), sinon je tombe à 100Mbits/s environ.



La carte Ethernet, je ne sais pas si elle ne marche pas, si elle chauffe, ou si ma carte mère ne la gère pas, mais elle est plus mauvaise que le 1Gbit/s de ma carte mère, et j’ai essayé de faire les MAJ de firmware même si elles ne sont officiellement pas supportées par Asus (Décrit ici.



Et ensuite de toute façon, la fibre chez Free (je parle pour chez moi, ça marche sûrement mieux chez les autres), c’est bien plus mauvais en 5Gbits/s théorique que chez Orange en 1Gbit/s.

votre avatar

Non, car comme dit par JCLB on utilise le précâblage fibre du site, c’est inimaginable de refaire tout le câblage vertical d’un immeuble pour tout passer en mono “parce que c’est pas cool d’avoir des SFP différents selon le type de liaison”. Et pour généraliser c’est multi dans le même bâtiment ou la même salle DC (<300m grosso modo) mais mono ailleurs.
Et il y a encore une différence de coût entre les optiques SR et les optiques LR (17 vs 20€ chez fs.com à priori mais c’est encore plus vrai sur des optiques “genuines j’imagine) et aussi sur la partie câblage je crois.
Sans compter que si tu n’aimes pas les DAC ou que ton couple serveur/switch n’est pas compatible avec ces trucs, je doute que tous les server_vendors proposent du mono. Et dernier point auquel je viens de penser, à une époque mettre du mono sur de la trop courte distance éblouissait le SFP en face et le lien ne montait pas. Maintenant c’est très rare voire impossible car les SFP acceptent un Rx plus fort que leur Tx.

votre avatar

T’es dans un terminal PowerShell pas dans un invite de commandes :)



Pour les firmware, ASUS en propose pour sa carte. Après j’ai déjà utilisé ce modèle pour des tests sans trop de souci pour atteindre 1 Go/s.



Pour le reste comme dit au-dessus, il faut faire la différence entre le réseau local et la qualité de la connexion internet (qui peut dépendre des capacités des serveurs tiers et du peering). Mais bon, du réseau Free à moins d’1 Gb/s j’ai du mal à y croire (le plus simple est de tester avec un téléchargement d’ISO Bittorrent pour voir à combien ça récupère au maximum).



Oui forcément si la fibre est déjà présente autant s’adapter :D



Mais oui pour utiliser du 10G-LR sur de courtes distances ici (principalement pour éviter d’avoir 50 types de transceiver selon les cas de test), pas de souci particulier en pratique.

votre avatar

Non, les 2 existent. Tu comprendras mes propos quand tu seras emmerdés par des DACs dans la partie nord-sud de l’infra.



Le 10G nécessite de la puissance et de l’assistanat pour être exploité, sinon on culmine à 4G par port.
Toutes les technologies comme le TCP Offload sont nécessaires, sinon ton CPU passe son temps à faire du protocole. Ces puces sont plus que de simples puces 1G. Je ne parle pas également de leur échauffement (achète un module USB-3 <-> 5G et tu comprendras mes propos).

votre avatar

je pensais que c’était peu ou prou la même chose, mais apparemment pas vraiment. Merci David.

votre avatar

En neuf la mono domine largement, d’autant que l’écart de prix s’amenuise grandement.



La dernière tendance en DC c’est câbler avec des cartouches à connectique MPO (et son amélioration proprio MTP). Plusieurs brins par connecteur.
C’est cher mais ultra dense.
La jarretière termine en cable breakout avec de nombreuses paires de brins



J’ai rarement utilisé du DAC pour autre chose que des réseaux de stockage, même à l’époque du twinax avec ses câbles avoisinant 50°C en pleine charge.
Et au final en DC, le plus simple à brasser ça reste de la fibre. Fin, y compris le connecteur, souple, léger,…



En grand compte c’est généralement SFP du constructeur pour le support, et parfois tiers pour du longue distance surtout si DWDM.

votre avatar

Le 1 Gb/s est suffisant pour la plupart des programmes pour les 10 prochaines années au minimum. Et je le dis très sérieusement.



Le grand public n’a PAS besoin d’une vitesse de réseau local supérieur à leur connexion Internet. Je vois toujours des personnes me dire qu’elles ne vont pas sur Internet, elles vont juste voir leurs e-mails (par webmail) et ont encore du mal à comprendre que Google est une partie d’Internet, non un système indépendant. Elles auront bien du mal à voir l’intêret de ces vitesses. Elles passent à la fibre non par besoin mais parce que le conseiller de leur FAI leur a promis que ce ne sera pas plus cher…



Pour ma part c’est aussi vrai. J’ai une utilisation très spartiate ou à l’ancienne de l’informatique. Je refuse les NAS pour préférer sauvegarder par disque externe, je ne veux PAS entendre parler de domotique, etc. et j’ai encore un peu de patience.



Résultat, j’ai la VDSL à 55 Mb/s et je ne vois AUCUN intêret à la fibre sinon à devoir paier plus cher (VDSL Sosh à 20 €), et forcément les besoins en réseau local sont nuls malgré 3 PCs familiaux.



Les débits supérieurs ne percent pas parce que seuls les professionnels en ont vraiment besoin. Les particuliers demandant 2.5G ou plus sont l’exception.

votre avatar

Cool un test pratique :)
On me posais justement la question de la pérennité du câblage actuel… ba voilà.:yaisse:

votre avatar

Tu oublies le coût prohibitif des SFP constructeurs. On parle de 400-600€ LE SFP+ 10G. De plus, ça t’empêche de mixer les marques d’équipements. Ok, FS.com est ton ami mais quand même. Tu n’as pas ce coût en RJ et la chaleur des ports RJ, franchement, on s’en fout pour la quantité utilisée.



En PME/ETI, on a rarement plus de 2 armoires serveurs (à distance). On garde la fibre pour le lien inter armoire (souvent multiplexé à la couleur :D ), on fait le reste en RJ. Après tout, on a que 4 ports par serveurs, 2 à 4 serveurs, 8 pour une baie de disque, 4 pour la continuité réseau nord/sud… Ca en évite des coûts de SFP+…



Et autre problèmes: le SFP+ est fixé en vitesse, là où l’Ethernet s’adapte. c’est un véritable gain en souplesse, et parfois ça a bien une utilité.

votre avatar

merci de la réponse (désolé pas eu le temps de regarder avant) : effectivement j’ai que 36M d’indiqué donc 36Mo/s… donc problème entre box et pc je suppose

votre avatar

c’est bien le premier cas, en gros c’est plutot 100Mo/s max … je passais déjà par ces serveurs, mais il semble que le blem vienne du lien box/pc vu le test de dl fait sur la box

votre avatar

Quand t’es un grand compte tu fais un appel d’offre pour le matos, SFP inclus. T’as facilement 55-60% de reduc sur les SFP.
Et sur certaines infra pour le support c’est inévitable, sinon à la moindre ouverture de ticket le support te dit, please replace SFP :windu: ticket is suspended.



Donc si tu veux pourvoir remonter les bugs de ta fabriq VxLAN + EVPN composée de centaines de liaisons inter spine-leaf tu fais au moins les uplinks avec les SFP constructeur.



Maintenant quand ton réseau c’est 50 équipements et que le support c’est toi sans contrat de maintenance constructeur/intégrateur oui tu fais ce que tu veux.



Enfin, si tu as une boite noire genre Cisco ACI en DC ou certaines solutions SD-WAN et SD-Access (campus), t’es tout captif du constructeur sur le moindre problème et du coup t’es obligé d’avoir tout de chez lui. Bref, comme le sketch des guignols



Mais d’ici moins de 5 ans avec SRv6 ils vont pouvoir aller se rhabiller et faire la guerre au meilleur contrôleur. Le réseau ça sera de bêtes switchs après ça, plus besoin de route processor de la mort etc… Enfin sauf pour la full view internet qui approche du million de routes IPv4 et grossis en IPv6.

votre avatar

xillibit a dit:


Il faut vérifier d’abord entre le PC et la delta que ça soit bien en 10gb/s, la carte 10gtek est sur que port PCie de la carte mère ?




oui sur un PCIe 3




Vous faites un speedtest via un navigateur ? Vous pouvez essayer en installant l’application de test sur le PC




j’ai testé les 2

votre avatar

Dire ça c’est dire que les gens n’ont même pas besoin de plus que du Wi-Fi (ce qui est en parti vrai, mais pose quand même des problèmes pratiques dans les zones denses en habitat, même si le Wi-Fi 6(E) va quand même pas mal aider à améliorer les choses à terme.



Après attention à deux points : tu es en VDSL donc tu ne ressens pas le besoin, soit. Cela ne veut pas dire qu’il n’existe pas. Comme pour l’absence de NAS & co, c’es un choix, pas une vérité générale. C’est aussi une vision qui oublie le besoin familial qui est par nature multi-postes et potentiellement gourmand en débits simultanés. entre les services de SVOD et les jeux en ligne, 55 Mb/s c’est vite saturé.

votre avatar

sans même parler du télétravail. selon ton job ça peut vite devenir un goulot d’étranglement très énervant. Rien que lorsque je dois faire du contrôle à distance sur des collègues en adsl/vdsl chez eux ça peut vite devenir un parcours du combattant avec une latence folle alors que c’est pas spécialement gourmand.

votre avatar

Je ne dis pas que le besoin n’existe pas, mais que vous êtes l’exception au niveau des particuliers, c’est différent. La majorité ne le requiert pas encore.



Il est clair que l’équipement > 1 Gb/s finira par se généraliser mais seulement par le renouvellement du matériel… et avec l’envie des FAI car il faut proposer les box qui vont bien. Je pense donc que le 1 Gb/s restera dominant au moins encore 10 ans. Qui plus est, Windows 10 sera supporté jusqu’en 2025…



A titre personnel, j’ai mon réseau local à 1 Gb/s que depuis 3 ans (après changement du FAI) et la saturation de mes 55 Mb/s d’Internet est rare car il faudrait que chacun veuille regarder un film 4K Netflix en même temps pour que cela arrive, ce qui est statistiquement improbable.



Après c’est sûr, pourquoi ne pas avoir mieux si le prix est le même… mais je n’ai rien trouvé en fibre à 20 € permanent pour le moment, donc… non (je ne considère pas RED/SFR et sa facturation magique comme des possibilités :D).




Soraphirot a dit:


Rien que lorsque je dois faire du contrôle à distance sur des collègues en adsl/vdsl chez eux ça peut vite devenir un parcours du combattant avec une latence folle alors que c’est pas spécialement gourmand.




J’ai un ami dont Teamviewer est d’une lenteur INSUPPORTABLE (genre 2 sec de latence, et l’image qui rame) alors qu’il a la fibre et un ordinateur de jeu (de 3 ans mais ça lui suffit). On est deux à avoir tenté de trouver la raison, sans succès.



A l’inverse, j’ai eu droit à un utilisateur vivant dans une des fameuses “zones blanches” avec un misérable 350 Kb/s et ça allait plutôt bien.



L’ennui est qu’avec nos SSD et liaisons rapides, on a tendance à s’habituer à une réactivité presque immédiate et donc il nous devient difficile de tolérer le comportement d’un ordinateur lambda avec une connexion plus faible.

votre avatar

Il faut prendre en considération que le gain perceptible, en temps donc, évolue de facon logarithmique.
Télécharger 1Go en 12,5Mo/s ça prend 80 secondes, en 125Mo/s ça prend 8 secondes. Gain de 72 secondes, plus d’une minute. Passer en 1,25Go/s ça prendrai une seconde, le gain n’est plus que de 7 secondes. Et la plupart des utilisateurs acceptent ce délai.ce qui empêche donc le passage du grand public au 1,25Go/s c’est la taille des fichiers habituellement téléchargés

votre avatar

55Mb/s, c’est 6h de download pour un GTA5 ou CallOfDuty, soit une soirée complète sans pouvoir regarder Netflix en 4K sur 1 TV, et celui qui DL, bah ne joue pas.



Si tu héberge un Plex pour partager tes films de vacances 4K avec ta famille et amis, 10~20Mb/s en upload par client.



A l’heure du dématérialisé, ou les jeux consoles et PC s’achètent et se téléchargent à la volé, c’est quand même très confortable de pouvoir télécharger à ~100Mo/s les 10 ou 100Go en quelques secondes/minutes, plutôt qu’en heure, et sans impacter les autres.



Autre exemple, le backup du NAS sur S3 par exemple, ou simplement une restauration.



Avec un VPN avec d’autres membres de ta famille, tu peux même leur proposer un share CIFS sur ton NAS directement sur leur PC.



Alors clairement, on vit très bien sans. A l’époque ou j’étais en ADSL 10Mb/s en dl et 1Mb/s en up, mon pauvre upload était saturé la nuit pour les backup NAS. Et j’avais des synchros noctures des repos debian/ubuntun/centos pour ne pas attendre des heures lors d’update ou install.
Maintenant, le seul ISO que j’ai, c’est netbook.xyz et j’install tout en live directement sur Internet.

votre avatar

(reply:58711:doktoil makresh)




C’est pour moi la principale raison. Quel est le gain vis à vis du tarif?
Quand on trouvera des switch multigig dlink tout en plastique à 19€ (DLINK GO-5G, Netgear GS105) qui fonctionne parfaitement en consommant quasiment rien à la prise, ça décollera. Pour l’instant, c’est élitiste et le tarif est trop élevé. Je ne suis même pas sure que les connexions fibre à 2,5Gb/s incitent réellement à investir dans du multigig.



Et j’en ajouterai une autre raison que je pense importante, c’est la “cloudification” du NAS (et donc de la grosse raison d’avoir du 2,5Gb/s @home). Avec la démocratisation de solutions comme Onedrive, qui gère tout de façon asynchrone, y a t’il vraiment besoin d’avoir un réseau 2,5Gb/s? je dirais même, est-ce rentable d’avoir un NAS à la maison?



Pour moi, le 1Gb/s a encore de beaux jours devant lui.



En ce qui me concerne, j’y passerais sûrement pas avant d’avoir du matos réellement abordable.

votre avatar

Encore une fois, je ne dis pas que ce n’est pas pratique d’avoir davantage de vitesse ou qu’il n’y a pas un potentiel besoin, mais que vous êtes l’exception. J’ai vu à ce jour DEUX NAS chez des clients, dont l’un chez un professionnel. J’ai vu des gens avoir la fibre qui n’en ont pas le besoin car ils ne matent que leurs emails, etc. Aucun d’entre eux ne s’embétera à moderniser leur infrastructure pour un EVENTUEL besoin futur, ils ne le feront que naturellement par le remplacement du matériel, ou quand le besoin se fera vraiment sentir. Et seulement à ce moment là, les prix baisseront car les constructeurs feront tourner les usines.



Sinon… Il fut un temps GTA V aurait demandé plusieurs JOURS sinon SEMAINES de download. eMule, que de souvenirs :phibee:



Quand à CoD… Il est évident que les concepteurs ont joué les parasites en rendant leurs jeux éxagérement volumineux. AUCUNE justification ne me fera accepter que CoD:Modern Warfare soit passé d’un 15 Go en VO à un délirant 300 Go en VR… Ils misent justement sur le combo temps de DL/espace disponible sur SSD pour contraindre le joueur à ne pas effacer et donc à y rejouer par le biais cérébral des coûts irrécupérables. C’est un piège que je refuse d’actionner. Remember : No CoD.



Sinon, rien n’empêche de mater Netflix sur une TV tout en DL, selon la plateforme. Steam permet de réduire la vitesse de DL, d’autres aussi. Et puis bon, depuis la béta de Steam, j’ai appris à jouer à d’AUTRES jeux que celui souhaité quand ce dernier a un patch vu qu’on ne peut pas les éviter (qu’est-ce que je hais ce principe)…

votre avatar

Merci pour tes remarques intéressantes, mais ça n’explique pas le surcout faramineux (dans l’article le prix fait ~x8 pour passer de 1Gb à juste 2.5Gb) après 16 années d’exploitation commerciale. Les problèmes techniques ont eu le temps d’être résolu voire bien maitrisé, et amortis. Je veux bien croire qu’il y a des problème de chauffe sur du 5Gb, mais en résidentiel, et même en entreprise coté bureautique, on n’est pas H24 à 5Gb, et on pourrait même imaginer faire du throttling au besoin.



Ceci dit, le 10Gb je m’en passe très bien, mais l’impression que les constructeurs nous prennent pour des pigeons, j’apprécie moyen. Un peu comme pour les disques durs, avec les prix au Go qui n’évoluent que peu depuis “l’inondation”. Ou les ports USB 3 encore en quantité limitée sur les machines, plus de 13 ans après la sortie de la norme (ça évolue, mais lentement).

votre avatar

TheKillerOfComputer a dit:


Encore une fois, je ne dis pas que ce n’est pas pratique d’avoir davantage de vitesse ou qu’il n’y a pas un potentiel besoin, mais que vous êtes l’exception. J’ai vu à ce jour DEUX NAS chez des clients, dont l’un chez un professionnel. J’ai vu des gens avoir la fibre qui n’en ont pas le besoin car ils ne matent que leurs emails, etc. Aucun d’entre eux ne s’embétera à moderniser leur infrastructure pour un EVENTUEL besoin futur, ils ne le feront que naturellement par le remplacement du matériel, ou quand le besoin se fera vraiment sentir.




Sur la partie NAS, que ce soit entreprise ou particulier, ils seront en demande dans deux cas : quand tu auras réussi à leur faire comprendre l’intérêt, où lorsqu’ils auront tout perdu et qu’ils comprendront l’intérêt. Cela ne poussera peut être pas à plus de 1 Gb/s, mais on est pas simplement dans un cas d’exception ou pas. Il y a un manque d’éducation pratique à ces questions.



Certes, il y a OneDrive & co, mais les deux ont en général plusieurs dizaines de Go ou parfois des To de données à conserver, et ils veulent rarement mettre le prix pour une sauvegarde en ligne (bien que ce soit un complément nécessaire pour s’éviter des mauvaises surprises en cas d’incendie par exemple).



La perspective de perdre une vie de souvenirs/documents fait en général pas mal réfléchir.




Sinon, rien n’empêche de mater Netflix sur une TV tout en DL, selon la plateforme. Steam permet de réduire la vitesse de DL, d’autres aussi. Et puis bon, depuis la béta de Steam, j’ai appris à jouer à d’AUTRES jeux que celui souhaité quand ce dernier a un patch vu qu’on ne peut pas les éviter (qu’est-ce que je hais ce principe)…




Comme dit plus haut, quand il faut s’appliquer à soi la contrainte, c’est un choix. Mais quand tu as deux gamins qui ont le steam qui tourne en // et des machines sous Windows qui se mettent à jour et rien qui n’avance, ça pose souci. Pour un usage classique, je considère en généal que 500 Mb/s est la limite à partir de laquelle la plupart des usages deviennent corrects et les gains limités.



Par exemple un jeu de 50 Go se récupère en 15 minutes. On peut réduire ce temps par deux, mais tout le mondre vivra bien avec ce temps de téléchargement. Mais c’est toujours 10x plus rapide qu’un VDSL à 55 Mb/s (qui concerne une part infime du parc). C’est 62,5x le débit d’une ligne ADSL 8 Mb/s.



Mais il ne faut pas se leurer, la taille des fichiers augmentera, les besoins avec eux. Si la fibre à 2,5 Gb/s et plus sont déjà là, c’est qu’elle deviendront notre quotidien d’ici quelques années. Et comme l’arrivée de la fibre à poussé les solutions Mesh/Tri-band, la montée en débit poussera à des réseaux locaux plus rapides. Ce n’est pas une question de “si”, plus une question de “quand”.




yannickta a dit:


Merci pour tes remarques intéressantes, mais ça n’explique pas le surcout faramineux (dans l’article le prix fait ~x8 pour passer de 1Gb à juste 2.5Gb) après 16 années d’exploitation commerciale.




Attention, il ne faut pas confondre la finalisation d’une norme et sa disponibilité commerciale. Par exemple le 2.5/5GBASE-T date de 2016, mais on le voit expoité en pratique depuis 20182019, le temps que les constructeurs mettent des puces sur le marché. Au début principalement Realtek, désormais Intel, etc. Tout cela prend du temps et la montée en puissance dépend de l’adoption (et des choix).



Intel a eu quelques soucis avec sa puce qui est arrivée finalisée plus tard que prévu sur le marché, mais a commencé à la généraliser avec certaines de ses plateformes, comme il le fait pour le WI-Fi. Cela permet de monter rapidement en volume. C’est pour ça qu’on trouve des puces Wi-Fi 6 dans les 20 euros et du 2,5 GbE dans les 1520 euros en chine (et plus sur le marché FR en direct).



On a eu de premiers switchs full 2.5G cette année, la première génération est assez chère (26 euros par port comme dit dans l’article), mais ça baissera progressivement. Les constructeurs n’ont pour le moment que des perspectives de volume assez faible, une fois qu’ils ont une meilleure vue du marché et que la demande augmente, tout ça est assez mécanique (sans parler de l’amélioration de la production).

votre avatar

yannickta a dit:


Merci pour tes remarques intéressantes, mais ça n’explique pas le surcout faramineux (dans l’article le prix fait ~x8 pour passer de 1Gb à juste 2.5Gb) après 16 années d’exploitation commerciale.




Il y a un morceau explication assez simple au surcout significatif au delà d’1gbps, c’est que quand même il faut des composants beaucoup plus élaborés pour faire du 10g vs du 1g sur du rj45. Le codage couche physique en 1000base-t est ultra simple (pam-5, treillis), mais pour réussir a passer du 10gbase-t sur du cuivre existant et donc avec une bande passante sacrément contrainte, le codage est beaucoup plus robuste (precoding+fec sur du pam-16) est n’est pas facultatif. Le 2.5g et le 5g se basant sur le 10g, ces composants sont indispensables et forcément ont un impact sur le cout (même si c’est certainement pas x8). Le coté “nouveau” rajoute aussi une surcote je pense…

votre avatar

“le 10GBASE-T a été défini en 2006, les 2.5GBASE-T et 5GBASE-T en 2016. On les retrouve en effet surtout dans des usages professionnels”, non, je suis ingénieur réseau et je peux vous assurer que personne de compétent dans le domaine ne déploiera ces aberrations, au dessus du 1Gbps c’est de la fibre, du DAC ou rien d’autre, c’est généralement moins cher selon la longueur et beaucoup plus évolutif.



Les DAC 10Gbps ca ne coute rien, les carte réseaux non plus sur le gray market (j’ai eu la mienne avec 2x 10Gbps pour 15e), et les SFP+ neuf ca dépasse généralement pas les 20e.

votre avatar

Clairement en DC ça a peu de chance d’être utile. Par contre hors DC le 2.5g/5g/10gbase-t a un gros interet pour les bornes wifi poe ou le 1g est limite et ca peut etre bien pratique pour upgrader.

votre avatar

Oui on a souvent une telle réaction sur ce sujet (comme les remarques sur les cartes réseaux à pas cher sur eBay qui sont la solution à tous les maux). Mais comme je le dis souvent (et qui est valable sur à peu près tous les sujets), aborder ce genre de problématique en mode tout ou rien est possible quand on fait un choix personnel (dans un cadre maison ou entreprise), pas pour une analyse globale de cas divers.



Ne serait-ce que parce qu’on est bien content de voir du 2.5G sur les Freebox Delta, dans une partie croissante des cartes mères du marché et que si on avait dû attendre que le 10G soit abordable pour passer à plus de 1G on serait encore calé à 1G. On ne résout pas les problèmes en campant sur des principes (même si je comprend qu’on préfère la fibre et le 10G, quand on peut se le permettre).



C’est d’ailleurs pour ça que le NBASE-T a été créé puis déployé. Pas pour les DC et autres installations pro, mais l’informatique ce n’est pas que ça. C’est un ensemble aux contraintes diverses. Les solutions que l’on peut être amené à apporter le sont donc tout autant.

votre avatar

Mon partage d’expérience “10 ans Datacenter” de deux entité différentes . Avec du cablage dans la première (jusqu’en 2015)



Cable DAC : très peu présent . Ils sont principalement utilisé pour le câblage des éléments d’un cluster, “apliance”, … Mais très rarement du réseau de distribution vers un équipent “final” pour raison de périmètre : Le mainteneur de l’équipement final est rarement le même que celui du réseau de distribution alors un cable à cheval sur les deux périmètre… Comme aussi déjà annoncé : l’utilisation de SFP, Gbic, … Qui ne sont pas de la marque du constructeur est c’est des galères assurés lors des incidents…



10 GBASE-T Cuivre : j’ai pas d’avis côté “équipement”, par contre coté infrastructure de câblage c’est d’une simplicité comparer à la fibre optique… Déployé que dans les DC de la première entité ou j’ai bossé.
Celle ou je suis actuellement, au dessus du 1 Gb/s c’est de la fibre.



La fibre : j’en ai passer des heures avec le microscope, réflectomètre et l’alcool isopropylique à astiquer les embouts jarretières pour respecter la norme ISO/IEC 14763 (je crois qu’elle a été revu depuis et est maintenant plus permissive sur la perte max des connecteurs au niveau des amorces…).
Respecter le budget et perte max, quand on passe par des tableaux de brassage optique avec un nombre de connecteurs important et un vrai défi ! Même une jarretière sortie du sachet (de qualité) nécessitait du nettoyage pour passer les tests reflecto + microscope. Au passage les connecteurs MTP/MPO je trouve que c’est la plus grosse connerie possible : ils ont du pour les concevoir se demander comment multiplier par 12 les problèmes !
(Avec du matos spécifique de test qui était inabordable même pour du Datacenter… Enfin les coût ont peut être évolué…)
Dans la plupart des Datacenter que j’ai côtoyer, les tests, qualification ou certification des liaisons sont uniquement sur incident et non lors de l’installation : c’est moche… (et du coup les liaisons seraient sûrement plus efficace en cuivre pour le 10 Gb/s, 40 Gb/s et plus (sous réserve de compatibilité avec les longueurs)



Pour en revenir au sujet, pour moi, le cuivre pour le “grand publique” c’est très bien.
La fibre me laisse perplexe…
Après les tarifs me semble encore chère pour sauter le pas sur ces débits intermédiaire, et sans équipement de test a la maison, avec des prises RJ45 Legrand et du câble à prix accessible, le 1Gb/s n’est jamais gagné à tout les coups (2 jarretière + le câble “d’infra” + 2 noyaux RJ45)

votre avatar

David_L a dit:


Sur la partie NAS, que ce soit entreprise ou particulier, ils seront en demande dans deux cas : quand tu auras réussi à leur faire comprendre l’intérêt, où lorsqu’ils auront tout perdu et qu’ils comprendront l’intérêt. Cela ne poussera peut être pas à plus de 1 Gb/s, mais on est pas simplement dans un cas d’exception ou pas. Il y a un manque d’éducation pratique à ces questions.




J’ai vu des fonctionnements d’entreprise si inhabituels que cela limite l’intêret du NAS, en particulier dans les petites structures.



Genre, tout est stocké… dans l’adresse e-mail. Si le client accepte le devis/plan/etc qui lui a été envoyé, il suffit alors de revoir les anciens mails concernant ce client pour retrouver les informations en pièces jointes. Pour la comptabilité, les factures sont envoyés en double au comptable qui fait le reste.



Cela fait que l’incendie d’OVH est plus dangereux que le fait de ne pas avoir de NAS. Un PRA est quand même nécessaire, qui consisterait à avoir le double du faux stockage en local. Je doute qu’un NAS puisse faire cela, mais un Raspberry PI et une bonne clé USB le pourrait.




Comme dit plus haut, quand il faut s’appliquer à soi la contrainte, c’est un choix. Mais quand tu as deux gamins qui ont le steam qui tourne en // et des machines sous Windows qui se mettent à jour et rien qui n’avance, ça pose souci. Pour un usage classique, je considère en généal que 500 Mb/s est la limite à partir de laquelle la plupart des usages deviennent corrects et les gains limités.




Dans notre monde de l’immédiateté où l’on veut qu’Amazon livre dès demain ou que le jeu soit patché dans la minute, plus on est riche matériellement et plus on devient pauvre en ressource temporelle car le temps libéré est immédiatement gâché dans le florilège de nouveautés que nous subissons (réseaux sociaux, etc.). Beaucoup ont donc oublié ce qu’est la patience… ce qui posera d’énormes problèmes aux personnes concernées car la vie leur rappelera qu’à un moment, il va falloir ATTENDRE.



Les gamins vont donc devoir apprendre à être patient. C’est pour leur bien :phibee:



Enfin oui, pas avant 10 ans pour un début de généralisation. La majorité des usagers lambda ne changera leur ordinateur que lorsqu’il sera en panne ou quand Windows 10 ne sera plus supporté, et encore je vois toujours des Windows 7 aujourd’hui et le 11 est bien parti pour devenir un remastered de Vista… Et la box ne sera changé que si le besoin apparaît.

votre avatar

TheKillerOfComputer a dit:


Genre, tout est stocké… dans l’adresse e-mail. […] qui consisterait à avoir le double du faux stockage en local. Je doute qu’un NAS puisse faire cela, mais un Raspberry PI et une bonne clé USB le pourrait.




Je comprends pas bien ce plan mais je confirme, les gens utilisent leur boite mail pour tout et n’importe quoi. Ce n’est malheureusement pas si inhabituel.

votre avatar

Soraphirot a dit:


Je comprends pas bien ce plan mais je confirme, les gens utilisent leur boite mail pour tout et n’importe quoi. Ce n’est malheureusement pas si inhabituel.




Clairement :transpi:




TheKillerOfComputer a dit:


Les gamins vont donc devoir apprendre à être patient. C’est pour leur bien :phibee:




Moi pas, de toutes façons je passe bientôt le labo à 25G :D

votre avatar

Ça dépend du produit de l’entreprise. Un webmaster ou un coiffeur ne fera jamais ça, mais un imprimeur ou une petite fonderie par exemple enverront les schémas et autres PDFs au client pour obtenir son approbation, et du coup ils sont stockés dans un lieu simple à manipuler pour en cas de réimpression ou autres.




David_L a dit:



Moi pas, de toutes façons je passe bientôt le labo à 25G :D




Tu seras à 1 Tb/s en local que je serais à peine entré au 5 Gbit/s :phibee: :D

votre avatar

On a encore le temps de voir venir, puis bon, j’aimerai surtout passer à du stockage NVMe-oF avant tout ça :D

votre avatar

Ben999 a dit:




  • curl -L http://mafreebox.freebox.fr/gen/10G -o file

  • ~~


    • CategoryInfo : InvalidArgument : (:) [Invoke-WebRequest], ParameterBindingException

    • FullyQualifiedErrorId : NamedParameterNotFound,Microsoft.PowerShell.Commands.InvokeWebRequestCommand





Il faut entrer cette commande dans la console DOS (cmd.exe) pas dans la console powershell.

votre avatar

Encore un discours du “moins c’est mieux”



Je ne crois pas que c’est généralisé car même des techno-réfractaires veulent du débit ne serait-ce que pour pouvoir avoir la paix à la maison…



Tous les anciens modes de diffusions vidéo migrent petit à petit vers une diffusion par internet, la majorité des démarches administratives aussi sans parler du commerce ou du télétravail.



Dans ce cadre, les goulets d’étranglement vont devenir tellement insoutenable tant socialement que financièrement que l’augmentation de la vitesse des réseaux qu’ils soient WAN ou LAN ne fera qu’augmenter.



Le refuser de manière doctrinale c’est se voiler les yeux.



-

votre avatar

Où ai-je marqué que moins c’était mieux ? Décidément tout le monde est fatigué…

Réseau à 10 Gb/s sur 50 mètres : un câble RJ45 Cat 6 est-il suffisant ?

  • Catégorie de câble et débit : quelles règles à plus de 1 Gb/s ?

  • 10 Gb/s sur 50 mètres avec un câble Cat 6 : c'est possible ?

  • « Je n'ai pas 1,1 Go/s en pratique » : quelles solutions ?

  • Réseau à plus de 1 Gb/s : plus accessible, pas toujours abordable

Fermer