Connexion
Abonnez-vous

NFV, SDN : comment la virtualisation va modifier en profondeur les réseaux

Du bon et du moins bon

NFV, SDN : comment la virtualisation va modifier en profondeur les réseaux

Le 22 mars 2019 à 16h31

La virtualisation offre un monde de possibilités aux opérateurs pour améliorer leurs réseaux fixes et mobiles. Mais elle a des impacts importants sur les performances, les finances, la sécurité et la souveraineté. L'Arcep dresse un état des lieux.

Dans le cadre de l'analyse des réseaux du futur, l'Arcep s'est penchée sur la voiture connectée (lire notre analyse) et la virtualisation des réseaux fixes et mobiles. Elle est déjà en marche depuis plusieurs années chez au moins un opérateur français. Si elle apporte de la souplesse dans la gestion des ressources, elle n'est pas pour autant exempte de défauts.

Cet état des lieux est le fruit d’un premier cycle d’auditions qui « détaille ces questions afin de permettre l’identification des enjeux qui devront faire l’objet d’une analyse plus approfondie ». Alors qu'il fallait historiquement un équipement pour se charger du contrôle d’accès au réseau, des pare-feux, des routeurs, des passerelles, etc. La virtualisation permet de briser cette association avec des logiciels d'un côté et des serveurs banalisés de l'autre.

La virtualisation en deux mots : NFV et SDN 

Avant d'entrer dans le vif du sujet, il faut comprendre deux notions importantes :

  • NFV (Network Function Virtualization). La capacité de dissocier le matériel du logiciel pour les équipements réseau : plusieurs fonctions réseau peuvent par exemple s’exécuter de manière indépendante sur un même matériel générique. Les fonctions réseau peuvent également migrer d’un matériel à un autre. Ce concept a été introduit en 2012 dans un livre blanc cosigné par treize opérateurs.
  • SDN (Software Defined Networks). La capacité de configurer les équipements réseau à la volée en fonction des besoins de l’application/service au moyen d’un « contrôleur de réseau ».

Bien qu'indépendante l'une de l'autre, leur déploiement se fait généralement en simultané. « NFV vise à rendre polyvalents les équipements physiques utilisés en leur permettant de multiplier les fonctions qu’ils peuvent remplir (chaque fonction devenant un logiciel plutôt qu’un équipement physique propre) ; SDN vise pour sa part à rendre programmables l’acheminement et le traitement de flux », explique le gendarme des télécoms. 

Pour les exploitants des réseaux, il y a un intérêt financier. Ils peuvent « espérer réduire les coûts fixes en s’approvisionnant, en lieu et place d’équipements spécifiques, avec des équipements génériques sur lesquels s’exécuteront des fonctions logicielles ». Mais attention à bien prendre en compte les coûts éventuels des licences logicielles, de leur intégration et de la formation du personnel.

SDN NFV
Crédits : Vividcomm

Problème de la virtualisation : la latence

Le régulateur explique que les « machines virtuelles intègrent leurs propres systèmes d’exploitation et ne permettent généralement pas un accès direct à la ressource physique », elles sont donc légèrement moins réactives qu'une machine physique. Si ce n'est pas problématique pour un ordinateur classique, la chanson est différente avec certaines fonctions réseau ayant des contraintes strictes. 

Une alternative est mise en avant par certains : les conteneurs. Il s'agit d'une « variante miniature de la machine virtuelle qui s’appuie sur une isolation moins étanche entre la machine virtuelle et l’infrastructure physique ». Les conteneurs sont ainsi plus réactifs que les machines virtuelles, mais ils sont plus volatiles : « Contrairement à une machine virtuelle, le container est un micro composant, ce qui induit des risques spécifiques : traçabilité plus complexe, risque de défaillance plus distribué, complexité pour coordonner et orchestrer l’ensemble... ».

Des logiciels open-source... nécessitant des compétences

La bonne nouvelle pour les opérateurs, c'est que de nombreux logiciels utilisés pour la virtualisation « sont disponibles en open-source sous forme de composants logiciels qu’il est nécessaire d’assembler pour créer un équipement réseau virtualisé complet ». Simple et économique en théorie, cette opération demande des compétences particulières pour la mise en œuvre et le suivi.

D'un autre côté, des équipementiers proposent des solutions clés en main avec des licences payantes. Ce genre de service entraine une baisse prévisible des revenus fixes et une hausse de ceux variables. La virtualisation ouvre aussi la porte à de nouveaux acteurs pour entrer en concurrence avec les équipementiers : les spécialistes de la virtualisation et du cloud.

Des sociétés comme VMWare ont ainsi « développé des versions "premium" et optimisées de leurs logiciels pour bénéficier des avantages de la virtualisation (flexibilité, mutualisation) tout en atténuant les inconvénients (diminution des performances, fiabilité amoindrie) ».

Impact sur les opérateurs télécoms

Pour l'Arcep, « la virtualisation des réseaux permettra probablement de réaliser des gains financiers à terme. Toutefois l’ampleur et l’horizon de ces gains restent incertains et dépendants des situations propres et des scénarios retenus ». Il ne faut pas non plus exclure la mise en lumière ultérieure de coûts cachés. 

Et une solution hybride combinant l’intégration de logiciels open-source et des licences achetées aux équipementiers ne semble pas simple à mettre en œuvre : « en pratique cette approche pourrait potentiellement faire perdre aux opérateurs les garanties que les équipementiers leur offrent ».

Ce n'est pas la seule problématique et trois défis opérationnels doivent être pris en compte :  « la requalification de leurs équipes, une possible dégradation de leur qualité de service, et la redéfinition des responsabilités contractuelles en cas de panne sur le réseau ».

Ce dernier point rejoint un peu la problématique des voitures autonomes en cas d'accident : qui est responsable entre le fabricant de la voiture, l'éditeur du logiciel, l'intégrateur, le vendeur, le client, etc. ? 

Network slicing et neutralité du Net

La virtualisation aura un impact important sur la fourniture de service. Elle permet en effet de mettre en place des tranches de réseaux cloisonnées (network slicing) avec des qualités de service différentes. La 5G s'en servira par exemple pour des réseaux avec une latence très faible. 

Sur cette question, l'Arcep soulève la question de la neutralité du Net : « le BEREC n’identifie pas à ce jour le network slicing comme une atteinte à la neutralité du Net en tant que tel, dès lors qu’il est utilisé conformément aux possibilités de différenciation de qualité de service autorisée par le règlement européen sur l’internet ouvert ».

Il appartient aux autorités de régulation de vérifier que ce principe est correctement appliqué. Le problème réside dans la manière de procéder à cette  analyse. L'Arcep évoque une première piste complexe et longue : « la consultation des fichiers de configuration au niveau du contrôleur et de l’orchestrateur, ainsi que la consultation des journaux d’événements réseau ».

Permettre une ouverture à de nouveaux acteurs

Les opérateurs pourront également partager avec des tiers l'accès à leurs infrastructures réseau. Techniquement, les clients pourront « opérer leurs propres réseaux virtuels sur sa plateforme, soit en conservant une certaine maîtrise de l’intelligence de la plateforme (orchestration, contrôle, vision de bout en bout…), soit en se désengageant complètement de l’intelligence et en se confinant à un rôle d’opérateur d’infrastructure ».

Conséquence : de nouveaux opérateurs pourront se lancer en s'appuyant sur un réseau entièrement virtualisé sans détenir la moindre infrastructure physique en propre. Un bon point pour la concurrence, au moins pour les acteurs disposant d’une expertise dans la virtualisation et le cloud.

Pour le régulateur, « le paysage concurrentiel des télécommunications pourrait être profondément modifié »... à condition que les opérateurs jouent le jeu. En effet, « la nécessité d'obtenir un accord d’accès auprès de détenteurs d’infrastructures physiques demeure ».

Cette possibilité de nouveaux acteurs du cloud était déjà clairement mise en avant par Sébastien Soriano lors d'une interview sur l'attribution des fréquences 5G : « On ne peut pas exclure qu'il y ait des acteurs, notamment du cloud, qui puissent se lancer dans cette couche-là. Il y a des mutualisations évidentes, on est dans une couche réseau qui ressemble beaucoup à celle du cloud, on utilise des infrastructures télécom et on gère l'algorithmique, le stockage et la data. C'est beaucoup plus du service informatique que des télécoms en fin de compte ».

Un autre enjeu de la virtualisation est l'interopérabilité, aussi bien à l'intérieur d'un même réseau que pour des interconnexions. « Des travaux de standardisation, menés notamment par l’industrie – par exemple au sein de l’ETSI ou d’organisations/consortiums ad-hoc – et le monde de l’open-source pourraient aider à répondre, techniquement parlant, à cette problématique d’interopérabilité ».

Quatre principaux problèmes sur la sécurité

Tout n'est pas rose pour autant et le gendarme met en garde contre quatre problématiques de sécurité :

  • Création d’un point unique de défaillance (SPOF) due à la centralisation du contrôle des fonctions de réseau
  • Nécessité de garantir l’étanchéité entre applications
  • Augmentation des surfaces d’attaques
  • Hétérogénéité des configurations.

Mais il est également possible que le SDN « permette une meilleure maîtrise des configurations et favorise la modification rapide de celles-ci ». L'élaboration d'un cadre sécurisé fait partie des actions de l'ANSSI

Enfin, dernier point, mais pas des moindres, la question de souveraineté : « Certains opérateurs français pourraient choisir de réaliser certaines de ces activités en dehors du territoire national, soit pour des raisons de coût, soit pour les mutualiser avec les activités similaires de filiales ou de sociétés sœurs exerçant dans d’autres pays ». 

Pour l'instant, la réglementation prévoit que certaines opérations aient lieu sur le territoire national, « notamment la mise en œuvre des moyens nécessaires aux interceptions de correspondances ». La délocalisation pourrait également « avoir un impact sur la capacité de l’État à mettre en œuvre ses capacités en matière de détection de cyberattaques ou de réaction en cas de crise ».

Sans compter que les opérateurs ou leurs partenaires pourraient alors être assujettis à des réglementations étrangères. Pour finir, l'Arcep explique que « ces questions de souveraineté relèvent davantage des compétences notamment du gouvernement (ANSSI et SGDSN entre autres) ».

Orange et Bouygues Telecom sur les rangs

En France, Orange a déjà commencé à virtualiser son réseau depuis plusieurs années : au MWC 2017 par exemple, le FAI exposait déjà certains services virtualisés. Lors d'une interview, Jehanne Savi, responsable mondial du programme « on-demand network », nous affirmait qu'Orange avait virtualisé huit datacenters un peu partout dans le monde en 2016. L'opérateur prévoit d'en déployer quelques dizaines supplémentaires en 2017, dont deux ou trois en France.

L'opérateur était dans une logique de mise à jour, pas de faire table rase du passé : la virtualisation est mise en place lors d'un « changement de matériel en cas de panne, le besoin de déployer des services exploitant la virtualisation, et enfin l'ajout d'un nouveau datacenter pour absorber la croissance du trafic »

À cette époque, Bouygues Telecom nous confirmait avoir « effectivement entamé la préparation de la virtualisation du cœur de réseau, nous commençons par la mise en place de l’infrastructure NFV (NFVi = Network Functions Virtualisation Infrastructure), sur laquelle viendront se poser les applications du cœur de réseau, tout d’abord 4G et ensuite 5G », sans plus de détails.

SFR et Free n'avaient pas répondu à nos sollicitations. 

Commentaires (22)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar







Sym a écrit :



Pour le NFV, pas de commentaire, là je pense que l’on est dans le “HYPE WOLRD” pour la simple virtualisation de fonction comme on a fait en info serveurs depuis 10 ans maintenant.



Ou alors pour le NFV y’a un truc que j’ai vraiment pas compris.



Oui et non.

 

Pour ma part, la partie intelligente du NFV est de rapprocher le paquet pour être traité lentement par du CPU au lieu d’être passé dans un goulot.

De plus, la plupart du temps, le CPU consommé est du CPU IDLE.

Ce sera parfait lorsque nous aurons des ASIC PCIe dédiés au réseau, avec sa propre VM.



Exemple de NFV:

Tu as 8 serveurs hôtes de virtualisation chargés à 20% chacun, répartis dans 2 salles (l’installation est de type metro-cluster). Sur ces 8 serveurs, tu installes un switch NFV (voir 2 en VRRP sur le même hôte) qui va permettre que les paquets pour deux serveurs du même hôte n’aient pas à sortir de l’hôte (certaines cartes réseau font ça: coucou Intel série X).Ce switch NFV est en LACP avec deux autres switchs (un dans chaque salle) avec une sortie au plus proche.

En face, tu as deux switchs type 10G/100G stackés 100G (donc vus comme un seul switch) . Ces switchs vont également au plus proche dans le LAGs. Le tout (switch + switch NFV) est configuré par un orchestrator

Au final, ce que tu gagnes:




  • de la redondance sur la partie NFV

  • de la redondance sur les switchs très cher sans en acheter 2 par salles, ni acheter des switchs un poil moins cher pour les connecter aux switchs cher, en rajoutant donc de la complexité au truc.

  • tu économises un maximum ton lien 100G entre les 2 switchs

  • tes switchs bossent moins, sont plus réactifs

  • c’est moins compliqué à gérer (donc moins de personnel également)

  • tu peux mixer ton iSCSI avec ton LAN avec un simple VLAN et une QoS sans aucune complexité ni perte de performance. Si tu fais du vSAN, tu peux également le mixer sans problème. Les performances du merdier sont folles.

  • tu n’as de point de panne unique que pour la configuration, que tu peux d’ailleurs faire à la main. Le chef d’orchestre porte ici mal son nom: il n’est qu’un distributeur de procédure et en contrôle le déroulement: son absence n’empêche rien du fonctionnement du réseau, en toute sécurité. C’est d’ailleurs souvent une simple VM que tu peux restaurer (attention aux modifications d’ordres donnés entre temps).



    Au final, tu as des économies (ton patron te remercie), un ensemble plus simple (tes collègues te remercient), un fonctionnement plus que satisfaisant (tes utilisateurs te remercient) et une redondance de partout (tu te remerciera quand tu auras un équipement HS).

     


votre avatar







Sym a écrit :



 Pour le NFV, pas de commentaire, là je pense que l’on est dans le “HYPE WOLRD” pour la simple virtualisation de fonction comme on a fait en info serveurs depuis 10 ans maintenant.



Ou alors pour le NFV y’a un truc que j’ai vraiment pas compris.



Avec une grosse difference: ce n’est pas une virtualisation “standard” dans le sens où les ressources doivent être dédiées: tous ces VNFs, parce qu’ils utilisent exclusivement le CPU, (pas de HW dédié, seule la crypto arrive doucement), ont en gros 250cycles pour traiter 1 packet. (Hypothèse de base pour 1 interface 10Gb: 14M packets / seconde, coeur qui tourne à  3,5GHz).



Le point que tout le monde oublie ici est la possibilité d’avoir plusieurs vendeurs, avec plusieurs orchestrateurs.

Pour de l’orchestration réseau, un opérateur pouvait prendre 1 fournisseur (Cisco, Juniper, E///, Nokia, …) pour tout ou une partie des services (Fixe, mobile, coeur de réseau) ; cependant, ces différents services étaient gérés de manière indépendante, et manuelle. Pas d’integration, ou d’automatisation.



En effet, c’est une rationalisation du materiel: au lieu d’avoir 1 serveur dédié par fonction, c’est une VM avec des resources dédiées, qui est – en théorie – capable de faire tourner n’importe quelle fonction (FW, DPI, CGNAT, BNG, EPC, … ), et cela permet de fournir des fonctions au plus proche du besoin et/ou distribuer les fonctions pour avoir un moindre impact en cas de problème.

Par exemple, si il y a une coupure d’alimentation dans un PoP, on peut repartir les VNFs dans d’autres PoPs tant que le problème persiste.

 

Cependant, atteindre le niveau de performance requis requiert l’utilisation de vswitchs accélérés (DPDK, par de kernel) ou directement d’interfaces physiques (SRIOV, VF), ce qui peut grandement limiter, les possibilités existantes pour de la live migration par exemple (difficile quand tu as des hugespages, impossible aujourd’hui avec un device physique, comme une carte réseau).



Bref, plein de choses qui n’ont rien a voir avec la virtualisation de papy.









patos a écrit :



  

Pour ma part, la partie intelligente du NFV est de rapprocher le paquet pour être traité lentement par du CPU au lieu d’être passé dans un goulot.

De plus, la plupart du temps, le CPU consommé est du CPU IDLE.

Ce sera parfait lorsque nous aurons des ASIC PCIe dédiés au réseau, avec sa propre VM.





Pas avec du DPDK: qu’il y ait des packets ou non, le CPU est en boucle active, et est dédié pour ca !

Des qu’on est dans le data path, ca bouffe 1 ou plusieurs coeurs, avec le Turbo Boost désactivé et pas d’économie d’énergie.

 

Les ASIC PCIe dédiés aux réseaux existent deja, voir les carte Mellanox Connect X5 ou Netronome qui supportent TC Flower [1] pour OpenvSwitch[2].

Cependant, ces implementations ont leur limites. Pour le full offload, ce n’est pas encore en PoC, les cartes sont toujours en dev, et l’integration commence à peine.

 

De plus, ces integrations complexifient le déploiement et l’orchestration, on n’est pas encore certain des perfs, et on remet en place une dependance sur du materiel spécifique (et donc les problèmes de certification inhérents ), sans compter que ca ne supporte pas la live migration.



[1]&nbsphttps://www.netdevconf.org/2.2/papers/horman-tcflower-talk.pdf 

[2]&nbsphttps://open-nfp.org/s/pdfs/dxdd-europe-ovs-offload-with-tc-flower.pdf


votre avatar







kgersen a écrit :



Imaginer ca : un simple portail web et on choisi ses opérateurs internet fibre et on peut en changer en quelques secondes sans rien débrancher…et sans la complexité et le bullshit technique que l’article décrit.





“L’Education Populaire, monsieur, ils n’en ont pas voulu !” :-)



Le réseau FTTH a été spécifiquement conçu pour que ce que tu décrit soit impossible. 

Il faut absolument limiter le churn, le nombre de FAI, garder le principe des box & des offres intégré, garder des barrières à l’entré,…



 

Après il y a UN inconvénient à la solution présenté: Ca revient à un accès activé, sur lequel les FAI (ou autres fournisseurs de services) n’ont pas de visibilité.

Par exemple, à Pau et dans l’Ain, l’activé est à 100Mbps. Pour évoluer il faut remplacer tous l’actif, chez les particuliers. Et rebelotte plus tard. Et quid si un FAS veux passer par exemple de la TV en overlay sur les fibres ?

Ne te méprends pas, je trouve, bien sur, cette solution (utilisé aussi à Oslo il me semble) largement plus ouverte & efficace que la solution française de refaire un réseau téléphonique en verre. Simplement, il faut bien préparer la solution technique…

 


votre avatar

Merci pour ce complément d’information <img data-src=" />

votre avatar

Les réseau d’initiative public devrait permettre le choix de son opérateur justement … finalement les zones non dense auront parfois plus de choix que les zones dense ou chaque opérateur devra fibrer.

votre avatar

&lt;quote&gt; brazomyna&nbsp;

#1Il n’y a que chez NXI qu’on peut espérer trouver ce genre d’article. J’adore. Merci.



Pas mieux… Merci NXI

votre avatar







Mimoza a écrit :



Les réseau d’initiative public devrait permettre le choix de son opérateur justement … finalement les zones non dense auront parfois plus de choix que les zones dense ou chaque opérateur devra fibrer.





Bof…. On verra, mais de ce que j’en ai compris, il y a une volonté d’uniformisation technique et “juridique/administrative” entre ZD / Zone AMII / RIP chez les FAI nationaux, calqué sur le modèle de l’ADSL. En RIP t’aura ptet en plus des opérateurs pro, mais le ticket d’entré reste salé.

Et il y a des choix à faire entre aller chercher les PM avec tes fibres, ou juste aller chercher les NRO… et dans les fait, actuellement, t’a intérêt à bien réfléchir si la solution de l’activé livré à Paris serait pas plus économique. (Je le déplore, hein…)



En tous cas on est EXTREMEMENT loin d’une solution technique comme celle décrite par kgersen, je dirais même que c’est l’opposé.

&nbsp;


votre avatar







Tophe a écrit :



Les ASIC PCIe dédiés aux réseaux existent deja, voir les carte Mellanox Connect X5 ou Netronome qui supportent TC Flower [1] pour OpenvSwitch[2].

Cependant, ces implementations ont leur limites. Pour le full offload, ce n’est pas encore en PoC, les cartes sont toujours en dev, et l’integration commence à peine.

&nbsp;

De plus, ces integrations complexifient le déploiement et l’orchestration, on n’est pas encore certain des perfs, et on remet en place une dependance sur du materiel spécifique (et donc les problèmes de certification inhérents&nbsp;), sans compter que ca ne supporte pas la live migration.



[1]&nbsp;https://www.netdevconf.org/2.2/papers/horman-tcflower-talk.pdf&nbsp;

[2]&nbsp;https://open-nfp.org/s/pdfs/dxdd-europe-ovs-offload-with-tc-flower.pdf



Merci pour les liens.

&nbsp;

Je ne parle que pour le déchargement complet. Pour moi, les solutions intermédiaires ne sont pas viables. Si un CPU savait faire du réseau, ça se saurait…

Pour le Live migration, ce n’est qu’une question de temps: on peut bien faire du live migration avec du nvidia grid. Après, est-ce indispensable? Je ne crois pas à partir du moment où les VMs sont redondées.


votre avatar

Mouais, j’ai quand même l’impression qu’ils viennent de découvrir une nouvelle méthode pour faire de l’eau tiède.

Il y a longtemps que les opérateurs font de la virtualisation que ce soit en MPLS ou à travers des VRF

votre avatar







patos a écrit :



Merci pour les liens.

&nbsp;

Je ne parle que pour le déchargement complet. Pour moi, les solutions intermédiaires ne sont pas viables. Si un CPU savait faire du réseau, ça se saurait… &nbsp;

Pour le Live migration, ce n’est qu’une question de temps: on peut bien faire du live migration avec du nvidia grid. Après, est-ce indispensable? Je ne crois pas à partir du moment où les VMs sont redondées.





Si si, un CPU sait faire du reseau, regarde le projet VPP (fd.io), ou 6WindGate: avec le bon matériel, on a des performances/watt qui interessantes, et une latence pour des routeurs qui est inférieure a certains ASICS (merci Intel et sa BP immense :) )

Aujourd’hui, aucun vBNG n’est fait en hard. (Mais ca arrive avec des FPGAs, comme presenté au dernier MWC par Intel)

Le “problème” est que ca consomme des CPUs qui pourraient être utilisés pour “autre chose”.

&nbsp;

La live migration pour les NICs arrive avec vDPA (implémentation de virtio en HW) [2].&nbsp;



La redondance est interessante pour des cas “critiques”, mais la live migration est tout de meme utile pour toutes les operations de maintenance classiques:




votre avatar

Pour le NFV, tu as l’intégration des fonction réseau au niveau de l’hyperviseur, typiquement dans les techno du genre OpenStack ou NSX, cela va bien plus loin que simplement virtualiser un équipement réseau. Cela permet de ramener certaines de ces fonctions au plus prés des extrémité du réseau, et cela est important car la périphérie d’un réseau passe naturellement à l’échelle quand le réseau grandi, alors que le coeur, non. Martin Casado qui est un des pionnier dans ce domaine a écrit un post très intéressant la dessus :&nbsp;https://networkheresy.com/2013/11/18/virtual-networking-and-the-end-to-end-princ…

votre avatar







OB a écrit :



“L’Education Populaire, monsieur, ils n’en ont pas voulu !” :-)



Le réseau FTTH a été spécifiquement conçu pour que ce que tu décrit soit impossible. 

Il faut absolument limiter le churn, le nombre de FAI, garder le principe des box & des offres intégré, garder des barrières à l’entré,…



 

Après il y a UN inconvénient à la solution présenté: Ca revient à un accès activé, sur lequel les FAI (ou autres fournisseurs de services) n’ont pas de visibilité.

Par exemple, à Pau et dans l’Ain, l’activé est à 100Mbps. Pour évoluer il faut remplacer tous l’actif, chez les particuliers. Et rebelotte plus tard. Et quid si un FAS veux passer par exemple de la TV en overlay sur les fibres ?

Ne te méprends pas, je trouve, bien sur, cette solution (utilisé aussi à Oslo il me semble) largement plus ouverte & efficace que la solution française de refaire un réseau téléphonique en verre. Simplement, il faut bien préparer la solution technique…





Les réseaux d’initiatives public c’est quoi du coup ?

1 opérateur différent du FAI, le FAI loue l’accès à la terminaison via un(des) point(s) de concentration avec le telco.

Dans la même optique, tu peux prendre un boitier Canal+ pour avoir accès a certaisn services de Cana+ via ADSL/Fibre.

A titre perso, que ce soit Fibre ou ADSL, je ne me sers pas de la Box opérateur, pourtant, ça fonctionne.

Passer outre les limitations artificielles des opérateurs français est possible, c’est juste pas user friendly.





Mimoza a écrit :



Les réseau d’initiative public devrait permettre le choix de son opérateur justement … finalement les zones non dense auront parfois plus de choix que les zones dense ou chaque opérateur devra fibrer.





Oui et non.

L’arcep a demandé que le déploiement ce fasse en multi fibre par les opérateurs en zones denses.

Typiquement, si Orange fibre, il passe 2 à 4 fibres pour pouvoir sous louer/vendre aux petits copains.

Les couts de génie civil sont ce qui coute le plus cher encore aujourd’hui.



Pour les RIP, ce sera au bon vouloir des opérateurs nationaux.

A contrario, on pourra avoir des opérateurs locaux/régionaux sur ces réseaux, ce qui ne sera pas vraiment le cas avec les réseaux des opérateurs.


votre avatar







the_Grim_Reaper a écrit :



Les réseaux d’initiatives public c’est quoi du coup ?

1 opérateur différent du FAI, le FAI loue l’accès à la terminaison via un(des) point(s) de concentration avec le telco.





Tu parles de la partie logique.



Mon souci c’est pas ça - bien sur qu’on arrivera toujours re-re-re-encapsuler du trafic - surtout qu’en France on est particulièrement bon pour ça.

&nbsp;

Mon problème c’est l’évolution technologique du média d’accès.&nbsp;



La fibre me “convient” car, à l’heure actuelle, on a pas encore touché (et de loin) les limites physique du média. Et la fibre déployée est de suffisament bonne qualité pour ne pas être un facteur limitant.



Typiquement on peux parfaitement imaginer , un jour, une situation comme celle décrite par kgersen mais avec des longueurs d’onde spécifique.

Aujourd’hui on sais déjà le faire, c’est juste pas rentable économiquement - mais plus tard…



Par contre, si aujourd’hui tu montes un réseau 100Mbps (voire même 1Gbps), ben si demain pour X ou Y raison ya besoin de plus de débit, ben…. faut tout racheter. Comme dans l’Ain ou à Pau.



Après sur la partie logique, oui c clair qu’ils ont pas du tout envie de désagréger les offres, en France, c’est même un principe de base commercial.



&nbsp;







the_Grim_Reaper a écrit :



Oui et non.

L’arcep a demandé que le déploiement ce fasse en multi fibre par les opérateurs en zones denses.





Aujourd’hui, ils ont _pas envie_ qu’un particulier puisse avoir plusieurs abo chez lui.

Il y a effectivement 4 fibres (obligation arcep) mais tous les FAI “mutualisé” utilisent la jaune. Quand tu t’abonne à l’un, ça te désabonne de l’autre, vu que la référence unique c’est le n° de la prise optique (PTO) - même si je sais que certains, en bricolant & en payant 1 bière au techncien,ont réussi à gruger.

Dans certains (rare) cas Free a payé pour avoir la rouge , il est donc possible de s’abonné à la fois à Free ET à un autre en réussissant a truander le système - mais c’est “pas simple”.



La bleu et la verte sont carrément pas soudés au PMI le plus souvent.



En RIP la plupart des OI posent des câbles de 2 fibres et n’en soudent qu’une - utilisée donc en mutualisé.



C’est pas un pb de génie civil c’est AVANT TOUT un problème commercial : il faut TOUT faire pour ne pas concurrencer le FTTO avec des fibres à 30 balles.

&nbsp;

Dans l’absolu ça me gêne pas tant que ça : une fibre unique peux , facilement, transporter plusieurs longueurs d’onde - c’est même comme ça que le XGPON coexistera avec le GPON actuel.

Pour le moment ya pas d’intérêt commercial, mais une fois que l’infra est là, à terme il sera possible de développer d’autres offres au dessus d’autres techno.



&nbsp;

&nbsp;





the_Grim_Reaper a écrit :



Pour les RIP, ce sera au bon vouloir des opérateurs nationaux.

A contrario, on pourra avoir des opérateurs locaux/régionaux sur ces réseaux, ce qui ne sera pas vraiment le cas avec les réseaux des opérateurs.





Je suis loin d’être aussi optimiste.



Mon avis c’est que les opérateurs d’infra des RIP vont vite se faire racheter par Orange - c’est mme pour ça qu’ils investissent & essaient d’en prendre un max actuellement, c’est pour promettre aux actionnaires une jolie culbute dans 5 / 10 ans . Je fais confiance à orange & à l’état pour financer ça sur le budget général , t’inquiète pas, on a déjà vu combien l’état-stratège est “versatile” en la matière.



Et quand ce sera le cas, vive le nivelage par le bas et exit les opérateurs locaux . Le but reste de retrouver le “modèle en couche” où à la fin des fin tout le monde achète à Orange (voire à un autre pour quelque %, histoire de dire à l’EU que non non ya pas de monopole).



Les opérateurs pro sont pas concerné : Depuis le début ils achètent des portes de collecte & du trafic à Orange , et quand ils sont trop petit pour Orange ils achète à un plus gros que lui.



Sorti de paris et de quelques grandes villes , il y a excessivement peu de réseaux tiers jusqu’aux abonnés.


votre avatar







OB a écrit :



Tu parles de la partie logique.



[..] je racourcis, c’est trop long [..]



Après sur la partie logique, oui c clair qu’ils ont pas du tout envie de désagréger les offres, en France, c’est même un principe de base commercial.





La fibre (ou l’xDSL) n’est pour moi pas un “média” dans le sens usuel du terme.

Le média c’est ce qui transite dessus, quel qu’il puisse être.

Sur les lignes RTC, la ligne n’est pas le média, le média c’est la voix, puis plus tard la data.



Les lignes RTC ont fait leur taf pendant … 40-50 ans.

Je comprends ta vision, mais une ligne 100Mbps de Pau peut aussi se voir augmenter ses débits via de nouvelles techno. Après, c’est surtout un choix de l’opérateur d’infrastructure. Est-ce que j’update mon matos (plus ou moins à mes frais), où est-ce que je fais payer pour tout changer.



Sur la fibre, le soucis sera la même avec les terminaisons optiques (multiplexage plus complexe qu’aujourd’hui, etc ..)





OB a écrit :



Aujourd’hui, ils ont _pas envie_ qu’un particulier puisse avoir plusieurs abo chez lui.

Il y a effectivement 4 fibres (obligation arcep) mais tous les FAI “mutualisé” utilisent la jaune. Quand tu t’abonne à l’un, ça te désabonne de l’autre, vu que la référence unique c’est le n° de la prise optique (PTO) - même si je sais que certains, en bricolant & en payant 1 bière au techncien,ont réussi à gruger.

Dans certains (rare) cas Free a payé pour avoir la rouge , il est donc possible de s’abonné à la fois à Free ET à un autre en réussissant a truander le système - mais c’est “pas simple”.



[..] je racourcis, c’est trop long [..]



 

Tu mélange deux choses différentes, le couût de pose d’une fibre, et l’utilisation qui en est faite derrière.

Le plus cher, au mètre, c’est le génie civil (préparer, creuser, poser, reboucher, refaire la chaussée, baliser, payer les gars pour le faire).



Le volet commercial, et plus l’usage, c’est autre chose.

que les opérateurs utilisent la même, y’a plusieurs raisons :




  • y’a 1 seule prise dans le point de livraison par défaut (donc 1 seul opérateur) pour un logement

  • la fourniture du point par un unique opérateur (logique découlant du précédent point)

  • c’est plus facile de prendre ce qui a déjà été fait par le concourant, plutôt que de refaire le taf soit même

  • le brassage dans les immeubles c’est n’importe quoi, si quelque chose marche, autant le reprendre



    Je suis pas certain que beaucoup de personnes (particuliers) soient intéressés par avoir eux arrivées optiques via 2 opérateurs passant par 2 fibre qui sont ensembles. D’(autre part, il faut un matos que tout le monde ne veut pas forcément s’amuser a exploiter/configurer.

    En plus, en cas de coup de pelleteuse, t’as plus d’accès du tout, c’est cool …





    OB a écrit :



    Je suis loin d’être aussi optimiste.



    Mon avis c’est que les opérateurs d’infra des RIP vont vite se faire racheter par Orange - c’est mme pour ça qu’ils investissent & essaient d’en prendre un max actuellement, c’est pour promettre aux actionnaires une jolie culbute dans 5 / 10 ans . Je fais confiance à orange & à l’état pour financer ça sur le budget général , t’inquiète pas, on a déjà vu combien l’état-stratège est “versatile” en la matière.



    Et quand ce sera le cas, vive le nivelage par le bas et exit les opérateurs locaux . Le but reste de retrouver le “modèle en couche” où à la fin des fin tout le monde achète à Orange (voire à un autre pour quelque %, histoire de dire à l’EU que non non ya pas de monopole).



    Les opérateurs pro sont pas concerné : Depuis le début ils achètent des portes de collecte & du trafic à Orange , et quand ils sont trop petit pour Orange ils achète à un plus gros que lui.



    Sorti de paris et de quelques grandes villes , il y a excessivement peu de réseaux tiers jusqu’aux abonnés.





    Je ne suis pas optimiste sans recul.

    Toi tu es par contre pessimiste.

    Pour ce que tu dis arrive, il faut que :

  • L’arcep n’existe plus

  • les lois anti-monopole européenne ne s’appliquent pas

  • les collectivités local qui est propriétaires ,revendent au telco du RIP

  • que les autres opérateurs (FR ou EU) laissent faire sans rien dire



    Et si, si vraiment ca devait arrivé, l’Europe demanderai gentiment un démantèlement d’Orange, avec telco d’un côté et opérateur de services de l’autre.

    C’est d’ailleurs pour éviter ça qu’Orange ne pousse pas pour racheter un opérateur français et pousse pour ne pas être seul sur le déploiement de la fibre. Le monopole du RTC était valable dans le cas d’un monopole d’Etat, ce qui n’est plus possible aujourd’hui tel qu’il était avant.


votre avatar







the_Grim_Reaper a écrit :



La fibre (ou l’xDSL) n’est pour moi pas un “média” dans le sens usuel du terme.

Le média c’est ce qui transite dessus, quel qu’il puisse être.

Sur les lignes RTC, la ligne n’est pas le média, le média c’est la voix, puis plus tard la data.







Problème de terminologie alors. Ce que tu appelles “média” moi je l’appelle “service”&nbsp; - pour moi le média c’est le truc que tu peux toucher .

OK sur le reste. Effectivement, il faudra changer les terminaison en fibre (et même , pourquoi pas, les coupleurs au PMZ). Mais c’est peanuts face au fait de devoir retirer des câbles voire refaire du génie civil.



&nbsp;







the_Grim_Reaper a écrit :





  • y’a 1 seule prise dans le point de livraison par défaut (donc 1 seul opérateur) pour un logement



    &nbsp;

    Non justement, pas forcément : C’est effectivement le cas aujourd’hui, mais demain , avec le multiplexage, c’est possible de faire autrement.



    &nbsp;



    the_Grim_Reaper a écrit :



    • la fourniture du point par un unique opérateur (logique découlant du précédent point)

    • c’est plus facile de prendre ce qui a déjà été fait par le concourant, plutôt que de refaire le taf soit même

    • le brassage dans les immeubles c’est n’importe quoi, si quelque chose marche, autant le reprendre &nbsp;

      &nbsp;

      Pourtant, en cuivre , on peux, encore maintenant, se faire tirer plusieurs lignes.

      Bien des gens ont fait ce choix (pas la majorité, ok), pour des fax, séparation pro/particulier, sous-location, division de logements, ….



      A la limite aujourd’hui dans une logique de déploiement accéléré je peux comprendre, mais je ne vois pas pourquoi demain ce ne serais pas possible. En plus l’infra physique existe.









      the_Grim_Reaper a écrit :



      Je suis pas certain que beaucoup de personnes (particuliers) soient intéressés par avoir eux arrivées optiques via 2 opérateurs passant par 2 fibre qui sont ensembles. D’(autre part, il faut un matos que tout le monde ne veut pas forcément s’amuser a exploiter/configurer.

      En plus, en cas de coup de pelleteuse, t’as plus d’accès du tout, c’est cool …



      &nbsp;

      Beaucoup, non . Mais j’ai du mal avec cette logique de nivellement par le bas, de dire que puisque pas grand monde le veux, personne ne l’aura. En RTC ça n’a pas été fait ainsi.



      Le coup de pelleteuse est un problème complètement orthogonal , la seule façon de s’en protéger c’est de changer de média d’accès, avec de la radio par exemple en secours.



      &nbsp;

      &nbsp;





      the_Grim_Reaper a écrit :



      Toi tu es par contre pessimiste.





      &nbsp;Ca c’est totalement vrai.&nbsp;

      Après on a pas la même lecture des quelques 15 ans de télécom qui viennent de passer. J’admets tes arguments, mais il me manque ta confiance dans les institutions.



votre avatar







OB a écrit :



Problème de terminologie alors. Ce que tu appelles “média” moi je l’appelle “service”  - pour moi le média c’est le truc que tu peux toucher .



Et ta définition est fausse.

Un média, c’est un moyen de distribution, de diffusion ou de communication, d’oeuvres, de documents, ou de messages sonores ou audiovisuels. La fibre n’est donc pas un média. Internet, une TV, un ordinateur, si.


votre avatar

Il n’y a que chez NXI qu’on peut espérer trouver ce genre d’article.



J’adore. Merci.

votre avatar

SOPF, pu rien

votre avatar

Avec Nokia, Orange vient de basculer son réseau longue distance dans un mode de fonctionnement softwarisé

votre avatar

le buzz meter est au max, le bullshit meter aussi (en general les 2 sont liés :) ). J’entend les lobbys des équipementiers et éditeurs de logiciel qui jubilent.



Pendant ce temps, depuis quelque années, la petite ville d’Ammon aux US fait du simple L2 avec vlan sur son réseau fibre pour permettre la concurrence des opérateurs, le choix des services (internet chez X, TV chez Y, telephone chez Z) et meme a 2 particuliers de relier leur maisons …



Imaginer ca : un simple portail web et on choisi ses opérateurs internet fibre et on peut en changer en quelques secondes sans rien débrancher…et sans la complexité et le bullshit technique que l’article décrit.

votre avatar

En fait y’a deux volet dans le “SDN” :




  • la configuration à la volé des équipements déjà installés. Et là ton exemples est le bon je pense. On peut faire cela depuis deux décennies avec une simple page WEB et deux scripts à la con (j’ai fait aussi, je confirme, EXPECT cela déchire depuis 20 ans)

  • la configuration automatique des équipements sortant du carton. Et LA par contre on parle de la partie en dure. L’idée est que avec le renouvellement massif du réseau lié au THD, la dissémination dans le réseau de certain équipements avant concentrés dans des “datacenter” il est plus simple d’envoyer un technicien spécialiste en cablage courant fort et courant faible (déjà pas si simple à trouver) que le spécialiste MPLS/BGP/ autres sur chacun des 15 000 NRA/NRO de france.



    Pour le NFV, pas de commentaire, là je pense que l’on est dans le “HYPE WOLRD” pour la simple virtualisation de fonction comme on a fait en info serveurs depuis 10 ans maintenant.



    Ou alors pour le NFV y’a un truc que j’ai vraiment pas compris.

votre avatar







kgersen a écrit :



le buzz meter est au max, le bullshit meter aussi (en general les 2 sont liés :) ). J’entend les lobbys des équipementiers et éditeurs de logiciel qui jubilent.



Pendant ce temps, depuis quelque années, la petite ville d’Ammon aux US fait du simple L2 avec vlan sur son réseau fibre pour permettre la concurrence des opérateurs, le choix des services (internet chez X, TV chez Y, telephone chez Z) et meme a 2 particuliers de relier leur maisons …



Imaginer ca : un simple portail web et on choisi ses opérateurs internet fibre et on peut en changer en quelques secondes sans rien débrancher…et sans la complexité et le bullshit technique que l’article décrit.







Ouais mais là, on parle pas de réseaux avec qq dizaines de routeurs ni même qq centaines de routeurs. On parle de réseaux avec des dizaines ou centaines de milliers d’équipements réseaux très variés…

C’est pas du tout la même échelle et je vois pas où est le bullshit.



La virtualisation de serveurs a révolutionné les infras techniques des entreprises quelque soit leur taille et on voit même de plus en plus de particuliers enthousiastes jouer avec. La virtualisation du réseau était une suite logique même si ça ne s’applique pas à tout et à tout le monde.


NFV, SDN : comment la virtualisation va modifier en profondeur les réseaux

  • La virtualisation en deux mots : NFV et SDN 

  • Problème de la virtualisation : la latence

  • Des logiciels open-source... nécessitant des compétences

  • Impact sur les opérateurs télécoms

  • Network slicing et neutralité du Net

  • Permettre une ouverture à de nouveaux acteurs

  • Quatre principaux problèmes sur la sécurité

  • Orange et Bouygues Telecom sur les rangs

Fermer