Je parlais bien de l’ensemble des communes. Après, la manière dont une commune est considérée “couverte”, c’est une autre question. Ça risque d’encore faire des auditions publiques sympas à l’Assemblée nationale, avec les députés qui râlent sur le président de l’ARCEP. ^^
Pour la précision : l’Union européenne définit le très haut débit à 30 Mb/s, avec un seuil supplémentaire à 100 Mb/s. L’ARCEP s’y conforme simplement. :)
Le
06/03/2015 à
15h
59
Les collectivités ont plutôt pour politique de faire de la “montée en débit” en VDSL2, via une offre régulée d’Orange. Ça reste “cher” pour chaque ligne, dans l’absolu.
Le
06/03/2015 à
15h
58
En fait, ce sont 290 000 abonnés qui ont quitté l’ADSL. Très logiquement, ils sont passés au VDSL2, au câble ou à la fibre. Il serait plus difficile de passer à une offre mobile j’imagine, rien que pour les quotas de données, très restrictifs.
Nous parlons déjà régulièrement d’OVH (et des autres), n’ayez crainte. :) Nous les avons même interviewé longuement à l’occasion de notre dossier sur le “cloud souverain”.
A propos de Free et Google, Free assume clairement de ne pas agrandir le lien entre son réseau et celui de Google (cf les déclarations de Niel à l’époque). Ce qui contribue aux problèmes de débits chez les clients. Pour Free, Google doit contribuer au financement de son réseau, ce que Google refuse toujours catégoriquement. Il y a eu une tentative de conciliation par l’ARCEP, qui a fait plouf. L’argument de Free n’est pas tant une congestion aujourd’hui que le besoin d’obliger Google à payer pour plus tard, quand les débits seront encore plus importants… Même si la validité du calcul de l’opérateur n’a jamais été avérée, loin de là. A noter tout de même que dans une situation similaire entre Orange et Cogent, l’Autorité de la concurrence a donné raison à Orange.
Concernant la neutralité du Net aux Etats-Unis : c'est une lutte de pouvoir entre les FAI et les services Internet. Ce sont deux lobbies extrêmement puissants, qui veulent "décider" de qui a réellement la main sur les internautes. Si les services Internet entraient dans le jeu des FAI (financement direct du réseau FAI, canaux prioritaires...), ils auraient simplement admis leur défaite en laissant le champ libre aux opérateurs. Alors qu'en prenant à partie les internautes sur le thème de la neutralité (la liberté !), ils sont entrés dans une guerre de lobbying nucléaire... Et ils ont gagné.
Ils ont maintenant les cartes en main, avec une législation qui les avantage et des internautes qui associent les GAFA à la libre concurrence, la liberté d'expression, etc. En face, les opérateurs ont au moins deux solutions : attaquer la loi en justice, ce qu'ils feront très sûrement, et coller au plus près des règles dans leur gestion du réseau, pour grapiller le moindre avantage concret qu'il leur restera. Il y a donc des risques, au fond, que ça se retourne contre les GAFA.
Le
28/02/2015 à
14h
06
Il y a ça mais aussi la priorisation temporaire et localisée en cas de congestion, aka gérer un pic de trafic comme on peut. Ce qu’interdit le Paquet télécom, c’est de créer une congestion artificielle ou d’appliquer des règles de priorisation “permanentes” pour mettre aux fraises un service.
Le
28/02/2015 à
08h
58
Vraiment merci tout le monde pour ces compléments à l’article, très utiles. " />
Quelques points, quand même. D'abord, les règles sur la neutralité du Net (en Europe ou aux Etats-Unis) prévoient une "gestion raisonnable du trafic", pour justement permettre aux opérateurs de donner priorité à certains contenus sur d'autres quand cela est vraiment utile. On n'a pas encore la version américaine en mains, mais le Paquet télécom européen parle par exemple uniquement de situations temporaires, qui ne doivent pas impacter la qualité de service globale de chaque site. Donc la "neutralité du Net pleine" n'est pas toute blanche ou toute noire.
Concernant les monopoles locaux des FAI (remember la vidéo de John Oliver où un FAI dit qu'il n'y a concrètement pas de concurrence), la FCC a fait sauter (anglais) des barrières à des réseaux d'initiative publique quelques minutes avant de s'attaquer au vote de la neutralité du Net (du début jusqu'à 50 minutes sur la vidéo intégrée). Des Etats voulaient toujours empêcher des villes de construire des réseaux Internet publics, alors que c'est parfois le seul moyen de disposer d'une connexion correcte. Les Etats-Unis auront peut-être un jour une vraie logique d'aménagement numérique du territoire, qui sait.
Enfin, la neutralité du Net, c'est effectivement souvent utilisée comme un paravent pour des guéguerres commerciales entre FAI et services, comme Comcast et Netflix (ou Orange et Cogent/Free et Google en France). Comme on le disait dans notre article la semaine dernière, il y a une confusion maintenue par les services entre les questions de concurrence et la neutralité du Net. Donc la neutralité pourra effectivement servir leurs monopoles, vu que le statu quo actuel les arrange. Après, ça ouvre toujours la porte à de nouveaux concurrents. Wait and see.
Le
27/02/2015 à
19h
02
A-snowboard a écrit :
Je n’ai pas regardé la vidéo. En plus je ne parle pas anglais :/
Je le mentionnais plus pour référence. A moins que tu aies quelques heures à consacrer à ces débats. ^^
Le
27/02/2015 à
18h
00
Sur le point précis de la régulation des prix, le statut d’opérateur téléphonique induit cette régulation, si je me souviens bien. Mais la FCC a répondu très clairement qu’elle ne s’aventurera pas à réguler les prix (inscrit dans le texte voté) et qu’elle empêchera les Etats de faire de même (dans la séance de questions-réponses à la fin de la vidéo).
Je ne l’ai pas cité directement dans l’article, mais c’est une des problématiques prises en compte. L’ARCEP avait publié une étude qui listait une partie des usages qui dépendent du réseau cuivre. C’est une question à laquelle il faudra trouver une réponse, mais ça n’a pas l’air si simple effectivement.
Les trois mois de carence pourraient passer à un mois. Il y a des chances que ce soit appliqué avant la fin des travaux du coup. C’est une petite consolation, mais bon. :o)
Le
19/02/2015 à
08h
54
Le discours n’est pas qu’il n’y a pas d’usage qui bénéficient de la fibre aujourd’hui, mais qu’il n’y a pas encore d’usage réservé à la fibre. Les débits demandés vont continuer à augmenter (upload compris) et les Etats/opérateurs veulent simplement éviter d’être les derniers à les offrir quand ils exploseront vraiment.
C’est aussi pour ça que le Digital Agenda européen est utile, ça met à peu près tout le monde sur le même calendrier de déploiement. Que les gens restent en ADSL/VDSL ou passent à la fibre, ce n’est pas le plus important dans l’immédiat pour eux, au fond.
Le
19/02/2015 à
08h
49
La ‘killer app’, c’était surtout une forme d’argument marketing “ultime” qui puisse convaincre les clients de se mettre à la fibre. On a prophétisé plusieurs usages, mais au final c’est vraiment la stabilité et le “simultané” qui mène les achats. Dont le stream Twitch en même temps qu’une partie en ligne effectivement. :)
Je doute qu’on place quelqu’un à la tête de l’ARCEP parce qu’il est dans les petits papiers du ministre (mais je peux avoir tort). Il a quand même un CV assez cohérent avec ce qu’on attend de lui. :) A part ça, la consolidation des opérateurs, ce sera sûrement aussi celle des réseaux (on le voit déjà sur le fixe avec Numericable qui arrête les déploiements de fibre SFR là où ils ont assez de câble). Donc on peut avoir des surprises sur les réseaux mobiles dans quelques mois ; Free voulait racheter le réseau mobile de Bouygues Telecom il n’y a pas si longtemps par exemple.
Bref, je suis un journaliste qui aime bien Internet. :p
Guénaël.
Le
17/01/2015 à
19h
54
Le point principal, c’est sûrement le fait qu’il a beaucoup contribué à améliorer la compétition sur mobile, avec les MVNO et Free Mobile. A part ça, comme dit dans l’article, le déploiement du très haut débit n’a pas été vraiment aidé (il répondait souvent qu’on avait un très bon ADSL pour expliquer la frilosité des opérateurs sur la fibre). C’est difficile de faire “le bilan de Silicani” vu que (comme précisé) c’est avant tout le collège de l’ARCEP qui prend les décisions. Un autre bon résumé, c’est celui de Solveig Godeluck en octobre. :)
La Caisse des dépôts (donc l’État) a investi 75 millions d’euros dans Cloudwatt. Les deux entreprises, Cloudwatt et Numergy, sont détenues toutes les deux à un tiers par la Caisse des dépôts. On n’a pas d’idée du montant du rachat, c’est sûrement un des éléments qui sera discuté d’ici mars.
Je ne saurais pas répondre précisément. Il y a juste deux choses que j’ai compris. D’abord, que les registrars partout dans le monde sont soumis à des lois bien différentes, celles de leur pays. Donc ce qui sera illégal ou réprimé fortement dans un pays ne sera pas dans l’autre. C’est entre autres ces disparités qui ouvre un espace pour la criminalité. Ensuite, que les autorités “mondiales” type ICANN ont à la fois d’autres rôles et des procédures qui ne sont pas forcément adaptées à ce type de cas (comme dit, un registrar fermé pourra rouvrir à côté). Sans oublier que les registrars font partie d’une chaine de responsabilités qui n’a pas l’air si simple à démêler, entre registres mondiaux, locaux et registrars, mais je ne suis pas assez spécialiste.
Concernant le besoin de contrôle ou les captcha, difficile de savoir dans quelle mesure ce serait efficace. C’est une partie des discussions que j’ai eu mais ça tenait plus du débat sur le principe (les libertés, les contournements) que sur du concret.
Le
11/01/2015 à
16h
12
Exactement.
Je vais tenter l'explication globale. :) De base, le bot et le serveur n'ont pour adresse que leur adresse IP, (quasi) imprévisible. Il faut trouver un point de rendez-vous. En l'occurrence, un nom de domaine.
Donc, pourquoi un nom de domaine et non un sous-domaine ou un service de DNS dynamique comme no-ip ?
Un nom de domaine unique est trop prévisible, un service de DNS dynamique est trop centralisé. Il suffirait de faire tomber le domaine ou comme Microsoft en juillet d'aller voir les services de DNS dynamique pour tout bloquer. Les noms de domaine, ça s'achète n'importe où, dans n'importe quel pays, à des entreprises qui ne sont pas toujours très surveillées. Une carte bancaire volée, ça coûte quelques euros et ça peut servir pendant une période suffisamment longue.
Pour le domaine lui-même, les possibilités sont infinies. En utilisant un algorithme "aléatoire", seuls les bots sont censés découvrir quel est le nom de domaine généré (qui tombera au hasard sur "wxphewjnfhlyyjj.net" ?). En plus, le temps que le bureau d'enregistrement découvre que le site sert à un botnet, que les informations sont fausses ou que la carte bancaire a été volée (ce qui peut prendre plusieurs semaines...), le site aura depuis longtemps accompli sa mission.
Le nom de domaine, c'est un point de rendez-vous retrouvable rapidement par le bot, facile à générer (notamment grâce aux API des bureaux d'enregistrement) sur lequel les contrôles se font a posteriori. Comme dit dans l'article, pour faire tomber un botnet utilisant plusieures extensions, il faut une coopération internationale, contacter un grand nombre d'acteurs pour empêcher les enregistrements et bloquer les domaines possibles chez l'utilisateur... Alors qu'en une seconde, le botnet génère son nom de domaine frauduleux et l'exploite sans délai.
Voilà voilà. :)
Le
09/01/2015 à
20h
09
(Désolé pour les fautes, le week-end va aider. :))
En fait, le principe du DGA c’est que chaque acteur (le serveur de contrôle et le bot) génèrent chacun de son côté les noms de domaine selon des paramètres précis (comme la date). A partir de ça, le bot va tester les possibilités qu’il a généré jusqu’à trouver le serveur, si j’ai bien saisi. Donc on peut effectivement trouver les URL à l’avance en fournissant de fausses infos au bot (comme les dates des prochains mois).
Je ne saurais pas dire comment les bots gouvernementaux contactent leurs serveurs, honnêtement. Selon le FBI, le bot “nord-coréen” qui a attaqué Sony avait bien une adresse IP écrite en dur, mais c’est à prendre avec d’énormes pincettes.
Concernant les bots qui cherchent en vain le serveur, il me semble que ça existe bien. Quand les forces de l’ordre font tomber un réseau (en empêchant la génération des noms de domaine ou en installant de faux serveurs de contrôle aux adresses indiquées), ils lancent également des campagnes de désinfection quand ils peuvent pour éviter d’avoir le logiciel qui tourne toujours chez l’utilisateur. C’est ce qui s’est passé avec Cryptolocker au Royaume-Uni. Le danger étant peut-être (je m’avance encore) qu’un réseau soit remonté et ces bots réutilisés.
Le
09/01/2015 à
19h
35
Merci à toi. :)
Sur ce cas précis, le hashtag était généralement aléatoirement selon la même technique : le serveur génère le le hashtag de son côté et les bots génèrent le même du leur pour le retrouver (si j’ai bien suivi les explications). Donc c’est très éphémère et marginal, sachant que des choses comme les bots de spam doivent être plus urgents pour Twitter concrètement.
J’imagine qu’on peut utiliser la même technique que pour les noms de domaine (“dérouler” les noms qui seront générés dans les mois à venir) mais il ne doit pas encore y avoir le besoin, tant c’est marginal. Même si je m’avance en disant ça.
Le
09/01/2015 à
19h
29
De rien pour l’article. :)
Je n’ai pas de réponse précise mais il y a au moins deux points auquel je pense. Gandi me disait ne pas avoir le droit légalement de refuser une vente, donc les contrôles doivent se faire avant tout a posteriori, une fois le domaine enregistré et une réclamation reçue. Sur le second point, il doit sûrement y avoir des usages légaux qui mettent aussi à l’épreuve les API des registrars, quoi doivent être difficiles à dissocier de l’illégal, même si je ne saurais pas en citer.
Des gens travaillent sur le sujet, ça c’est sûr. Après, sur la sécurité dont on bénéficie concrètement, j’aurais du mal à te donner une réponse claire. L’année dernière, j’avais interrogé un expert d’un éditeur de sécurité (Stonesoft) qui expliquait que la France avait un problème de collaboration entre les entreprises et l’État sur le sujet, alors que le pays est très dépendant de ces infrastructures. Un problème que la loi de programmation militaire règle en partie (avec beaucoup d’obligations supplémentaires pour les entreprises qui gèrent des infrastructures “vitales”). Sans parler de l’ANSSI qui, au fond, est en train de se mettre en place (ils sont en train de former les gens qu’ils ont embauché à tours de bras ces dernières années en gros). Y a du mouvement, mais sur le concret lui-même de la “sécurité”, bonne question.
article de Guénaël Pépin alias Reguen? un bénévole?
Un pigiste. C’est presque pareil. " /> (Pas taper David.)
Le
19/12/2014 à
19h
48
joma74fr a écrit :
Les autorités de régulation des télécoms parlent souvent en terme de débit.
Débit descendant, c’est aussi le problème. :(
Le
19/12/2014 à
16h
04
Comme dit plus bas, tout ce qui amène de la fibre jusqu’au point de mutualisation (en bas de bâtiment, en armoire devant) est considéré comme fibre. C’est malheureux d’appeler le câble de la “fibre coaxiale”, mais c’est comme ça. Il faudra voir un jour si on peut avoir le découpage précis entre les technologies.
A l’époque où Numericable commençait à jouer sur le “30 Mb/s = THD”, ils refusaient de donner le moindre découpage entre leurs technos “très haut débit”. Ce n’est pas gagné. ^^
Et recevoir des reproches parce que j’aurais soi disant trop pris. :o Non mais.
Le
16/12/2014 à
16h
16
NonMais a écrit :
Sans vouloir casser ton enthousiasme, c’est réservé aux spécialistes de la chose, donc à moins que tu en fasses partie, je crains que tu ne connaisses qu’une frustration de ton envie
" />
Dans ce cas, il y a au moins la retransmission/la VOD des conférences, même si elle est incomplète. :) L'intérêt reste de rencontrer des gens, comme souvent dans ces événements, ceci dit.
Pourquoi c’est à l’État de développer ça ? Les télécoms ne sont pas du ressort du privé ?
Donc, c’est une décision de business pour y aller ou pas, normalement.
C’est un investissement énorme, et les opérateurs doivent être encouragés à le faire, concrètement. C’est un enjeu d’aménagement du territoire, de réduction de la fracture numérique… Aussi, les milliards de l’Etat vont surtout dans des projets de collectivités, qui posséderont en majorité leur réseau. En tous cas c’est l’objectif : combler les limites des opérateurs en créant des réseaux publics.
Le
03/11/2014 à
18h
49
FRANCKYIV a écrit :
Question conne :
Qu’appelle-t-on “Très Haut Debit” ?
Oups, pas précisé ici : en France, c’est une connexion au-dessus de 30 Mb/s. En clair, du VDSL ou du câble peuvent être du très haut débit.
Le
03/11/2014 à
18h
44
Moff Tigriss a écrit :
Pour suivre un peu la question, il y a plusieurs raisons :
- Dossiers non déposés
- Projet digne d'un fascicule publicitaire (là où certains font un travail remarquable, certains dossiers sont vraiment très intéressants à lire). - Certain projets tiennent plus de la pensée magique qu'autre chose, en se contentant de rester très vague (réseau ERDF ? Autoroutes, RFF ? Ils mettent tout dans le même panier).
Sur l’aspect “fascicule publicitaire”, l’Etat dénonce effectivement certaines pratiques… Comme des consultants en aménagement numérique (qui conseillent les collectivités dans leurs plans) qui copient-collent leurs dossiers, parfois eux-mêmes copiés sur ce que vendent les opérateurs (shameless plug : voir cet article). Ou des collectivités qui se font directement dicter certaines solutions par les opérateurs, des plans de déploiement tout prêts sous le bras.
La plupart des collectivités seraient encore “vulnérables” face au discours des opérateurs, qui sont vus comme EDF : s’ils le disent, c’est que c’est vrai. D’où l’intérêt de la mission THD, qui même si elle n’est pas parfaite et est déjà revenue sur ses positions (par exemple sur la fibre), assainit déjà beaucoup les dossiers et recale les dossiers qui abusent vraiment.
My 2 cents.
Le
03/11/2014 à
18h
30
Jarodd a écrit :
C’est peu, qu’est-ce qui justifie le refus de deux tiers des demandes ?
Les deux autres tiers ne sont pas tous refusés, la grande majorité sont simplement en cours d’étude. D’où l’énorme budget prévu l’année prochaine, qui devrait être l’année où la grosse majorité des dossiers devraient être acceptés et financés.
Concernant ce qui bloque, ça peut être :
que la solution technique choisie ne va pas. Par exemple vouloir tout fibrer tout de suite alors que de la montée en débit sur cuivre (VDSL) peut être plus réaliste, qu’une ville du département est oubliée alors qu’avec un effort de plus, on peut la fibrer. Dans l’absolu, une collectivité va très rarement faire “tout fibre”, mais va mélanger fibre, cuivre (VDSL), technos radio (Wimax parfois, satellite…) ;
que le projet est trop ou pas assez ambitieux, par exemple choisir de la montée en débit partout sur conseil d’un opérateur, alors qu’on peut directement fibrer une grosse partie du territoire… ou vouloir tout fibrer alors que quelques années de montée en débit dans certains coins peuvent déjà apporter une amélioration du débit à moindre coût ;
que les choix juridiques ne vont pas. Un réseau d’initiative publique peut être géré et commercialisé par la collectivité, géré par la collectivité et commercialisé par un délégataire privé, ou géré et commercialisé par un délégataire privé. C’est le choix de la collectivité, mais il faut qu’il soit cohérent avec les compétences de la collectivité, que le délégataire soit sûr ;
que le dossier n’est pas complet ou ne prévoit pas assez…
Dans tout ça, un dossier recalé n’est pas un dossier à mettre à la poubelle, de ce que j’en sais. La mission France THD aide déjà les collectivités quand elles montent leurs dossiers, elle les aide aussi une fois une version du dossier reçu. Le but pour tous étant de boucler au plus vite les dossiers pour débloquer les financements.
En même temps s’ils sont à ce point obnubilés par le “parcours” (ce que je trouve débile mais bon, ça les regarde), y a Robots.txt. Ça se résume grosso-merdo à
User-agent: Googlebot
Disallow: *
Allow: /index.php
C’est pas non-plus la mer à boire…
Et limite, s’ils étaient sérieux dans leur délire, ils feraient plutôt un htaccess et obligeraient le visiteur à passer systématiquement par la page d’accueil. Qu’ils tentent, s’ils sont sérieux, et on reparle dans 6 mois du nombre de visiteurs qui ont effectivement “suivi” leur “parcours”.
Déjà qu’ils se plaignent de leur ranking. " /> Mais le parcours est un point parmi d’autres, pas le souci principal.
Le
23/10/2014 à
21h
42
A-snowboard a écrit :
De ce que j’ai compris, certains on eu la surprise de voir cette barre de recherche en ayant rien demandé/implémenté.
C’est ça qui pose problème.
Exactement. Google a imposé sa barre de recherche sur de nombreux sites, sans les prévenir. Barre de recherche qui, par défaut, renvoyait vers une nouvelle page de recherche Google, avec par moment les pubs maison. Quand quelqu’un cherche “nextinpact” ou “facebook” sur Google, c’est souvent par flemme d’entrer le .com ou par habitude de cliquer sur le premier lien. Ajouter une nouvelle barre de recherche sous ces résultats précis, c’est pratique pour Google.
Ce ne sont pas les sites qui ont ajouté le snippet par eux-mêmes qui ont attaqué Google, mais ceux auxquels il a été imposé… Sites qui se sentent pris en tenaille par Google sur d’autres points (modifications de l’algorithme, mise en avant des services Goog, omniprésence du système d’enchères).
Et même dans le cas de l’usage du moteur de recherche du site en lui-même (par exemple celui de NXi à partir des résultats de recherche, au lieu de celui de Goog), cela pose problème à certains éditeurs pour qui la maîtrise du parcours sur le site de bout en bout est “essentielle”. Donc oui, c’est tout sauf une bête question technique.
Bien sûr dans l’histoire, à la fois le lobby des acteurs européens (l’OIP) et Google disent agir dans l’intérêt de l’internaute. :)
Le
23/10/2014 à
17h
44
David_L a écrit :
Ce n’est pas non plus parce que certains membres de l’OIP sont des concurrents de Google que leur demande est illégitime. La captation de trafic et l’intérêt pour Google est réel. Le fait de pouvoir décider de ne pas voir un tel outil apparaître est effectivement une chose que l’on devrait pouvoir demander côté éditeur pour éviter de faire passer les mots clefs recherchés par les visiteurs à Google au passage par exemple.
Affirmer que c’est une feature anodine est à mon sens aussi à l’ouest que de dire que c’est totalitaire.
Sans parler des différents lobbying venant de la russie et de la chine. Et là ça m’inquiète plus que le Brésil.
Peut être que j'ai lu trop vite, mais je n'ai rien vu qui garantisse l'indépendance de la nouvelle structure. Il y a une volonté d'indépendance, ça j'ai compris, mais comment se manifeste cette indépendance ?
- d'un point de vue financier ?
- d'un point de vue politique ?
- Qui représente qui et par qui et de quelle manière ?
Non tu n'as rien loupé, ce sont des points qui restent flous. L'un des buts du sommet brésilien en avril était de déterminer des solutions pour un ICANN indépendant. L'idée, déjà, c'est de convaincre tous les pays indécis entre les "blocs" Etats-Unis/ICANN et Russie-Chine/UIT (pour schématiser) de voter pour le modèle multi-acteurs mondial, plutôt que le modèle d'Internets d'Etat. D'où le sommet au Brésil, qui est le plus gros de ces pays indécis, où l'ICANN voulait prouver qu'il peut sortir de ses habitudes et pousser vers plus d'égalité de traitement. Ils se donnent une bonne année pour finir la transition vers une gestion "mondiale", il y a peu de doutes qu'ils trouveront une solution d'ici-là. Depuis la déclaration de Montevideo il y a un an, tout semble s'être vraiment accéléré.
L'ICANN incarne aujourd'hui la solution concrète pour une gestion du Net "mondiale", mais d'autres idées sont toujours lancées. L'Internet Governance Project (IGP) par exemple, grosso modo un groupe d'universitaires, voudrait par exemple éclater les fonctions de l'ICANN. Par exemple en confiant les racines DNS à un consortium extérieur : http://www.internetgovernance.org/2014/03/03/a-roadmap-for-globalizing-iana/ .
Il faut aussi voir que le spectre des Internets nationalisés russes, chinois ou iraniens sont des épouvantails très pratiques à brandir. Ils étaient très efficaces avant l'affaire Snowden, ils le sont encore aujourd'hui... Même s'ils doivent être accompagnés de quelques concessions désormais. Un Internet mondial, c'est le meilleur moyen actuellement de diffuser la culture et les techs américaines, quitte à verser dans le colonialisme (attention, anglais : http://www.nytimes.com/2014/08/03/opinion/sunday/evgeny-morozov-facebooks-gatewa... .
Diaboliser les positions russes et chinoises, c'est aussi une pression pour pousser ces pays à ouvrir commercialement "leurs" Internets, qui sont dominés par des boites nationales (Tencent, Alibaba, Huawei, ZTE dominent les services et équipements télécom chinois par exemple, avec le soutien législatif et financier du gouvernement). Ils sont accusés de protectionnisme, ce qui légitimerait que les Etats-Unis découragent les FAI d'utiliser du matériel chinois dans leurs réseaux. A protectionnisme, protectionnisme et demi.
596 commentaires
Le gouvernement veut 100 % de couverture 2G fin 2016
13/03/2015
Le 14/03/2015 à 08h 30
Je parlais bien de l’ensemble des communes. Après, la manière dont une commune est considérée “couverte”, c’est une autre question. Ça risque d’encore faire des auditions publiques sympas à l’Assemblée nationale, avec les députés qui râlent sur le président de l’ARCEP. ^^
Le récap’ des bons plans du moment, semaine 11
15/03/2015
Le 14/03/2015 à 08h 26
Merci, c’est corrigé. " />
Internet fixe : plus de 3 millions d’abonnés en très haut débit, l’ADSL recule
06/03/2015
Le 06/03/2015 à 18h 56
Pour la précision : l’Union européenne définit le très haut débit à 30 Mb/s, avec un seuil supplémentaire à 100 Mb/s. L’ARCEP s’y conforme simplement. :)
Le 06/03/2015 à 15h 59
Les collectivités ont plutôt pour politique de faire de la “montée en débit” en VDSL2, via une offre régulée d’Orange. Ça reste “cher” pour chaque ligne, dans l’absolu.
Le 06/03/2015 à 15h 58
En fait, ce sont 290 000 abonnés qui ont quitté l’ADSL. Très logiquement, ils sont passés au VDSL2, au câble ou à la fibre. Il serait plus difficile de passer à une offre mobile j’imagine, rien que pour les quotas de données, très restrictifs.
4Gmark : les résultats faussés par des problèmes sur un serveur OVH
05/03/2015
Le 05/03/2015 à 16h 06
Nous parlons déjà régulièrement d’OVH (et des autres), n’ayez crainte. :) Nous les avons même interviewé longuement à l’occasion de notre dossier sur le “cloud souverain”.
Neutralité du Net adoptée aux États-Unis : les internautes heureux, les opérateurs moins
27/02/2015
Le 01/03/2015 à 13h 49
A propos de Free et Google, Free assume clairement de ne pas agrandir le lien entre son réseau et celui de Google (cf les déclarations de Niel à l’époque). Ce qui contribue aux problèmes de débits chez les clients. Pour Free, Google doit contribuer au financement de son réseau, ce que Google refuse toujours catégoriquement. Il y a eu une tentative de conciliation par l’ARCEP, qui a fait plouf. L’argument de Free n’est pas tant une congestion aujourd’hui que le besoin d’obliger Google à payer pour plus tard, quand les débits seront encore plus importants… Même si la validité du calcul de l’opérateur n’a jamais été avérée, loin de là. A noter tout de même que dans une situation similaire entre Orange et Cogent, l’Autorité de la concurrence a donné raison à Orange.
Le 28/02/2015 à 14h 06
Il y a ça mais aussi la priorisation temporaire et localisée en cas de congestion, aka gérer un pic de trafic comme on peut. Ce qu’interdit le Paquet télécom, c’est de créer une congestion artificielle ou d’appliquer des règles de priorisation “permanentes” pour mettre aux fraises un service.
Le 28/02/2015 à 08h 58
Vraiment merci tout le monde pour ces compléments à l’article, très utiles. " />
Le 27/02/2015 à 19h 02
Le 27/02/2015 à 18h 00
Sur le point précis de la régulation des prix, le statut d’opérateur téléphonique induit cette régulation, si je me souviens bien. Mais la FCC a répondu très clairement qu’elle ne s’aventurera pas à réguler les prix (inscrit dans le texte voté) et qu’elle empêchera les Etats de faire de même (dans la séance de questions-réponses à la fin de la vidéo).
Guénaël.
4400 ! … et presque autant de projets
26/02/2015
Le 27/02/2015 à 18h 14
J’arrive après la bataille, mais je m’oppose vigoureusement à cette proposition. " />
Merci beaucoup pour les messages de bienvenue, au passage ! " />
Guénaël.
Avec Android for Work, Google veut conquérir l’entreprise
26/02/2015
Le 26/02/2015 à 18h 32
Oui. Mais en toute logique, Google Play for Work reste un service géré par Google.
Le 26/02/2015 à 17h 55
Je plaide le manque de place. " />
Très haut débit : la mission Champsaur propose une extinction progressive du réseau cuivre
25/02/2015
Le 25/02/2015 à 16h 57
Je ne l’ai pas cité directement dans l’article, mais c’est une des problématiques prises en compte. L’ARCEP avait publié une étude qui listait une partie des usages qui dépendent du réseau cuivre. C’est une question à laquelle il faudra trouver une réponse, mais ça n’a pas l’air si simple effectivement.
Guénaël.
En 2014, le déploiement de la fibre optique a bondi en Europe
19/02/2015
Le 19/02/2015 à 08h 56
Les trois mois de carence pourraient passer à un mois. Il y a des chances que ce soit appliqué avant la fin des travaux du coup. C’est une petite consolation, mais bon. :o)
Le 19/02/2015 à 08h 54
Le discours n’est pas qu’il n’y a pas d’usage qui bénéficient de la fibre aujourd’hui, mais qu’il n’y a pas encore d’usage réservé à la fibre. Les débits demandés vont continuer à augmenter (upload compris) et les Etats/opérateurs veulent simplement éviter d’être les derniers à les offrir quand ils exploseront vraiment.
C’est aussi pour ça que le Digital Agenda européen est utile, ça met à peu près tout le monde sur le même calendrier de déploiement. Que les gens restent en ADSL/VDSL ou passent à la fibre, ce n’est pas le plus important dans l’immédiat pour eux, au fond.
Le 19/02/2015 à 08h 49
La ‘killer app’, c’était surtout une forme d’argument marketing “ultime” qui puisse convaincre les clients de se mettre à la fibre. On a prophétisé plusieurs usages, mais au final c’est vraiment la stabilité et le “simultané” qui mène les achats. Dont le stream Twitch en même temps qu’une partie en ligne effectivement. :)
Guénaël.
Google Chrome passera du protocole SPDY à HTTP/2 d’ici quelques semaines
10/02/2015
Le 10/02/2015 à 13h 28
Selon les législations nationales, ça peut le devenir. Ils ont des idées très innovantes au Royaume-Uni par exemple. ^^
Pour le SNEP, les artistes sont les premiers gagnants du streaming
03/02/2015
Le 04/02/2015 à 07h 22
Je pensais plus à la manière dont les “0,46 euro pour l’artiste” sont obtenus au départ, en fait.
Guénaël.
Le 04/02/2015 à 07h 22
Merci !
Le 03/02/2015 à 17h 27
Voilà. :) Même si les 1,64 euro affichés sont avant impôts.
Guénaël.
Sébastien Soriano nouveau président de l’ARCEP, et maintenant ?
16/01/2015
Le 17/01/2015 à 20h 00
Je doute qu’on place quelqu’un à la tête de l’ARCEP parce qu’il est dans les petits papiers du ministre (mais je peux avoir tort). Il a quand même un CV assez cohérent avec ce qu’on attend de lui. :) A part ça, la consolidation des opérateurs, ce sera sûrement aussi celle des réseaux (on le voit déjà sur le fixe avec Numericable qui arrête les déploiements de fibre SFR là où ils ont assez de câble). Donc on peut avoir des surprises sur les réseaux mobiles dans quelques mois ; Free voulait racheter le réseau mobile de Bouygues Telecom il n’y a pas si longtemps par exemple.
Bref, je suis un journaliste qui aime bien Internet. :p
Guénaël.
Le 17/01/2015 à 19h 54
Le point principal, c’est sûrement le fait qu’il a beaucoup contribué à améliorer la compétition sur mobile, avec les MVNO et Free Mobile. A part ça, comme dit dans l’article, le déploiement du très haut débit n’a pas été vraiment aidé (il répondait souvent qu’on avait un très bon ADSL pour expliquer la frilosité des opérateurs sur la fibre). C’est difficile de faire “le bilan de Silicani” vu que (comme précisé) c’est avant tout le collège de l’ARCEP qui prend les décisions. Un autre bon résumé, c’est celui de Solveig Godeluck en octobre. :)
[MàJ] Orange devient le seul actionnaire de Cloudwatt
20/03/2015
Le 12/01/2015 à 12h 10
La Caisse des dépôts (donc l’État) a investi 75 millions d’euros dans Cloudwatt. Les deux entreprises, Cloudwatt et Numergy, sont détenues toutes les deux à un tiers par la Caisse des dépôts. On n’a pas d’idée du montant du rachat, c’est sûrement un des éléments qui sera discuté d’ici mars.
Guénaël.
Comment les botnets génèrent leurs noms de domaines
09/01/2015
Le 11/01/2015 à 22h 39
Merci pour tes réponses. :)
Le 11/01/2015 à 22h 37
Je ne saurais pas répondre précisément. Il y a juste deux choses que j’ai compris. D’abord, que les registrars partout dans le monde sont soumis à des lois bien différentes, celles de leur pays. Donc ce qui sera illégal ou réprimé fortement dans un pays ne sera pas dans l’autre. C’est entre autres ces disparités qui ouvre un espace pour la criminalité. Ensuite, que les autorités “mondiales” type ICANN ont à la fois d’autres rôles et des procédures qui ne sont pas forcément adaptées à ce type de cas (comme dit, un registrar fermé pourra rouvrir à côté). Sans oublier que les registrars font partie d’une chaine de responsabilités qui n’a pas l’air si simple à démêler, entre registres mondiaux, locaux et registrars, mais je ne suis pas assez spécialiste.
Concernant le besoin de contrôle ou les captcha, difficile de savoir dans quelle mesure ce serait efficace. C’est une partie des discussions que j’ai eu mais ça tenait plus du débat sur le principe (les libertés, les contournements) que sur du concret.
Le 11/01/2015 à 16h 12
Exactement.
Le 09/01/2015 à 20h 09
(Désolé pour les fautes, le week-end va aider. :))
En fait, le principe du DGA c’est que chaque acteur (le serveur de contrôle et le bot) génèrent chacun de son côté les noms de domaine selon des paramètres précis (comme la date). A partir de ça, le bot va tester les possibilités qu’il a généré jusqu’à trouver le serveur, si j’ai bien saisi. Donc on peut effectivement trouver les URL à l’avance en fournissant de fausses infos au bot (comme les dates des prochains mois).
Je ne saurais pas dire comment les bots gouvernementaux contactent leurs serveurs, honnêtement. Selon le FBI, le bot “nord-coréen” qui a attaqué Sony avait bien une adresse IP écrite en dur, mais c’est à prendre avec d’énormes pincettes.
Concernant les bots qui cherchent en vain le serveur, il me semble que ça existe bien. Quand les forces de l’ordre font tomber un réseau (en empêchant la génération des noms de domaine ou en installant de faux serveurs de contrôle aux adresses indiquées), ils lancent également des campagnes de désinfection quand ils peuvent pour éviter d’avoir le logiciel qui tourne toujours chez l’utilisateur. C’est ce qui s’est passé avec Cryptolocker au Royaume-Uni. Le danger étant peut-être (je m’avance encore) qu’un réseau soit remonté et ces bots réutilisés.
Le 09/01/2015 à 19h 35
Merci à toi. :)
Sur ce cas précis, le hashtag était généralement aléatoirement selon la même technique : le serveur génère le le hashtag de son côté et les bots génèrent le même du leur pour le retrouver (si j’ai bien suivi les explications). Donc c’est très éphémère et marginal, sachant que des choses comme les bots de spam doivent être plus urgents pour Twitter concrètement.
J’imagine qu’on peut utiliser la même technique que pour les noms de domaine (“dérouler” les noms qui seront générés dans les mois à venir) mais il ne doit pas encore y avoir le besoin, tant c’est marginal. Même si je m’avance en disant ça.
Le 09/01/2015 à 19h 29
De rien pour l’article. :)
Je n’ai pas de réponse précise mais il y a au moins deux points auquel je pense. Gandi me disait ne pas avoir le droit légalement de refuser une vente, donc les contrôles doivent se faire avant tout a posteriori, une fois le domaine enregistré et une réclamation reçue. Sur le second point, il doit sûrement y avoir des usages légaux qui mettent aussi à l’épreuve les API des registrars, quoi doivent être difficiles à dissocier de l’illégal, même si je ne saurais pas en citer.
Voilà voilà !
[Interview] Éric Freyssinet nous parle de la lutte contre les botnets en France
23/12/2014
Le 23/12/2014 à 15h 10
Merci pour le commentaire. :)
Des gens travaillent sur le sujet, ça c’est sûr. Après, sur la sécurité dont on bénéficie concrètement, j’aurais du mal à te donner une réponse claire. L’année dernière, j’avais interrogé un expert d’un éditeur de sécurité (Stonesoft) qui expliquait que la France avait un problème de collaboration entre les entreprises et l’État sur le sujet, alors que le pays est très dépendant de ces infrastructures. Un problème que la loi de programmation militaire règle en partie (avec beaucoup d’obligations supplémentaires pour les entreprises qui gèrent des infrastructures “vitales”). Sans parler de l’ANSSI qui, au fond, est en train de se mettre en place (ils sont en train de former les gens qu’ils ont embauché à tours de bras ces dernières années en gros). Y a du mouvement, mais sur le concret lui-même de la “sécurité”, bonne question.
Guénaël.
L’ARCEP veut harmoniser le déploiement de la fibre optique
19/12/2014
Le 20/12/2014 à 11h 26
Le 19/12/2014 à 19h 48
Le 19/12/2014 à 16h 04
Comme dit plus bas, tout ce qui amène de la fibre jusqu’au point de mutualisation (en bas de bâtiment, en armoire devant) est considéré comme fibre. C’est malheureux d’appeler le câble de la “fibre coaxiale”, mais c’est comme ça. Il faudra voir un jour si on peut avoir le découpage précis entre les technologies.
A l’époque où Numericable commençait à jouer sur le “30 Mb/s = THD”, ils refusaient de donner le moindre découpage entre leurs technos “très haut débit”. Ce n’est pas gagné. ^^
Guénaël.
[Interview] Éric Freyssinet nous parle de botnets et de sa Botconf
16/12/2014
Le 16/12/2014 à 17h 02
Et recevoir des reproches parce que j’aurais soi disant trop pris. :o Non mais.
Le 16/12/2014 à 16h 16
Très haut débit : l’État prévoit de dépenser 3,3 milliards d’euros d’ici 2022
03/11/2014
Le 03/11/2014 à 20h 30
Le 03/11/2014 à 18h 49
Le 03/11/2014 à 18h 44
Le 03/11/2014 à 18h 30
Les « search box » de Google font débat, l’Open Internet Project exige leur retrait
23/10/2014
Le 23/10/2014 à 22h 30
Le 23/10/2014 à 21h 42
Le 23/10/2014 à 17h 44
Pour l’ICANN, l’indépendance se conjugue à l’américaine
15/10/2014
Le 16/10/2014 à 10h 43
À l’ARCEP, les opérateurs préparent leur (cher) avenir
13/10/2014
Le 13/10/2014 à 16h 22