Win 10S est c’est vrai limité mais là on vise le marché mobile et pas encore les PC de gamers. Cependant les performances des ARM avancent tellement vite chez Qualcomm que je vois mal pourquoi Qualcomm ne viendrait pas non plus sur les desktops, les stations de travail, les serveurs et les PC gamers. Le marché est déjà là et les titres peuvent aussi être optimisés pour ARM (d’autant plus que c’est moins le CPU que le GPU qui fait tout le boulot et que rien n’interdit de mettre un ARM Qualcomm avec un chipset graphique ATI (le partenraiat avec AMD pourra aider) ou même nVidia (plus souvent utilsié avec les CPU Intel).
Intel aussi se met à faire des processeurs ARM pour ne pas rester en marge du marché des mobiles. Et avec ces augmentations de performances et les APU multicoeurs ou coprocesseurs dédiés aux communications et réseaux de Qualcomm, on peut parier que même le code restant en x86 fonctionnera très bien en émulation sur une machine virtuelle. Couplons à ça les différents moteurs logiciels optimisés (DirectX, OpenGL, WebGL, .Net, J2ME, ECMAScript, Node.js…) on peut sérieusement penser que la plateforme ARM a beaucoup d’avenir et que Microsoft ne pouvait pas passer à côté, et même Apple pourrait lui aussi délaisser maintenant Intel pour voir ce qu’il peut faire sur plateforme ARM.
Ajoutons en plus que de plus en plus de logiciels sont virtualisés et connectés, ce n’est plus un problème d’architecture locale et on a bien assez de puissance quelque soit le jeu d’instruction du CPU (qui en fait de moins en moins!). On n’aura bientôt même plus besoin de développer en code CPU natif, puisque les logiciels seront dans un code binaire intermédiaire qui sera localement compilé en code natif (comme c’est déjà le cas avec .Net, Java, Dalvik VM, ou le code des “kernels” et “shaders” pour GPU, et autres bibliothèques accélératrices pour le calcul comme chez nVidia.
Bref on comparera de moins en moins les performances du CPU mais surtout celles des coprocesseurs qui seront encore plus versatiles qu’aujourd’hui: ce qui fera la différence ce sont les copros pour les codecs (audio, vidéo, compression de données, modems/routage/réseaux, cryptographie, calcul intensif), la prise en charge du parallélisme et la facilité de déploiement avec un nombre variable de copros, y compris via les ressources de calcul à distance, puis ce sera la qualité des affichages (résolution, rafraichissements), la fidélité du son, la connectivité (en terme de capacité de débit utile), et la consommation d’énergie; et du coté logiciel la qualité des pilotes et non plus l’OS (tous les OS se resssemblent beaucoup aujourd’hui), et des compilateurs de code pour le déploiement natif de code virtualisé.
Il est à craindre que ce sont en fait les gros opérateurs qui vont protester contre le maintien chez eux de cette obligation, en arguant du fait de coûts de gestion imposés, inutiles et discriminatoire contre eux.
Ensuite toutes les dérives sont possibles pour facturer n’importe quoi, pas seulement le dépassement de forfaits (contre lequel il sera impossible de justifier quelquechose, ou l’usage jugé “abusif” du seul fait qu’un internaute aura visionné des vidéos sur un site plutôt qu’un autre (via des liens de peering qui coûtent plus cher à l’opérateur, c’est ce qui je pense indique une violation de neutralité du net) ou par ce que son trafic est plus déséquilibré vers un autre opérateur de réseau que ceux qui restent dans le réseau préféré de l’opérateur.
Les opérateurs ne voudront pas trop mécontenter leurs clients avec ces dépassements facturés, mais seront alors tentés de modifier des services de base, comme réduire la bande passante (rendant inexploitable certaines vidéos en haute qualité, ou le jeu en ligne), ou voudront imposer l’utilisation d’abonnements à des options supplémentaires en promouvant des outils “accélérateurs” utilisant leur proxies (espions au passage), ou modifier les résultats de recherche pour promouvoir en premier les sites ayant le routage le plus favorable à l’opérateur.
La facturation est un élément clé d’une politique visant à faire changer les “comportements” de leurs habitudes, en ciblant leur porte-monnaie, mais aussi pour encore mieux monétiser leur portefeuille clients (en passant par exemple des accords de partage exclusifs contre rémunération, par exemple dans le ciblage publicitaire, les marges arrières commerciales…)
D’autres frais peuvent ensuite avoir lieu comme la sélection des moyens de paiement (sinon frais supplémentaires de traitement…), l’obligation de faire des avances de trésorerie (qui au passage leur évite de chercher des financements sur les marchés et offrir des rémunérations aux investisseurs ou des parts de capital coté au risque ensuite de se faire croquer par un plus gros ou démantelé et vendu à la découpe par des purs investisseurs n’ayant que faire des sociétés).
Aux USA comme en France aussi la neutralité est compromise quand les abonnements incluent l’obligatio nde souscrire à des tas de chaines quand on n’en veut que certaines, ou payer des suppléments pour changer de box nécessaire à un service (exemple pour pouvoir utiliser Netflixx), pratiquer les facturations en double, facturer des offres décrites comme gratuite (mais ssans mentionner qu’elles étaient très limitées dans le temps et qu’il fallait y renoncer dans un temps très court même bien avant la fin de cette période, l’obligation de périodes de souscriptions minimales excessives, les tarifs à la tête du client), l’utilisation de procédures ultracompliquées ou onéreuses pour renoncer à un service (ce qui provoque alors des retards et donc le maintien des services au delà de ce qui est demandé), les délais de remboursement des surfacturations ou des offres d’appel de remboursement (et uniquement sous forme d’avoir commercial étalé sur une série de factures masi dont on perd le bénéfice si on résilie trop tôt…), l’obligation de fournir des données personnelles non nécessaires à la fourniture du service ni même à sa facturation et son réglement.
Tout est bon: les fournisseurs ne faisant pour l’essentiel que des prestations immatérielles, ils peuvent tout inventer, changer les tarifs quand ils le veulent, imposer ces changements sans prévenir (à charge du client de devoir consulter un site mentionné en tout petit pour savoir ce qui change), et l’impossibilité de s’y opposer (à cause des durées d’“engagement” excessives (même pour l’internet fixe on commence à voir des frais de résiliation, et à la moindre panne du matériel fourni par l’opérateur (même s’il est défaillant dès le premier jour) obliger à payer des frais d’échange, et même si la faute en incombe à l’opérateur, comme des incompatibilités techniques après une mise à jour forcée des firmwares, ou encore le blocage de protocoles (notamment en VoIP), l’utilisation de “DNS menteurs” ou le contournemetn deprocédures d’authentification (par exemple en bloquant la livraison de certificats de sécurité ou leur validation en ligne)
En France le cadre est encore un peu régulé, mais il est de plus en plus orienté en fait par les directives européennes (qui accorde pourtant des tas de passe-droits notamment pour les services hébergés hors de l’UE mais visant pourtant directement les consommateurs européens), ou en tolérant que ces services n’assurent pas en quantité suffisante les dédommagements qui seraient dus aux consommateurs, ou encore en faisant appel à des tas de tiers douteux pour gérer nos données qu’ils disent sécuriser, et en obligeant les clients à acepter des clauses contractuelles qui les excuse de tout (à commencer par le droit de réclamer des dédommagements, ou élargissant très largement la définition des “événements majeurs” dont ils ne sont pas resposables, notamment la faute d’un de leur fournisseur qu’on n’a en fait même pas choisi et qu’ils nous ont imposés sans autre choix possible par des concessions faites excessives), ou encore en imposant pour les recours des appels devant des juridictions étrangères inaccessibles ou chères.
Déjà autorisé un FAI à être parti-prenante dans du contenu ça devrait être interdit par l’ARCEP, c’est du parti-pris, cela devrait être deux sociétés distincts. Un FAI ça ne devrait que transporter le contenu pour d’autres via des offres de service, point.
Les FAI le font tous : ils veulent tous vendre des bouquets TV, de la SVOD (en choisissant eux-même les fournisseurs, dans les menus intégrés à leur box), vendre de la musique, des jeux, imposer leur moteur de recherche (via leur DNS redirecteur sensé offrir une “assistance” à l’utilisateur) et prendre leur marge au passage (même si c’est au final plus cher que l’offre directe du fournisseur):
C’est le cas de SFR/Numéricable, Orange, Bouygues Telecom (offres VOD de myTF1 ; pas le choix chez Bouygues). Chez Numericable qui propose à peu près tous les grands acteurs de la VOD, y compris Canal, TF1, France Télévisions, BeIN, Google TV/Youtube, NetFlixx, et plusieurs offres de bouquets VOD cinéma…), mais évidemment il faut comparer et ne pas se contenter du menu de la télécommande.
Ceci dit, pour utiliser les offres indépendantes, il faut connecter un PC à la box et le brancher en HDMI sur la TV, ou alors utiliser une clé Wifi type Google TV sur un téléviseur (s’il est compatible avec son firmware) ou bien un serveur de diffusion streaming sur le PC vers une télé compatible UPNP/MediaCenter, ou diffuser du PC vers une XBox connectée à la TV ou une TV supportant les protocoles Apple Bonjour/iTunes.
Mais pour que ça marche il faut que les protocoles de protection soit supportés et avec un certificat de sécurité dont la signature est reconnue (sinon pas de HD ou pas de diffusion du tout, ça bloque sur le PC via les limitations du fournisseur web de contenus: c’est fait pour bloquer les enregistrements sur un périphérique externe, la diffusion doit être cryptée et les périphériques connectés doivent être authentifiés et doivent gérer les DRM, notamment pour les vidéos et les chaines et bouquets à péage: chaque fournisseur de contenu payant détermine les autorisations qui passent ou pas).
On a aussi des offres alternatives directement dans les téléviseurs “connectés” de certaines marques (Samsung, Philips…) mais là c’est souvent mal fichu (les télés connectés ont souvent un OS très limité et peu de mémoire pour avoir des menus enrichis et faciles à naviguer, celles qui ont un navigateur embarqué ont des navigateurs obsolètes comme de vieilles versions d’Opera, quelques TV ont un OS Android plus moderne et du stockage et de la mémoire locale pour supporter une navigation nettement améliorée dans leurs menus et avec leur télécommande).
Bref les “box” internet ou les tv connectés ou autres NAS multimédias ont chacun leur limites: on n’a jamais aussi bien en terme de navigation que sur un PC/tablette, à condition d’avoir ensuite une connexion fiable et rapide entre le PC/tablette et le téléviseur avec assez de bande passante pour de la vidéo de qualité: pour la HD (et plus encore pour l’UHD) il vaut mieux une connexion HDMI ou Fast Ethernet (100 Mbps ou 1 Gigabit si possible: mais tous les téléviseurs n’ont pas une Ethernet aussi rapide que leur port HDMI, et la connexion Wifi est souvent trop faible; certains téléviseurs ont aussi un port USB3: l’avantage c’est le câble USB beaucoup moins cher que le cable HDMI, et qui peut être souvent un peu plus long, et qui est plus facile à brancher que le cable HDMI). Ca demande du matériel externe.
La box de Numericable (maintenant proposée par SFR ou aussi par LaPoste) fonctionne plutôt bien, ses menus sont rapides et réactifs, sa télécommande en BlueTooth marche super bien en comparaison des télécommandes en infrarouge des autres box, ses menus sont très réactifs et bien conçus… mais elle consomme et chauffe beaucoup, elle intègre aussi plusieurs moteurs de rendu pour capter plusieurs chaines en même temps et en enregistrer une autre…
Mais le problème de Numéricable c’est sa box tout en un : à cause du cablage, on doit la poser à côté de la télé et ce n’est pas forcément l’endroit idéal pour poser la box. Du coup le PC se connecte en Wifi dessus (heureusement c’est du Wifi N, mais pas du Wifi AC, et la bande de fréquence Wifi est souvent trop occupée dans le voisinnage pour avoir du débit correct (surtout en milieu urbain dense avec des immeubles et plein de voisins autour, mais aussi dans certaines zones rurales ou périurbaines près d’un aéroport ou de radars et système de contrôle aérien ou de la défense, qui bloquent une partie de la bande Wifi utilisable à seulement 2 ou 3 canaux dans la bande classique); on doit alors prendre ou cable Ethernet ou une paire d’adaptateurs CPL si on veut aller dans d’autres pièces car on n’a pas le débit suffisant pour avoir la qualité vidéo attendue.
On préférerait une box NC/SFR en deux blocs séparés: un routeur ADSL/cable/WAN-fibre Ethernet d’un côté, avec son switch 4 ports Ethernet minimum et une autre box pour le décodeur/l’enregistreur/le mediacenter. mais NC devrait alors doubler le matériel et livrer un cable Ethernet en plus: le tout en un est une économie.
Vu le PER attendu et les engagements pris, je pense que cet investissement est juste là pour faire parler de lui, et faire monter la côte et revendre dans peu de temps…
SoftBank va donc chercher à replacer son bijou chez un gros constructeur. Google, Apple, Intel ne sont pas sur les rangs, mais SoftBank cherche sans doute à revendre le tout à Samsung, HTC, ou Huawei en faisant la culbute en Corée ou en Chine, à moins qu’il songe à Sony pour que ça reste japonais.
Et si ça se trouve, il va faire de la revente en découpe (la R&D de Cambridge passerait chez Orange ou Vodafone, les autres filiales étrangères chez les constructeurs chinois ou coréen, et le gestion des licences ARM dans une filiale qu’il gardera pour lui) !
Note: Intel ne peut sans doute pas acheter ARM, en revanche il peut fabriquer des processeurs ARM sous licence (et ensuite intégrer d’autres composants), et il le fait déjà (il n’est pas imposible d’ailleurs que les prochains processeurs x64 supportent nativement le jeu d’instruction ARM; Intel l’a fait en faisant des échanges de licences avec AMD, nVidia, STMicro, Broadcom)… il y a pléthore de processeurs ARM dérivés chez différents fondeurs chacun avec leurs extensions propriétaires et différentes combinaisons de produits intégrés.
Une fois la licence obtenue, Intel peut très bien choisir l’implémentation et l’architecture interne (les architectures ont souvent changé et continuent de changer pour intégrer de nouvelles technologies de bus, technos réseaux sans fil, technos de gestion d’alimentation, technos de redondance et contournement ou prévention des pannes internes, etc.) Après tout, ARM pour Intel c’est d’abord un jeu d’instruction très populaire dans le monde sans fil et Intel ne peut pas passer à côté de ce marché.
Et vu les dettes colossales de Softbank (que cette acquisition ne va pas éponger), Intel va en profiter pour négocier des licences avantageuses pour ARM. D’ailleurs ce qui fait vivre ARM ce sont les licences, pas la fonte des processeurs car ARM ne fabrique rien. Là est le danger (si Softbank lâche des licences trop avantageuses à tout le monde, il ne restera pas grand chose à vendre chez ARM).
Je ne donne pas cher de la survie de l’alliance Softbank+ARM, ça va vite craquer, Softbank ne résistera pas à la tentation et revendre et faire une culbute pour éponger une partie de sa dette. Mais pour ARM ce sera désastreux (surtout si entre temps Softbank aura négocié des licences avantageuses à Intel, Samsung, Huawei, ou Broadcom voire des transferts de technologies, obligeant ensuite ARM à devoir payer des licences sur ses propres technologies transférées, ou à en réinventer d’autres plus tard, qu’il faudra du temps pour replacer).
A mon avis si une société doit racheter ARM cédé par Softbank, ce sera Broadcom (et là il y aurait moyen d’éviter peut-être la découpe). mais Softbank va vite vouloir rentabiliser son investissement en cédant des licences aux autres fondeurs qui vont le solliciter (Intel, AMD, Texas Instruments, STMicro… et même Apple qui serait tenté de faire une version de processeurs ARM pour ses iPhones et iPad, ou pour d’autres petits objets mobiles connectés comme les iPods, et de rompre avec Intel après avoir déjà compu avec Motorola puis IBM, pourvu que la licence ARM lui coûte moins cher que la licence Intel)
Si l’amendement passe, c’est la fin des espaces de stockage gratuits sur le web (Google Doc, etc.) à moins qu’ils réussissent à financer autrement la taxe demandée par d’autres moyens (publicité imposée, abonnement, ou inclusion du service de stockage cloud au sein d’une autre offre payante…).
Qu’en pensent Google France, Apple France, ou OVH qui vont se retrouver taxés directement par cette loi ?
Qu’en pensent les hébergeurs de solutions cloud pour entreprises (qui souvent ne sont pas fermés uniquement aux seules entreprises, nombre de particuliers ayant des espaces de stockage sur le web et qui louent même espaces pour des serveurs de domaine ou héberger leur service web) ? Ils seront taxés aussi ? Vu le volume de ces hébergements pro (y compris ceux sur serveurs dédiés avec pléthore de Téraoctets) cela peut couter très cher aux entreprises (sans même qu’il soit question de rémunérer le droit à la copie privée car ce n’est pas l’objet de ce stockage, qui est d’abord fait pour mettre des bases de données, des archives de documents, héberger des espaces de travail, des applications connectées ou des espaces de discussion et espaces sociaux). D’ailleurs rien qu’à cause de ça, cela couterait une fortune à Facebook France !
Sinon ces hébergeurs devraient être imaginatifs et mettre en place des “espions” sur les espaces de stockage loués, destinés à vérifier le type de contenu, leur format, leur usage, etc (même si c’est juste pour l’usage privé et pas destiné à être redistribué librement sur le web). Jusqu’à présent on se contentait just de relever le contenu visible sur le web et demander la facture au gestionnaire du site concerné ! Mais alors ces espaces de stockage ne sont plus privés s’ils sont soumis au regard de l’hébergeur qui peut alors facturer des compléments.
Et cela risque en plus de provoquer des double-facturations si l’éditeur du site paye déjà une redevance ou les droits pour les médias qu’il distribue légalement, mais stocke sur son espace de stockage interne).
Rappel: cette taxe est juste destinée à payer le droit à la copie privée des médias numériques. Elle ne paye pas un droit de distribution qui est à part (soumis au droits des licences). Hors rien n’est montré pour dire que l’espace de stockage sur un cloud est juste destiné à la copie privée.
Que faire alors ?
- Taxer uniquement un forfait par client hébergé quel que soit le volume (ou jusqu’à un volume maximum, le reste étant gratuit) ? Ne serait-ce pas alors une discrimination selon les utilisateurs (ceux qui ont le plus gros espace hébergé sur un cloud payent comparativement beaucoup moins que ceux qui ont un petit espace) ?
- Ou taxer uniquement les clients particuliers des hébergeurs (en présupposant que ceux-ci n’ont un cloud QUE pour y stocker des copies de médias soumis au droit d’auteur, alors qu’en fait nombre de clouds ne font que stocker les photos personnnelles de la famille, ou des archives de documents personnels: bancaires, fiscaux, ou bien des sites webs persos pour leur propre activité artisanale voire associative…)
Est-ce que pour continuer à bénéficier de la gratuité du stockage en ligne sur un cloud, on sera tenu de le faire uniquement sur les espaces “partagés” (autrement dit les réseaux sociaux) dont les contenus “publics” sont supervisables depuis le web et soumis aux termes d’utilisation du service qui oblige à respecter le droit d’auteur ou obligé à s’engager d’en être soi-même l’auteur), tout le reste “privé” étant soumis à la redevance même si ce contenu ne relève pas du droit d’auteur de tiers et ne génère aucun profit lié aux licences (puisque ces contenus ne sont pas distribués ailleurs mais sont strictement privés).
Voilà une sale affaire mal engagée. S’adapter aux usages, peut-être, mais ne pas oublier que le cloud utilisé comme espace de copie privé est déjà lié à un espace de stockage privé à domicile (déjà taxé !) et à un accès internet pour accéder à cet espace :
Ne faudrait-il pas alors taxer plutôt l’accès internet lui-même ? Problèmes :
- Et pour quel montant : selon le débit en téléchargement (ADSL ou accès 3G/3G+ moins taxés, que les accès 4G/4G+/5G ou la fibre, aucune taxe pour les mobiles avec uniquement accès 2G ou SMS, ou aucune taxe en dessous d’un palier de volume, mais uniquement à partir de 3Go téléchargés par exemple) ?
- Va-t-on alors vers la fin de l’accès internet fixe illimité en volume, si la taxe sur l’accès internet se met à prendre en compte le volume (puisqu’on ne pourra même pas espionner légalement la nature de ce volume, il se peut que ce soit pour visonner un film regardé légalement en VOD et déjà payé, ou pour regarder des vidéos Youtube, ou pour naviguer sur des cartes ou collections de photos sur le web, ou pour faire de la visioconférence ou de la téléphonie sur Skype) ?
Cette taxe pour payer le droit à la copie privée ne cesse de s’agrandir. On se demande même pourquoi il y a maintenant une telle “crise” chez les producteurs de contenus et pourquoi ils ne payent plus les artistes ou en virent autant alors qu’ils n’ont jamais fait autant de profit avec cette taxe (plus que quand ils revendaient directement des copies d’oeuvres, avec les couts de publicité, fabrication, transport, rémunération des réseaux de vente intermédiaires):
- Si Vivendi est en crise (ou certaines des filiales), il le doit uniquement à sa mauvaise gestion et ses propres couts de fonctionnement (ou les dépenses somptuaires de ses dirigeants, ou de mauvais placements boursiers à risque et une direction générale désastreuse).
Sony Music n’a aucun problème, pas plus que bon nombre d’autres producteurs (Disney par exemple) qui malgré tout touchent aussi beaucoup d’argent par cette taxe croissante.
Les seuls lésés dans l’histoire sont en fait d’une part les artistes (qui ne sont plus payés par les majors), et les clients qu’on oblige à racheter sans arrêt les mêmes oeuvres pour encore avoir le droit de les voir (ou pour qu’on ne leur impose pas un choix limité par matraquage “gratuit” sur un certain nombre de médias distributeurs comme les radios et TV, dont les majors contrôlent totalement le contenu diffusable)
Halte à la croissance disproportionnée des redevances pour le droit à la copie privée. Cette taxe est déjà largement suffisante pour payer ce droit (et uniquement ce droit puisqu’elle n’est pas non plus destinée à payer les droits initiaux sur les copies originales acquises légalement auprès d’un distributeur légal) !
Cette taxe sur le droit à la copie privée est plutôt une INCITATION A LA PARESSE des producteurs, qui perçoivent un maximum sans même avoir à rien créer d’autre et sans prendre aucun risque commercial ou financier. Elle agit plutôt comme un frein à la création ! C’est grace à cette taxe que les majors peuvent maintenant virer les artistes dont ils n’ont plus besoin, et ensuite ne plus les payer ! Elle est de même nature virtuelle que les rentes viagères (gagner de l’argent en dormant).
Mais surtout c’est la répartition de l’argent issu de cette taxe qui est réellement scandaleuse, car cela ne profite qu’à ceux qui en font le moins et en font de moins en moins !
La loi DEVRAIT IMPOSER qu’une part très significative (et même majoritaire) de cette taxe ACTUELLEMENT TROP INJUSTE serve avant tout à financer l’assurance-CHOMAGE et les RETRAITES des ARTISTES (et beaucoup moins pour payer les prétendus “ayant-droits” qui se rémunèrent largement sur des prétendues “oeuvres” qui n’existent PAS dans le support de cette taxe, et sur lesquelles ces ayant-droits n’ont en fait strictement aucun droit puisqu’il s’agit en grande quantité de créations personnelles, ou de données privées des utilisateurs des supports de stockage), ou alors serve à alimenter un réel fond public de soutien à la création (financement de scènes, organisation de spectacles, financement de création de cinéma, entretien de locaux culturels, acquisition d’oeuvres par les médiathèques publiques) !
Orange nous annonçait déjà IPv6 disponible dans 4 ou 5 ans il yu a plus de 10 ans. Avec une expérimentation qui en fait se contentait de créer des tunnels IPv6 sur IPv4 vers quelques serveurs sous-diemensionnés, bref ça n’a jamais marché. Ensuite il a voulu ne proposer qu’une seule adresse IPv6 par abonné, ce qui ne répondait pas au besoin et nécessitait encore d’utiliser du NAT (on le sait, le NAT actuel sur IPv4 pose déjà plein de problèmes dès qu’on a plusieurs utilisateurs pour la même connexion, et c’est le cas dans les familles)
Non, pas de NAT! IPv6 demande réellement que chaque abonné dispose au minimum d’un bloc de 48-bits d’adresses IPv6, pour permettre une installation SANS aucune configuration d’adresse, sans aucun NAT avec un simple mapping des adresses MAC (48-bits) dans le bloc alloué. Sachant aussi qu’on a un nombre d’adresses MAC quasi illimité et qu’il n’est même pas nécessaire de contrôler (en cas de conflit, chaque interface peut se voir allouée une nouvelle adresse MAC aléatoirement et la conserver, le conflit n’aura lieu qu’une seule fois au premier branchement, et en pratique ce conflit n’arrive quasiment jamais nulle part).
Et puis on n’a pas le choix en Asie, IPv6 est maintenant la seule option possible et IPv4 ne marche déjà plus correctement (les abonnés sont derrière des NAT dont les tables débordent partout et où les mappings cessent de fonctionner après quelques minutes, voire quelques secondes). Les FAI chinois qont maintenant obligés de racheter ou louer à prix d’or des sous-blocs d’adresses IPv4 à d’autres sociétés ailleurs dans le monde et ce marché des adresses IPv4 en fait une ressource de plus en plus couteuse, que même les FAI européens ne voudront plus supporter. Ce marché a aussi un impact : le routage IPv4 devient de plus en plus complexe car il est extrèmement fragmenté et trop volatile, les erreurs de routage, et pertes de données augmentent de façon dramatique.
De plus on vient de passer le cap où maintenant le routage natif en IPv6 est plus rapide qu’en IPv4. Il est aussi extrêmement fiable avec peu de pertes. Certes les datagrammes sont un peu plus gros en IPv6, mais cette légère augmentation de taille est sans comparaison avec le gains en débit obtenus et l’augmentation de taille des datagrammes et des fenêtres TCP nécessaires pour les transferts en haut débit.
IPv6 est très efficace et les derniers réfractaires sont ceux qui croient encore (complètement à tord) qu’un NAT est un parefeu qui protège mieux leur réseau privé. IPv6 est aussi natrivement mieux sécurisé qu’IPv4, il supporte nativement l’authentification, sans nécessiter de connexion ou protocole annexe comme IPSec sur IPv4. IPv6 permet une détection bien plus aisée des tentatives d’intrusion. Les besoins en sécurité, confidentialité, authentification sur Internet n’ont jamais été aussi grands. Les besoins en performance aussi. Le NAT n’aura été qu’une solution intérimaire pour prolonger la vie d’IPv4.
Mais nous tous on attend encore depuis plus de 10 ans que les opérateurs nous fournisse une connectivité IPv6 native, sans NAT, avec un bloc large d’au moins 48 bits par abonné (la taille des adresses IPv6 a justement été augmenté à 128-bits et non 64-bits justement pour assurer que tout le monde disposerait d’un bloc d’adresses très large, permettant aussi de résoudre la pénurie du nombre de ports TCP ou UDP, limités à 16 bits, puisqu’une même interface locale peut se voir allouée un sous-bloc d’adresses IPv6: plus besoin alors de PAT non plus !). Plus aucune difficulté pour augmenter le nombre d’objets connectés par foyer, enfin le Plug-‘n-Play partout.
Cela ne veut pas dire qu’on n’a plus besoin de parefeux, mais les parefeux seront aussi bien plus faciles à configurer, et plus besoin non plus d’UPNP pour configurer tant bien que mal les applications pour qu’elles traversent correctement le NAT.
Avec IPv6 natif, plus besoin des verrues ajoutées sur IPv4 comme NAT, PAT, UPNP, et même DHCP, plus de DMZ non plus (limitée à une seule en IPv4). moins de “hops” et temps de ping amélioré sur les backbones Internet et des opérateurs, beaucoup plsu de facilité pour déployer dfes liens de peering dans les datacenters et faire jouer la concurrence des fournisseurs d’accès sans même avoir à reconfigurer tout son parc local : ajouter un autre FAI ou d’autres liens ne nécessitera que de brancher un autre routeur à son réseau local, et il est possible de les associer pour qu’ils puissent travailler ensemble ou servir de liens de secours mutuel, ou de les utiliser différement selon les classes de trafic à véhiculer ou importances de données. On n’est plus lié non plus à un seul opérateur, on peut optimiser aussi les couts (par exemple entre connexion ADSL, fibre ou réseau mobile, selon aussi leur disponibilité et performances ou qualité de service et débits ou volumes de données nécessaires).
QoS est aussi géré nativement sur IPv6 (sur IPv4, il marche mal, le “trafic shaping” est devenu ingérable et même pas laissé configurable par les utilisateurs finaux sur leurs réseaux locaux et appareils connectés, les performances attendues sont en fait très mauvaises, le système connait de fréquentes pannes, et il n’est même pas possible de gérer correctement l’utilisation de la bande passante entre les appareils connectés localement, les routeurs fournis par les FAI sont d’ailleurs pas assez performant pour suivre efficacement les reconfigurations dynamiques nécessaires, les tables de routage interne pour IPv4 débordent sans prévenir au poiçnt qu’on est obligé de redémarrer le routeru tous les jours ou plusieurs fois par jour, et le changement des règles NAT a des effets de bord sur les applications connectées et sur le trafic entrant qui n’est plus routé correctement après le redémarrage mais continue longtemps à polluer la bande passante descendante avec des tonnes de connexions entrantes non routables).
Sur les réseaux mobiles, IPv4 est une catastrophe, il est très peu fiable, en plus de couter cher avec trop de trafic inutile (qui en plus génère des pannes ou surchargent les logiciels des routeurs au point de les faire planter faute de mémoire suffisante).
Vive IPv6. Il coute moins cher. C’est d’ailleurs ce qui aurait déjà du le faire décoller depuis longtemps. Mais on voit que les FAI ont tout fait pour nous faire croire qu’on avait besoin de payer l’internet plus cher (après la période de réduction dramatique des couts d’accès, les prix sont repartis à la hausse, en même temps que les marges commerciales demandées par les opérateurs qui exploitent et abusent leur monopole)
IPv4 est condamné à mourir totalement sur l’Internet, IPv4 restera alors uniquement un protocole pour les réseaux locaux avec tout son espace 32-bit d’adressage devenu privé et une grande facilité d’administration locale, et plsu de facilité pour protéger le réseau local puisqu’il suffira alors de bloquer le trafic IPv4 natif venant d’Internet (ou sinon utiliser un tunnel IPv4 sur IPv6 qui sera soit peu performant soit cher de toute façon pour peu de bénéfices quand le gros des services Internet sera accessible directement en IPv6 natif.
Les opérateurs français ont pris de gros retard ou pas fait les efforts nécessaires. Bientôt la France sera à nouveau à la traine et on en souffrira quand on devrait acheter à prix d’or les solutions déployées massivement par les autres (et notamment les industriels chinois qui investissent massivement dans les technologies IPv6 et déposent des tonnes de brevets pour empêcher d’autres constructeurs de matériels de vendre des produits compatibles à l’avenir avec leurs technologies… Même les industriels américains voient le contrpole leur échapper avec tout ce qui est transféré en Chine; pourtant IPv6 n’a pas été conçu spécifiquement pour et par la Chine). Mais on a assisté à l’immobilisme des FAI en place qui croient encore qu’ils n’ont pas besoin d’investir et peuvent tout contrôler en refusant les évolutions.
Il est grand temps qu’Android évolue en scindant son “noyau” en plusieurs parties. Il y a trop de choses dedans (à commencer déjà par les applis préinstallées non désinstallables, y compris les applis Google comme le Google Play Store ou Youtube, qui buffent la place en permanence dans leur ancienne version, même quand on a installé la nouvelle version en plus).
Même les bibliothèques de service (non strictement nécessaires au démarrage de l’appareil ou les pilotes de périphériques tels que la Cam) devraient être isolés dans des packages TOTALEMENT désinstallables (pour libérer l’espace interne et pour ne plus avoir à les réactiver si on a mis autre chose pour les remplacer).
Même les pilotes de périphériques (y compris les “blobs” propriétaires devraient être remplaçables, il suffirait juste d’un certificat de sécurité pour installer la nouvelle version puis une fois activée et fonctionnelle supprimer totalement l’ancienne).
Et dans la plupart des cas cela ne devrait même pas nécessiter de rebooter le téléphone ou d’installer une nouvelle ROM de base. Je ne comprends pas du tout pourquoi toutes les ROM sont aussi énormes, même débarassées du package additionel des GoogleApps à installer séparément). La ROM doit juste permettre d’énumérer les périhpériques physiques de base, aucun périphérique purement logiciel ne devrait y être (exemple les méthodes de saisie, les listes de certificats préapprouvés, beaucoup trop grosses alors qu’il suffit d’inclure dans la ROM un unique certificat identifiant la version de la ROM ou sa source officielle pour permettre de la mettre à jour avec éventuellement un nouveau certificat, les autres certificats sont téléchargeables ensuite depuis le site du fournisseur, même si la package d’installation en ajoute dès le début dans la zone non protégée)
Mais il semble en fait que les APIs spécifiques Android (hors des API Java classiques) soient uniquement des créations de Google permettant aux applis Google de communiquer librement entre elles en passant outre leur barrière d’isolation, elles sont là non pas comme des barrières mais comme des portes ouvertes. Libstragefright en est un parfait exemple puisqu’elle change silencieusement de contexte de sécurité et passe toutes les données qu’elle veut d’un niveau à l’autre :
Un unique point de contrôle est mis à l’entrée de l’API mais tous les composants utilisés derrière ne vérifient plus rien, ils sont déjà en mode privilégié et Google se passe totalement dans ses APIS d’utiliser les APIs documentées des autres composants, ce qui est une violation du concept de boite noire : il y a trop de passerelles dérobées, ces bibliothèques n’étant pas isolées entre elles, la boite noire est juste superficielle (c’est juste un bout de chiffon noir posé sur un plat de vieilles spaghettis grouillant de vers : on croit voir la fine couche de fromage gratiné, ça sent bon et on plonge la cuillère dedans, on croit se régaler et on finit par une bonne tourista) Le problème est que lors du passage interne d’une bibliothèque à l’autre, on a perdu la trace du contexte de sécurité d’origine (car Google ne respecte pas les consignes de sécurité Java et ne transmet pas les contraintes en créant les contextes appropriés: il passe toute les données en aveugle à la bibliothèque suivante sans même savoir si c’est vraiement elle qui va les traiter et pas une autre encore plus bas et ces canaux internes ne valident pas chaque étape.
Il faut dire aussi que le cas des codecs multimédia (objet de Libstagefright) est à la base un plat de spaghettis avec de trop nombreuses extensions non documentées. Les spécifications d’ailleurs sont largement incomplètes, et les extensions possibles beaucoup trop nombreuses. La notion de “profil” des extensions supportées n’est pas mise en oeuvre du tout alors qu’un profil devrait bloquer tout ce qu’il ne connait pas ou n’implémente pas (ou pas encore) correctement et complètement (pour utiliser les extensions, il faudrait non seulement transmettre les données mais aussi l’identification du profil de sécurité afin que l’extension de plus bas niveau ait de quoi faire des vérifs supplémentaires et valider les droits accordés ou pas.
Et puis il faut en finir avec les trop nombreuses versions d’Android qui ne sont maintenues que par les constructeurs ou vendeurs de réseaux mobiles. On veut un OS unique avec une mise à jour unifiée des composants de base. Les vendeurs peuvent inclure ou pas une bibliothèque option elle, mais s’ils l’incluent cette blibliothèque doit pouvoir être mise à jour séparément depuis leur source réelle et non pas l’assembleur de la ROM.
La ROM critique de base ne devrait même pas avoir de navigateur intégré et ne contenir qu’un jeu simplifié d’algorithmes de sécurité (SHA3, DES, RSA, AES) si possibles supportés par le matériel uniquement pour valider l’image du noyau (uniquement ce qui est nécessaire dans le bootloader), tout le reste au dessus devrait utiliser ses propres algos ou extensions désinstallables, cela ne devrait jamais être permanent dans une ROM même si c’est installé dans des sandbox virtualisées.
J’ai eu toutes les galeres possibles et imaginables chez SFR jusqu’à ce que j’arrive enfin à les quitter (mais plus d’un an de procédure et ça m’a couté cher, au final j’ai tout gagné en justice et me suis fait rembourser tous les frais).
A ce moment là je rejoins Numericable qui s’est s’installé dans mon immeuble. et me propose une offre mobile aussi sur le réseau Bouygues Télécom. Parfait ! Sauf qu’avant de pouvoir l’utiliser ma ligne mobile a été bloquée pendant un an sur le réseau SFR. Ceci fait, enfin mon numéro mobile est porté.
Plus de galere du tout, le réseau Bouygues marche du tonnerre, et partout (pas cette merde de réseau mobile SFR)…. Mais là NC décide de racheter SFR et met fin à son offre mobile sur réseau Bouygues (transition obligatoire).
Et à nouveau la merde sur le réseau mobile avec la nouvelle SIM imposée. SFR n’a pas changé (et c’est même pire qu’avant quand j’y étais). Cela n’ira pas mieux avec NC qui, aprs avoir dépensé ses milliards pour acheter SFR veut les rentabiliser et ne fait rien du tout non plus sur ce réseau (et refuse même de reconnaitre maintenant les engagements pris par SFR auprs de l’ARCEP!) Non au lieu de cela, NC veut encore donner des milliards à Vivendi (qui se frotte les mains) pour racheter les derniers 20% qu’il détient de SFR (Vivendi fait monter les encheres sur ces 20%).
Illico je vais dans une boutique Bouygues Télécom et je prend une SIM “B&You”, je demande le portage. Efficace, facile, moins cher, performant partout. Aucun regret.
En fait tout autour je ne connais que des clients mobiles sur réseau SFR qui galerent sur ce réseau pourri (et qui se dégrade depuis longtemps, car SFR même avant son rachat ne faisait déjà plus rien pour l’entretenir et s’est fait épingler par l’ARCEP concernant ses engagements) : cas de ceux abonnés directement à SFR, ou NC, ou ou tous les autres MVNO sur ce réseau (M6 mobile, Universale Mobile, La Poste mobile, Breizh Mobile, Carrefour mobile, Auchan mobile, Leclerc mobile, les MVNO des banques, ou des équipes de foot de Ligue 1, etc. et bien sur Red de SFR et Virgin Mobile).
Le réseau mobile de SFR est un fourre-tout (la plupart des MVNO sont en fait sur ce réseau… sauf Free qui est sur réseau Orange mais fait techniquement tout pour que cela ne marche pas bien, et TF1 mobile qui est sur réseau Bouygues).
Le mobile de Free est encore pire, il prétend que c’est de la faute d’Orange alors que c’est bien à cause des énormes manquement techniques de Free pour l’interconnexion via le réseau mobile d’Orange que les clients Free ont des problemes, Free n’a pas investi un kopek là où il s’était engagé aupres de l’ARCEP en obtenant ses licences, mais pas plus non plus pour son interconnexion avec le réseau Orange) et pire encore Free ne paye pas ses factures à Orange qui pourtant continue à l’héberger (le ralentissement ne vient pas d’Orange mais bien des passerelles de Free qui raconte absolument n’importe quoi à tout le monde) !
Les abonnés d’Orange n’ont aucun probleme technique de la sorte, pas plus que ceux des quelques autres MVNO utilisant le réseau mobile d’Orange (Sosh inclu), il n’y a que Free qui est responsable de sa couverture mobile pourrie en tant essentiellement que MVNO sur le réseau d’Orange du fait de la mauvaise interaction entre cette interface et celle cherchant à connecter les utilisateurs de Free mobile à son propre réseau d’antennes completement surchargé voire inexistant (Free n’arrête pas de les déconnecter du réseau Orange pour chercher à les connecter à des antennes Free incapables de les gérer tous).
Vous voulez un réseau mobile alternatif qui marche et pas cher: Bouygues. Je ne connais pas grand monde qu’i s’en plaigne (sauf ceux de mauvaise fois qui ont tout fait pour avoir des problemes comme oublier de payer leurs factures). Certes l’offre B&You sans engagement n’existe plus sous cette marque, mais Bouygues propose toujours ce forfait et les conditions de B&You sous sa marque.
Question qualité du réseau, il est imbattable partout (même s’il y a des lieux où le réseau Orange est un peu meilleur, dans quelques points stratégiques limités comme les gares, mais Bouygues est réellement plus universel, de la ville à la campagne et offre la même qualité aussi dans les points stratégiques). Et c’est du vrai 4G, pas ce pseudo 4G, pseudo 3G+ ou pseudo 3G de SFR qui vous coupe sans arrêt et se traine comme une tortue, et ne fonctionne pas du tout en plein d’endroits.
Pendant que NC/SFR joue avec la rentabilité à tres court terme de son réseau mobile pourri (et même pas encore unifié d’ailleurs) et dépense ses milliards en les donnant à Vivendi, il licencie en masse, et ne fait rien du tout sur ses réseaux. Il monte même les prix chez tous ses clients (à qui il fait payer la facture au prétexte d’une prétendue amélioration de son réseau alors que ce réseau se dégrade et voit même sa couverture effective DIMINUER mois apres mois)
Pendant ce temps là, Bouygues utilise ses milliards pour investir sur un réseau fiable, efficace, et le tout sans arnaquer ses clients (et sans non plus monter les prix chez ses abonnés).
En France il n’y a pas 4 ni 3 réseaux mobiles fiables. Il n’y en a que 2 : Bouygues et Orange. Et clairement Bouygues est celui qui a les offres commerciales les meilleures pour les petits budgets (et même pour les gros car Bouygues est bon aussi avec les offres pour entreprises). Si ce n’est pas Bouygues allez chez Sosh (et évoluez si vous voulez sur Orange si vous voulez payer un peu plus).
Fuyez SFR/NC et bannissez Free sur le mobile (NC n’est vraiment bon techniquement que sur son réseau fixe fibre+cable mais il est cher, vous payez pour les chaines TV supplémentaires). Mais on peut aussi s’abonner chez Bouygues en version économique en utilisant le réseau fibre+câble de NC (avec exactement les mêmes débits que chez NC, juste un peu moins de chaines TV secondaires, et une offre VOD maison un peu plus réduite que chez NC, mais on peut en profiter de toute façon aussi par les offres VOD sur le web, en étant abonné cher un opérateur internet ou un autre).
Pas de regret (et contrairement à NC/SFR, Bouygues ne vous dérange pas 2 fois par semaine pour vous convaincre de prendre une nouvelle offre et un nouvel engagement avec ! Avec Bouygues c’est vous qui décidez ce que vous voulez et quand vous le voulez et on ne vous pousse pas à prendre un engagement sous le déguisement d’une prétendue réduction tarifaire ou un avoir qui vous sera “remboursé” dans plusieurs mois sur les factures suivantes). NC enplus est une plaie sur ses surtarifications (que jamais il ne rembourse) ses coupures de service abusives, ses prélevements de facture en double ou en triple, ses “espaces clients” sur le web mal fichus avec 36 mots de passe et identifiants (qu’il vous redemande sans arrêt et entre lesquels on se perd) et sur les conditions commerciales de ses options et réels tarifs (c’est à chaque fois la mauvaise surprise à la facture suivante, quand le télévendeur vous a promis le contraire, car NC ment sans arrêt et pousse même ses centres d’appel à faire des mensonges énormes).
Sinon si vous n’avez pas de câble ou de fibre dans votre immeuble, pour l’internet fixe allez voir chez OVH (c’est pro, pas cher, mais n’espérez pas la télé dessus c’est en revanche un service client impeccable, accessible, qui résoud vos problemes en un rien de temps, plein de services web pratiques et performants), pas cher. Dommage qu’OVH (qui n’a pas de réseau mobile) ne soit pas MVNO sur un réseau mobile Bouygues ou Orange sinon j’aurais pris OVH aussi pour cette offre mobile.
Je mets en doute la croyance selon laquelle aucune faille n’aurait été utilisée. Tout bonnement car l’exploitation de la faille ne laisse aucune trace visible et a pru se faire en faisant exclusivement des utilisations en apparence tout à fait normales, totalement conformes au protocole, le serveur ayant renvoyé seulement plus d’informations que nécessaire, des infos que normalement on peut ignorer selon même les spécifications du protocole.
De fait pendant 2 ans des informations ont fuité sur d’autres utilisateurs que ceux qui effectuaient des requêtes valides. C’est une échelle de temps assez grande pour que d’énormes journaux de transactions aient été constitués et des infos récupérées massivement, assez pour récupérer une grande quantité d’infos personnelles sensées être cryptées et inaccessibles à ceux qui effectuaient ces requêtes en toute bonne foi (ou pas) et à ceux qui les écoutent.
Même si l’info est minime et ne concernait que 1% des données échangées, à l’échelle des 2 tiers du web pendant 2 ans, c’est une fuite gigantesque. Il est trop tard pour l’empêcher, elle a déjà eu lieu et on ne sait pas ce que vont devenir les données collectées au départ innocemment mais qui vont tenter les plus gros escrocs du net et les agences espionnes de tout poil qui seront tentées d’aller espionner à leur insu des millions d’utilisateurs qui ne changeront pas leurs mots de passe.
La fuite en effet reste exploitable même après correction des sites affectés. et il n’y a pas plus ni moins de danger à s’y connecter depuis cette découverte et même après la correction de la vulnérabilité.
La seule parade réelle c’est effectivement de changer les mots de passe dès que la faille est corrigée (mais pas avant car la fuite mémoire est toujours activé et fera fuiter votre nouveaux mot de passe de la même façon que l’ancien, et il est impossible de savoir qui écoute ces fuites).
Déjà depuis quelques ours on voit se développer toute une série de spams et de pages de publicté sur Facebook ou d’autres sites sociaux pour de faux jeux et des fausses promos, avec un lien à suivre qui n’aboutit ensuite à pas gand chose Je suis persuadé que ces liens sont là uniquement pour tenter d’exploiter la faille ne récupérant des données même si les attaques actuelles ne savent pas encore comment les filtrer pour les utiliser. Dans nombre de cas, ces liens ne demandent même rien du tout à l’utilisateur et n’exigent aucun clic: Facebook a beau avoir corrigé sa propre faille, il n’a encore rien fait contre ces pseudo-pages qui aussitôt vous redirigent vers un domaine tiers qui ensuite affiche n’importe quoi ou quelque chose en apparence innocent.
Assez vite on va voir un marché noir d’outils d’analyse de ces fuites pour en exfiltrer les infos sensibles intéressantes.
Déjà des réseaux de diffusion de publicités sont infectés, de même que les réseaux de “syndication” de contenus par ces contenus au comportamment plus qu’étrange. On n’est qu’au début de l’epxloitation de la faille et cela va durer aussi longtemps que les utilisateurs n’auront pas tous modifiés leurs mots de passe sur tous les sites corrigés de la vulnérabilité, et tant que les utilisateurs continueront à utiliser des mots de passe partagés sur plusieurs sites.
Plus que jamais les outils de génération de mot de passe forts et d’archivage dans des coffre-forts locaux seront utiles.
Citons quelques outils qui fonctionnent bien:
Dashlane, KeePass.fr
(Et sans doute les antivirus proposeront par défaut maintenant cet outil devenu indispensable).
9 commentaires
Qualcomm : Snapdragon 845 et partenariats dans le PC avec ASUS, HP, Lenovo et… AMD
05/12/2017
Le 06/12/2017 à 01h 49
Win 10S est c’est vrai limité mais là on vise le marché mobile et pas encore les PC de gamers. Cependant les performances des ARM avancent tellement vite chez Qualcomm que je vois mal pourquoi Qualcomm ne viendrait pas non plus sur les desktops, les stations de travail, les serveurs et les PC gamers. Le marché est déjà là et les titres peuvent aussi être optimisés pour ARM (d’autant plus que c’est moins le CPU que le GPU qui fait tout le boulot et que rien n’interdit de mettre un ARM Qualcomm avec un chipset graphique ATI (le partenraiat avec AMD pourra aider) ou même nVidia (plus souvent utilsié avec les CPU Intel).
Intel aussi se met à faire des processeurs ARM pour ne pas rester en marge du marché des mobiles. Et avec ces augmentations de performances et les APU multicoeurs ou coprocesseurs dédiés aux communications et réseaux de Qualcomm, on peut parier que même le code restant en x86 fonctionnera très bien en émulation sur une machine virtuelle. Couplons à ça les différents moteurs logiciels optimisés (DirectX, OpenGL, WebGL, .Net, J2ME, ECMAScript, Node.js…) on peut sérieusement penser que la plateforme ARM a beaucoup d’avenir et que Microsoft ne pouvait pas passer à côté, et même Apple pourrait lui aussi délaisser maintenant Intel pour voir ce qu’il peut faire sur plateforme ARM.
Ajoutons en plus que de plus en plus de logiciels sont virtualisés et connectés, ce n’est plus un problème d’architecture locale et on a bien assez de puissance quelque soit le jeu d’instruction du CPU (qui en fait de moins en moins!). On n’aura bientôt même plus besoin de développer en code CPU natif, puisque les logiciels seront dans un code binaire intermédiaire qui sera localement compilé en code natif (comme c’est déjà le cas avec .Net, Java, Dalvik VM, ou le code des “kernels” et “shaders” pour GPU, et autres bibliothèques accélératrices pour le calcul comme chez nVidia.
Bref on comparera de moins en moins les performances du CPU mais surtout celles des coprocesseurs qui seront encore plus versatiles qu’aujourd’hui: ce qui fera la différence ce sont les copros pour les codecs (audio, vidéo, compression de données, modems/routage/réseaux, cryptographie, calcul intensif), la prise en charge du parallélisme et la facilité de déploiement avec un nombre variable de copros, y compris via les ressources de calcul à distance, puis ce sera la qualité des affichages (résolution, rafraichissements), la fidélité du son, la connectivité (en terme de capacité de débit utile), et la consommation d’énergie; et du coté logiciel la qualité des pilotes et non plus l’OS (tous les OS se resssemblent beaucoup aujourd’hui), et des compilateurs de code pour le déploiement natif de code virtualisé.
États-Unis : nouvelle suppression de règles liées à la neutralité du Net
24/02/2017
Le 24/02/2017 à 16h 37
Il est à craindre que ce sont en fait les gros opérateurs qui vont protester contre le maintien chez eux de cette obligation, en arguant du fait de coûts de gestion imposés, inutiles et discriminatoire contre eux.
Ensuite toutes les dérives sont possibles pour facturer n’importe quoi, pas seulement le dépassement de forfaits (contre lequel il sera impossible de justifier quelquechose, ou l’usage jugé “abusif” du seul fait qu’un internaute aura visionné des vidéos sur un site plutôt qu’un autre (via des liens de peering qui coûtent plus cher à l’opérateur, c’est ce qui je pense indique une violation de neutralité du net) ou par ce que son trafic est plus déséquilibré vers un autre opérateur de réseau que ceux qui restent dans le réseau préféré de l’opérateur.
Les opérateurs ne voudront pas trop mécontenter leurs clients avec ces dépassements facturés, mais seront alors tentés de modifier des services de base, comme réduire la bande passante (rendant inexploitable certaines vidéos en haute qualité, ou le jeu en ligne), ou voudront imposer l’utilisation d’abonnements à des options supplémentaires en promouvant des outils “accélérateurs” utilisant leur proxies (espions au passage), ou modifier les résultats de recherche pour promouvoir en premier les sites ayant le routage le plus favorable à l’opérateur.
La facturation est un élément clé d’une politique visant à faire changer les “comportements” de leurs habitudes, en ciblant leur porte-monnaie, mais aussi pour encore mieux monétiser leur portefeuille clients (en passant par exemple des accords de partage exclusifs contre rémunération, par exemple dans le ciblage publicitaire, les marges arrières commerciales…)
D’autres frais peuvent ensuite avoir lieu comme la sélection des moyens de paiement (sinon frais supplémentaires de traitement…), l’obligation de faire des avances de trésorerie (qui au passage leur évite de chercher des financements sur les marchés et offrir des rémunérations aux investisseurs ou des parts de capital coté au risque ensuite de se faire croquer par un plus gros ou démantelé et vendu à la découpe par des purs investisseurs n’ayant que faire des sociétés).
Aux USA comme en France aussi la neutralité est compromise quand les abonnements incluent l’obligatio nde souscrire à des tas de chaines quand on n’en veut que certaines, ou payer des suppléments pour changer de box nécessaire à un service (exemple pour pouvoir utiliser Netflixx), pratiquer les facturations en double, facturer des offres décrites comme gratuite (mais ssans mentionner qu’elles étaient très limitées dans le temps et qu’il fallait y renoncer dans un temps très court même bien avant la fin de cette période, l’obligation de périodes de souscriptions minimales excessives, les tarifs à la tête du client), l’utilisation de procédures ultracompliquées ou onéreuses pour renoncer à un service (ce qui provoque alors des retards et donc le maintien des services au delà de ce qui est demandé), les délais de remboursement des surfacturations ou des offres d’appel de remboursement (et uniquement sous forme d’avoir commercial étalé sur une série de factures masi dont on perd le bénéfice si on résilie trop tôt…), l’obligation de fournir des données personnelles non nécessaires à la fourniture du service ni même à sa facturation et son réglement.
Tout est bon: les fournisseurs ne faisant pour l’essentiel que des prestations immatérielles, ils peuvent tout inventer, changer les tarifs quand ils le veulent, imposer ces changements sans prévenir (à charge du client de devoir consulter un site mentionné en tout petit pour savoir ce qui change), et l’impossibilité de s’y opposer (à cause des durées d’“engagement” excessives (même pour l’internet fixe on commence à voir des frais de résiliation, et à la moindre panne du matériel fourni par l’opérateur (même s’il est défaillant dès le premier jour) obliger à payer des frais d’échange, et même si la faute en incombe à l’opérateur, comme des incompatibilités techniques après une mise à jour forcée des firmwares, ou encore le blocage de protocoles (notamment en VoIP), l’utilisation de “DNS menteurs” ou le contournemetn deprocédures d’authentification (par exemple en bloquant la livraison de certificats de sécurité ou leur validation en ligne)
En France le cadre est encore un peu régulé, mais il est de plus en plus orienté en fait par les directives européennes (qui accorde pourtant des tas de passe-droits notamment pour les services hébergés hors de l’UE mais visant pourtant directement les consommateurs européens), ou en tolérant que ces services n’assurent pas en quantité suffisante les dédommagements qui seraient dus aux consommateurs, ou encore en faisant appel à des tas de tiers douteux pour gérer nos données qu’ils disent sécuriser, et en obligeant les clients à acepter des clauses contractuelles qui les excuse de tout (à commencer par le droit de réclamer des dédommagements, ou élargissant très largement la définition des “événements majeurs” dont ils ne sont pas resposables, notamment la faute d’un de leur fournisseur qu’on n’a en fait même pas choisi et qu’ils nous ont imposés sans autre choix possible par des concessions faites excessives), ou encore en imposant pour les recours des appels devant des juridictions étrangères inaccessibles ou chères.
SFR : l’ARPU explose au 2e trimestre, mais les clients s’en vont
09/08/2016
Le 09/08/2016 à 16h 23
SoftBank rachète le britannique ARM pour 31 milliards de dollars
18/07/2016
Le 18/07/2016 à 10h 59
Vu le PER attendu et les engagements pris, je pense que cet investissement est juste là pour faire parler de lui, et faire monter la côte et revendre dans peu de temps…
SoftBank va donc chercher à replacer son bijou chez un gros constructeur. Google, Apple, Intel ne sont pas sur les rangs, mais SoftBank cherche sans doute à revendre le tout à Samsung, HTC, ou Huawei en faisant la culbute en Corée ou en Chine, à moins qu’il songe à Sony pour que ça reste japonais.
Et si ça se trouve, il va faire de la revente en découpe (la R&D de Cambridge passerait chez Orange ou Vodafone, les autres filiales étrangères chez les constructeurs chinois ou coréen, et le gestion des licences ARM dans une filiale qu’il gardera pour lui) !
Note: Intel ne peut sans doute pas acheter ARM, en revanche il peut fabriquer des processeurs ARM sous licence (et ensuite intégrer d’autres composants), et il le fait déjà (il n’est pas imposible d’ailleurs que les prochains processeurs x64 supportent nativement le jeu d’instruction ARM; Intel l’a fait en faisant des échanges de licences avec AMD, nVidia, STMicro, Broadcom)… il y a pléthore de processeurs ARM dérivés chez différents fondeurs chacun avec leurs extensions propriétaires et différentes combinaisons de produits intégrés.
Une fois la licence obtenue, Intel peut très bien choisir l’implémentation et l’architecture interne (les architectures ont souvent changé et continuent de changer pour intégrer de nouvelles technologies de bus, technos réseaux sans fil, technos de gestion d’alimentation, technos de redondance et contournement ou prévention des pannes internes, etc.) Après tout, ARM pour Intel c’est d’abord un jeu d’instruction très populaire dans le monde sans fil et Intel ne peut pas passer à côté de ce marché.
Et vu les dettes colossales de Softbank (que cette acquisition ne va pas éponger), Intel va en profiter pour négocier des licences avantageuses pour ARM. D’ailleurs ce qui fait vivre ARM ce sont les licences, pas la fonte des processeurs car ARM ne fabrique rien. Là est le danger (si Softbank lâche des licences trop avantageuses à tout le monde, il ne restera pas grand chose à vendre chez ARM).
Je ne donne pas cher de la survie de l’alliance Softbank+ARM, ça va vite craquer, Softbank ne résistera pas à la tentation et revendre et faire une culbute pour éponger une partie de sa dette. Mais pour ARM ce sera désastreux (surtout si entre temps Softbank aura négocié des licences avantageuses à Intel, Samsung, Huawei, ou Broadcom voire des transferts de technologies, obligeant ensuite ARM à devoir payer des licences sur ses propres technologies transférées, ou à en réinventer d’autres plus tard, qu’il faudra du temps pour replacer).
A mon avis si une société doit racheter ARM cédé par Softbank, ce sera Broadcom (et là il y aurait moyen d’éviter peut-être la découpe). mais Softbank va vite vouloir rentabiliser son investissement en cédant des licences aux autres fondeurs qui vont le solliciter (Intel, AMD, Texas Instruments, STMicro… et même Apple qui serait tenté de faire une version de processeurs ARM pour ses iPhones et iPad, ou pour d’autres petits objets mobiles connectés comme les iPods, et de rompre avec Intel après avoir déjà compu avec Motorola puis IBM, pourvu que la licence ARM lui coûte moins cher que la licence Intel)
Copie privée : l’extension de la redevance aux magnétoscopes virtuels adoptée en commission
17/03/2016
Le 17/03/2016 à 12h 53
Si l’amendement passe, c’est la fin des espaces de stockage gratuits sur le web (Google Doc, etc.) à moins qu’ils réussissent à financer autrement la taxe demandée par d’autres moyens (publicité imposée, abonnement, ou inclusion du service de stockage cloud au sein d’une autre offre payante…).
Qu’en pensent Google France, Apple France, ou OVH qui vont se retrouver taxés directement par cette loi ?
Qu’en pensent les hébergeurs de solutions cloud pour entreprises (qui souvent ne sont pas fermés uniquement aux seules entreprises, nombre de particuliers ayant des espaces de stockage sur le web et qui louent même espaces pour des serveurs de domaine ou héberger leur service web) ? Ils seront taxés aussi ? Vu le volume de ces hébergements pro (y compris ceux sur serveurs dédiés avec pléthore de Téraoctets) cela peut couter très cher aux entreprises (sans même qu’il soit question de rémunérer le droit à la copie privée car ce n’est pas l’objet de ce stockage, qui est d’abord fait pour mettre des bases de données, des archives de documents, héberger des espaces de travail, des applications connectées ou des espaces de discussion et espaces sociaux). D’ailleurs rien qu’à cause de ça, cela couterait une fortune à Facebook France !
Sinon ces hébergeurs devraient être imaginatifs et mettre en place des “espions” sur les espaces de stockage loués, destinés à vérifier le type de contenu, leur format, leur usage, etc (même si c’est juste pour l’usage privé et pas destiné à être redistribué librement sur le web). Jusqu’à présent on se contentait just de relever le contenu visible sur le web et demander la facture au gestionnaire du site concerné ! Mais alors ces espaces de stockage ne sont plus privés s’ils sont soumis au regard de l’hébergeur qui peut alors facturer des compléments.
Et cela risque en plus de provoquer des double-facturations si l’éditeur du site paye déjà une redevance ou les droits pour les médias qu’il distribue légalement, mais stocke sur son espace de stockage interne).
Rappel: cette taxe est juste destinée à payer le droit à la copie privée des médias numériques. Elle ne paye pas un droit de distribution qui est à part (soumis au droits des licences). Hors rien n’est montré pour dire que l’espace de stockage sur un cloud est juste destiné à la copie privée.
Que faire alors ?
- Taxer uniquement un forfait par client hébergé quel que soit le volume (ou jusqu’à un volume maximum, le reste étant gratuit) ? Ne serait-ce pas alors une discrimination selon les utilisateurs (ceux qui ont le plus gros espace hébergé sur un cloud payent comparativement beaucoup moins que ceux qui ont un petit espace) ?
- Ou taxer uniquement les clients particuliers des hébergeurs (en présupposant que ceux-ci n’ont un cloud QUE pour y stocker des copies de médias soumis au droit d’auteur, alors qu’en fait nombre de clouds ne font que stocker les photos personnnelles de la famille, ou des archives de documents personnels: bancaires, fiscaux, ou bien des sites webs persos pour leur propre activité artisanale voire associative…)
Est-ce que pour continuer à bénéficier de la gratuité du stockage en ligne sur un cloud, on sera tenu de le faire uniquement sur les espaces “partagés” (autrement dit les réseaux sociaux) dont les contenus “publics” sont supervisables depuis le web et soumis aux termes d’utilisation du service qui oblige à respecter le droit d’auteur ou obligé à s’engager d’en être soi-même l’auteur), tout le reste “privé” étant soumis à la redevance même si ce contenu ne relève pas du droit d’auteur de tiers et ne génère aucun profit lié aux licences (puisque ces contenus ne sont pas distribués ailleurs mais sont strictement privés).
Voilà une sale affaire mal engagée. S’adapter aux usages, peut-être, mais ne pas oublier que le cloud utilisé comme espace de copie privé est déjà lié à un espace de stockage privé à domicile (déjà taxé !) et à un accès internet pour accéder à cet espace :
Ne faudrait-il pas alors taxer plutôt l’accès internet lui-même ? Problèmes :
- Et pour quel montant : selon le débit en téléchargement (ADSL ou accès 3G/3G+ moins taxés, que les accès 4G/4G+/5G ou la fibre, aucune taxe pour les mobiles avec uniquement accès 2G ou SMS, ou aucune taxe en dessous d’un palier de volume, mais uniquement à partir de 3Go téléchargés par exemple) ?
- Va-t-on alors vers la fin de l’accès internet fixe illimité en volume, si la taxe sur l’accès internet se met à prendre en compte le volume (puisqu’on ne pourra même pas espionner légalement la nature de ce volume, il se peut que ce soit pour visonner un film regardé légalement en VOD et déjà payé, ou pour regarder des vidéos Youtube, ou pour naviguer sur des cartes ou collections de photos sur le web, ou pour faire de la visioconférence ou de la téléphonie sur Skype) ?
Cette taxe pour payer le droit à la copie privée ne cesse de s’agrandir. On se demande même pourquoi il y a maintenant une telle “crise” chez les producteurs de contenus et pourquoi ils ne payent plus les artistes ou en virent autant alors qu’ils n’ont jamais fait autant de profit avec cette taxe (plus que quand ils revendaient directement des copies d’oeuvres, avec les couts de publicité, fabrication, transport, rémunération des réseaux de vente intermédiaires):
- Si Vivendi est en crise (ou certaines des filiales), il le doit uniquement à sa mauvaise gestion et ses propres couts de fonctionnement (ou les dépenses somptuaires de ses dirigeants, ou de mauvais placements boursiers à risque et une direction générale désastreuse).
Les seuls lésés dans l’histoire sont en fait d’une part les artistes (qui ne sont plus payés par les majors), et les clients qu’on oblige à racheter sans arrêt les mêmes oeuvres pour encore avoir le droit de les voir (ou pour qu’on ne leur impose pas un choix limité par matraquage “gratuit” sur un certain nombre de médias distributeurs comme les radios et TV, dont les majors contrôlent totalement le contenu diffusable)
Halte à la croissance disproportionnée des redevances pour le droit à la copie privée. Cette taxe est déjà largement suffisante pour payer ce droit (et uniquement ce droit puisqu’elle n’est pas non plus destinée à payer les droits initiaux sur les copies originales acquises légalement auprès d’un distributeur légal) !
Cette taxe sur le droit à la copie privée est plutôt une INCITATION A LA PARESSE des producteurs, qui perçoivent un maximum sans même avoir à rien créer d’autre et sans prendre aucun risque commercial ou financier. Elle agit plutôt comme un frein à la création ! C’est grace à cette taxe que les majors peuvent maintenant virer les artistes dont ils n’ont plus besoin, et ensuite ne plus les payer ! Elle est de même nature virtuelle que les rentes viagères (gagner de l’argent en dormant).
Mais surtout c’est la répartition de l’argent issu de cette taxe qui est réellement scandaleuse, car cela ne profite qu’à ceux qui en font le moins et en font de moins en moins !
La loi DEVRAIT IMPOSER qu’une part très significative (et même majoritaire) de cette taxe ACTUELLEMENT TROP INJUSTE serve avant tout à financer l’assurance-CHOMAGE et les RETRAITES des ARTISTES (et beaucoup moins pour payer les prétendus “ayant-droits” qui se rémunèrent largement sur des prétendues “oeuvres” qui n’existent PAS dans le support de cette taxe, et sur lesquelles ces ayant-droits n’ont en fait strictement aucun droit puisqu’il s’agit en grande quantité de créations personnelles, ou de données privées des utilisateurs des supports de stockage), ou alors serve à alimenter un réel fond public de soutien à la création (financement de scènes, organisation de spectacles, financement de création de cinéma, entretien de locaux culturels, acquisition d’oeuvres par les médiathèques publiques) !
IPv6 chez Orange : 100 000 clients concernés avant un déploiement progressif
10/11/2015
Le 10/11/2015 à 15h 28
Orange nous annonçait déjà IPv6 disponible dans 4 ou 5 ans il yu a plus de 10 ans. Avec une expérimentation qui en fait se contentait de créer des tunnels IPv6 sur IPv4 vers quelques serveurs sous-diemensionnés, bref ça n’a jamais marché. Ensuite il a voulu ne proposer qu’une seule adresse IPv6 par abonné, ce qui ne répondait pas au besoin et nécessitait encore d’utiliser du NAT (on le sait, le NAT actuel sur IPv4 pose déjà plein de problèmes dès qu’on a plusieurs utilisateurs pour la même connexion, et c’est le cas dans les familles)
Non, pas de NAT! IPv6 demande réellement que chaque abonné dispose au minimum d’un bloc de 48-bits d’adresses IPv6, pour permettre une installation SANS aucune configuration d’adresse, sans aucun NAT avec un simple mapping des adresses MAC (48-bits) dans le bloc alloué. Sachant aussi qu’on a un nombre d’adresses MAC quasi illimité et qu’il n’est même pas nécessaire de contrôler (en cas de conflit, chaque interface peut se voir allouée une nouvelle adresse MAC aléatoirement et la conserver, le conflit n’aura lieu qu’une seule fois au premier branchement, et en pratique ce conflit n’arrive quasiment jamais nulle part).
Et puis on n’a pas le choix en Asie, IPv6 est maintenant la seule option possible et IPv4 ne marche déjà plus correctement (les abonnés sont derrière des NAT dont les tables débordent partout et où les mappings cessent de fonctionner après quelques minutes, voire quelques secondes). Les FAI chinois qont maintenant obligés de racheter ou louer à prix d’or des sous-blocs d’adresses IPv4 à d’autres sociétés ailleurs dans le monde et ce marché des adresses IPv4 en fait une ressource de plus en plus couteuse, que même les FAI européens ne voudront plus supporter. Ce marché a aussi un impact : le routage IPv4 devient de plus en plus complexe car il est extrèmement fragmenté et trop volatile, les erreurs de routage, et pertes de données augmentent de façon dramatique.
De plus on vient de passer le cap où maintenant le routage natif en IPv6 est plus rapide qu’en IPv4. Il est aussi extrêmement fiable avec peu de pertes. Certes les datagrammes sont un peu plus gros en IPv6, mais cette légère augmentation de taille est sans comparaison avec le gains en débit obtenus et l’augmentation de taille des datagrammes et des fenêtres TCP nécessaires pour les transferts en haut débit.
IPv6 est très efficace et les derniers réfractaires sont ceux qui croient encore (complètement à tord) qu’un NAT est un parefeu qui protège mieux leur réseau privé. IPv6 est aussi natrivement mieux sécurisé qu’IPv4, il supporte nativement l’authentification, sans nécessiter de connexion ou protocole annexe comme IPSec sur IPv4. IPv6 permet une détection bien plus aisée des tentatives d’intrusion. Les besoins en sécurité, confidentialité, authentification sur Internet n’ont jamais été aussi grands. Les besoins en performance aussi. Le NAT n’aura été qu’une solution intérimaire pour prolonger la vie d’IPv4.
Mais nous tous on attend encore depuis plus de 10 ans que les opérateurs nous fournisse une connectivité IPv6 native, sans NAT, avec un bloc large d’au moins 48 bits par abonné (la taille des adresses IPv6 a justement été augmenté à 128-bits et non 64-bits justement pour assurer que tout le monde disposerait d’un bloc d’adresses très large, permettant aussi de résoudre la pénurie du nombre de ports TCP ou UDP, limités à 16 bits, puisqu’une même interface locale peut se voir allouée un sous-bloc d’adresses IPv6: plus besoin alors de PAT non plus !). Plus aucune difficulté pour augmenter le nombre d’objets connectés par foyer, enfin le Plug-‘n-Play partout.
Cela ne veut pas dire qu’on n’a plus besoin de parefeux, mais les parefeux seront aussi bien plus faciles à configurer, et plus besoin non plus d’UPNP pour configurer tant bien que mal les applications pour qu’elles traversent correctement le NAT.
Avec IPv6 natif, plus besoin des verrues ajoutées sur IPv4 comme NAT, PAT, UPNP, et même DHCP, plus de DMZ non plus (limitée à une seule en IPv4). moins de “hops” et temps de ping amélioré sur les backbones Internet et des opérateurs, beaucoup plsu de facilité pour déployer dfes liens de peering dans les datacenters et faire jouer la concurrence des fournisseurs d’accès sans même avoir à reconfigurer tout son parc local : ajouter un autre FAI ou d’autres liens ne nécessitera que de brancher un autre routeur à son réseau local, et il est possible de les associer pour qu’ils puissent travailler ensemble ou servir de liens de secours mutuel, ou de les utiliser différement selon les classes de trafic à véhiculer ou importances de données. On n’est plus lié non plus à un seul opérateur, on peut optimiser aussi les couts (par exemple entre connexion ADSL, fibre ou réseau mobile, selon aussi leur disponibilité et performances ou qualité de service et débits ou volumes de données nécessaires).
QoS est aussi géré nativement sur IPv6 (sur IPv4, il marche mal, le “trafic shaping” est devenu ingérable et même pas laissé configurable par les utilisateurs finaux sur leurs réseaux locaux et appareils connectés, les performances attendues sont en fait très mauvaises, le système connait de fréquentes pannes, et il n’est même pas possible de gérer correctement l’utilisation de la bande passante entre les appareils connectés localement, les routeurs fournis par les FAI sont d’ailleurs pas assez performant pour suivre efficacement les reconfigurations dynamiques nécessaires, les tables de routage interne pour IPv4 débordent sans prévenir au poiçnt qu’on est obligé de redémarrer le routeru tous les jours ou plusieurs fois par jour, et le changement des règles NAT a des effets de bord sur les applications connectées et sur le trafic entrant qui n’est plus routé correctement après le redémarrage mais continue longtemps à polluer la bande passante descendante avec des tonnes de connexions entrantes non routables).
Sur les réseaux mobiles, IPv4 est une catastrophe, il est très peu fiable, en plus de couter cher avec trop de trafic inutile (qui en plus génère des pannes ou surchargent les logiciels des routeurs au point de les faire planter faute de mémoire suffisante).
Vive IPv6. Il coute moins cher. C’est d’ailleurs ce qui aurait déjà du le faire décoller depuis longtemps. Mais on voit que les FAI ont tout fait pour nous faire croire qu’on avait besoin de payer l’internet plus cher (après la période de réduction dramatique des couts d’accès, les prix sont repartis à la hausse, en même temps que les marges commerciales demandées par les opérateurs qui exploitent et abusent leur monopole)
IPv4 est condamné à mourir totalement sur l’Internet, IPv4 restera alors uniquement un protocole pour les réseaux locaux avec tout son espace 32-bit d’adressage devenu privé et une grande facilité d’administration locale, et plsu de facilité pour protéger le réseau local puisqu’il suffira alors de bloquer le trafic IPv4 natif venant d’Internet (ou sinon utiliser un tunnel IPv4 sur IPv6 qui sera soit peu performant soit cher de toute façon pour peu de bénéfices quand le gros des services Internet sera accessible directement en IPv6 natif.
Les opérateurs français ont pris de gros retard ou pas fait les efforts nécessaires. Bientôt la France sera à nouveau à la traine et on en souffrira quand on devrait acheter à prix d’or les solutions déployées massivement par les autres (et notamment les industriels chinois qui investissent massivement dans les technologies IPv6 et déposent des tonnes de brevets pour empêcher d’autres constructeurs de matériels de vendre des produits compatibles à l’avenir avec leurs technologies… Même les industriels américains voient le contrpole leur échapper avec tout ce qui est transféré en Chine; pourtant IPv6 n’a pas été conçu spécifiquement pour et par la Chine). Mais on a assisté à l’immobilisme des FAI en place qui croient encore qu’ils n’ont pas besoin d’investir et peuvent tout contrôler en refusant les évolutions.
Android : une version « 2.0 » de la faille Stagefright, exploitable depuis un navigateur
02/10/2015
Le 06/10/2015 à 15h 36
Il est grand temps qu’Android évolue en scindant son “noyau” en plusieurs parties. Il y a trop de choses dedans (à commencer déjà par les applis préinstallées non désinstallables, y compris les applis Google comme le Google Play Store ou Youtube, qui buffent la place en permanence dans leur ancienne version, même quand on a installé la nouvelle version en plus).
Même les bibliothèques de service (non strictement nécessaires au démarrage de l’appareil ou les pilotes de périphériques tels que la Cam) devraient être isolés dans des packages TOTALEMENT désinstallables (pour libérer l’espace interne et pour ne plus avoir à les réactiver si on a mis autre chose pour les remplacer).
Même les pilotes de périphériques (y compris les “blobs” propriétaires devraient être remplaçables, il suffirait juste d’un certificat de sécurité pour installer la nouvelle version puis une fois activée et fonctionnelle supprimer totalement l’ancienne).
Et dans la plupart des cas cela ne devrait même pas nécessiter de rebooter le téléphone ou d’installer une nouvelle ROM de base. Je ne comprends pas du tout pourquoi toutes les ROM sont aussi énormes, même débarassées du package additionel des GoogleApps à installer séparément). La ROM doit juste permettre d’énumérer les périhpériques physiques de base, aucun périphérique purement logiciel ne devrait y être (exemple les méthodes de saisie, les listes de certificats préapprouvés, beaucoup trop grosses alors qu’il suffit d’inclure dans la ROM un unique certificat identifiant la version de la ROM ou sa source officielle pour permettre de la mettre à jour avec éventuellement un nouveau certificat, les autres certificats sont téléchargeables ensuite depuis le site du fournisseur, même si la package d’installation en ajoute dès le début dans la zone non protégée)
Mais il semble en fait que les APIs spécifiques Android (hors des API Java classiques) soient uniquement des créations de Google permettant aux applis Google de communiquer librement entre elles en passant outre leur barrière d’isolation, elles sont là non pas comme des barrières mais comme des portes ouvertes. Libstragefright en est un parfait exemple puisqu’elle change silencieusement de contexte de sécurité et passe toutes les données qu’elle veut d’un niveau à l’autre :
Un unique point de contrôle est mis à l’entrée de l’API mais tous les composants utilisés derrière ne vérifient plus rien, ils sont déjà en mode privilégié et Google se passe totalement dans ses APIS d’utiliser les APIs documentées des autres composants, ce qui est une violation du concept de boite noire : il y a trop de passerelles dérobées, ces bibliothèques n’étant pas isolées entre elles, la boite noire est juste superficielle (c’est juste un bout de chiffon noir posé sur un plat de vieilles spaghettis grouillant de vers : on croit voir la fine couche de fromage gratiné, ça sent bon et on plonge la cuillère dedans, on croit se régaler et on finit par une bonne tourista) Le problème est que lors du passage interne d’une bibliothèque à l’autre, on a perdu la trace du contexte de sécurité d’origine (car Google ne respecte pas les consignes de sécurité Java et ne transmet pas les contraintes en créant les contextes appropriés: il passe toute les données en aveugle à la bibliothèque suivante sans même savoir si c’est vraiement elle qui va les traiter et pas une autre encore plus bas et ces canaux internes ne valident pas chaque étape.
Il faut dire aussi que le cas des codecs multimédia (objet de Libstagefright) est à la base un plat de spaghettis avec de trop nombreuses extensions non documentées. Les spécifications d’ailleurs sont largement incomplètes, et les extensions possibles beaucoup trop nombreuses. La notion de “profil” des extensions supportées n’est pas mise en oeuvre du tout alors qu’un profil devrait bloquer tout ce qu’il ne connait pas ou n’implémente pas (ou pas encore) correctement et complètement (pour utiliser les extensions, il faudrait non seulement transmettre les données mais aussi l’identification du profil de sécurité afin que l’extension de plus bas niveau ait de quoi faire des vérifs supplémentaires et valider les droits accordés ou pas.
Et puis il faut en finir avec les trop nombreuses versions d’Android qui ne sont maintenues que par les constructeurs ou vendeurs de réseaux mobiles. On veut un OS unique avec une mise à jour unifiée des composants de base. Les vendeurs peuvent inclure ou pas une bibliothèque option elle, mais s’ils l’incluent cette blibliothèque doit pouvoir être mise à jour séparément depuis leur source réelle et non pas l’assembleur de la ROM.
La ROM critique de base ne devrait même pas avoir de navigateur intégré et ne contenir qu’un jeu simplifié d’algorithmes de sécurité (SHA3, DES, RSA, AES) si possibles supportés par le matériel uniquement pour valider l’image du noyau (uniquement ce qui est nécessaire dans le bootloader), tout le reste au dessus devrait utiliser ses propres algos ou extensions désinstallables, cela ne devrait jamais être permanent dans une ROM même si c’est installé dans des sandbox virtualisées.
Numericable-SFR met fin à l’aventure Joe Mobile
31/03/2015
Le 02/04/2015 à 09h 28
Non, tu as encore le choix.
J’ai eu toutes les galeres possibles et imaginables chez SFR jusqu’à ce que j’arrive enfin à les quitter (mais plus d’un an de procédure et ça m’a couté cher, au final j’ai tout gagné en justice et me suis fait rembourser tous les frais).
A ce moment là je rejoins Numericable qui s’est s’installé dans mon immeuble. et me propose une offre mobile aussi sur le réseau Bouygues Télécom. Parfait ! Sauf qu’avant de pouvoir l’utiliser ma ligne mobile a été bloquée pendant un an sur le réseau SFR. Ceci fait, enfin mon numéro mobile est porté.
Plus de galere du tout, le réseau Bouygues marche du tonnerre, et partout (pas cette merde de réseau mobile SFR)…. Mais là NC décide de racheter SFR et met fin à son offre mobile sur réseau Bouygues (transition obligatoire).
Et à nouveau la merde sur le réseau mobile avec la nouvelle SIM imposée. SFR n’a pas changé (et c’est même pire qu’avant quand j’y étais). Cela n’ira pas mieux avec NC qui, aprs avoir dépensé ses milliards pour acheter SFR veut les rentabiliser et ne fait rien du tout non plus sur ce réseau (et refuse même de reconnaitre maintenant les engagements pris par SFR auprs de l’ARCEP!) Non au lieu de cela, NC veut encore donner des milliards à Vivendi (qui se frotte les mains) pour racheter les derniers 20% qu’il détient de SFR (Vivendi fait monter les encheres sur ces 20%).
Illico je vais dans une boutique Bouygues Télécom et je prend une SIM “B&You”, je demande le portage. Efficace, facile, moins cher, performant partout. Aucun regret.
En fait tout autour je ne connais que des clients mobiles sur réseau SFR qui galerent sur ce réseau pourri (et qui se dégrade depuis longtemps, car SFR même avant son rachat ne faisait déjà plus rien pour l’entretenir et s’est fait épingler par l’ARCEP concernant ses engagements) : cas de ceux abonnés directement à SFR, ou NC, ou ou tous les autres MVNO sur ce réseau (M6 mobile, Universale Mobile, La Poste mobile, Breizh Mobile, Carrefour mobile, Auchan mobile, Leclerc mobile, les MVNO des banques, ou des équipes de foot de Ligue 1, etc. et bien sur Red de SFR et Virgin Mobile).
Le réseau mobile de SFR est un fourre-tout (la plupart des MVNO sont en fait sur ce réseau… sauf Free qui est sur réseau Orange mais fait techniquement tout pour que cela ne marche pas bien, et TF1 mobile qui est sur réseau Bouygues).
Le mobile de Free est encore pire, il prétend que c’est de la faute d’Orange alors que c’est bien à cause des énormes manquement techniques de Free pour l’interconnexion via le réseau mobile d’Orange que les clients Free ont des problemes, Free n’a pas investi un kopek là où il s’était engagé aupres de l’ARCEP en obtenant ses licences, mais pas plus non plus pour son interconnexion avec le réseau Orange) et pire encore Free ne paye pas ses factures à Orange qui pourtant continue à l’héberger (le ralentissement ne vient pas d’Orange mais bien des passerelles de Free qui raconte absolument n’importe quoi à tout le monde) !
Les abonnés d’Orange n’ont aucun probleme technique de la sorte, pas plus que ceux des quelques autres MVNO utilisant le réseau mobile d’Orange (Sosh inclu), il n’y a que Free qui est responsable de sa couverture mobile pourrie en tant essentiellement que MVNO sur le réseau d’Orange du fait de la mauvaise interaction entre cette interface et celle cherchant à connecter les utilisateurs de Free mobile à son propre réseau d’antennes completement surchargé voire inexistant (Free n’arrête pas de les déconnecter du réseau Orange pour chercher à les connecter à des antennes Free incapables de les gérer tous).
Vous voulez un réseau mobile alternatif qui marche et pas cher: Bouygues. Je ne connais pas grand monde qu’i s’en plaigne (sauf ceux de mauvaise fois qui ont tout fait pour avoir des problemes comme oublier de payer leurs factures). Certes l’offre B&You sans engagement n’existe plus sous cette marque, mais Bouygues propose toujours ce forfait et les conditions de B&You sous sa marque.
Question qualité du réseau, il est imbattable partout (même s’il y a des lieux où le réseau Orange est un peu meilleur, dans quelques points stratégiques limités comme les gares, mais Bouygues est réellement plus universel, de la ville à la campagne et offre la même qualité aussi dans les points stratégiques). Et c’est du vrai 4G, pas ce pseudo 4G, pseudo 3G+ ou pseudo 3G de SFR qui vous coupe sans arrêt et se traine comme une tortue, et ne fonctionne pas du tout en plein d’endroits.
Pendant que NC/SFR joue avec la rentabilité à tres court terme de son réseau mobile pourri (et même pas encore unifié d’ailleurs) et dépense ses milliards en les donnant à Vivendi, il licencie en masse, et ne fait rien du tout sur ses réseaux. Il monte même les prix chez tous ses clients (à qui il fait payer la facture au prétexte d’une prétendue amélioration de son réseau alors que ce réseau se dégrade et voit même sa couverture effective DIMINUER mois apres mois)
Pendant ce temps là, Bouygues utilise ses milliards pour investir sur un réseau fiable, efficace, et le tout sans arnaquer ses clients (et sans non plus monter les prix chez ses abonnés).
En France il n’y a pas 4 ni 3 réseaux mobiles fiables. Il n’y en a que 2 : Bouygues et Orange. Et clairement Bouygues est celui qui a les offres commerciales les meilleures pour les petits budgets (et même pour les gros car Bouygues est bon aussi avec les offres pour entreprises). Si ce n’est pas Bouygues allez chez Sosh (et évoluez si vous voulez sur Orange si vous voulez payer un peu plus).
Fuyez SFR/NC et bannissez Free sur le mobile (NC n’est vraiment bon techniquement que sur son réseau fixe fibre+cable mais il est cher, vous payez pour les chaines TV supplémentaires). Mais on peut aussi s’abonner chez Bouygues en version économique en utilisant le réseau fibre+câble de NC (avec exactement les mêmes débits que chez NC, juste un peu moins de chaines TV secondaires, et une offre VOD maison un peu plus réduite que chez NC, mais on peut en profiter de toute façon aussi par les offres VOD sur le web, en étant abonné cher un opérateur internet ou un autre).
Pas de regret (et contrairement à NC/SFR, Bouygues ne vous dérange pas 2 fois par semaine pour vous convaincre de prendre une nouvelle offre et un nouvel engagement avec ! Avec Bouygues c’est vous qui décidez ce que vous voulez et quand vous le voulez et on ne vous pousse pas à prendre un engagement sous le déguisement d’une prétendue réduction tarifaire ou un avoir qui vous sera “remboursé” dans plusieurs mois sur les factures suivantes). NC enplus est une plaie sur ses surtarifications (que jamais il ne rembourse) ses coupures de service abusives, ses prélevements de facture en double ou en triple, ses “espaces clients” sur le web mal fichus avec 36 mots de passe et identifiants (qu’il vous redemande sans arrêt et entre lesquels on se perd) et sur les conditions commerciales de ses options et réels tarifs (c’est à chaque fois la mauvaise surprise à la facture suivante, quand le télévendeur vous a promis le contraire, car NC ment sans arrêt et pousse même ses centres d’appel à faire des mensonges énormes).
Sinon si vous n’avez pas de câble ou de fibre dans votre immeuble, pour l’internet fixe allez voir chez OVH (c’est pro, pas cher, mais n’espérez pas la télé dessus c’est en revanche un service client impeccable, accessible, qui résoud vos problemes en un rien de temps, plein de services web pratiques et performants), pas cher. Dommage qu’OVH (qui n’a pas de réseau mobile) ne soit pas MVNO sur un réseau mobile Bouygues ou Orange sinon j’aurais pris OVH aussi pour cette offre mobile.
OpenSSL : la faille Heartbleed menace la sécurité du web, des sites ferment
08/04/2014
Le 12/04/2014 à 06h 47
@lol2dol:
Je mets en doute la croyance selon laquelle aucune faille n’aurait été utilisée. Tout bonnement car l’exploitation de la faille ne laisse aucune trace visible et a pru se faire en faisant exclusivement des utilisations en apparence tout à fait normales, totalement conformes au protocole, le serveur ayant renvoyé seulement plus d’informations que nécessaire, des infos que normalement on peut ignorer selon même les spécifications du protocole.
De fait pendant 2 ans des informations ont fuité sur d’autres utilisateurs que ceux qui effectuaient des requêtes valides. C’est une échelle de temps assez grande pour que d’énormes journaux de transactions aient été constitués et des infos récupérées massivement, assez pour récupérer une grande quantité d’infos personnelles sensées être cryptées et inaccessibles à ceux qui effectuaient ces requêtes en toute bonne foi (ou pas) et à ceux qui les écoutent.
Même si l’info est minime et ne concernait que 1% des données échangées, à l’échelle des 2 tiers du web pendant 2 ans, c’est une fuite gigantesque. Il est trop tard pour l’empêcher, elle a déjà eu lieu et on ne sait pas ce que vont devenir les données collectées au départ innocemment mais qui vont tenter les plus gros escrocs du net et les agences espionnes de tout poil qui seront tentées d’aller espionner à leur insu des millions d’utilisateurs qui ne changeront pas leurs mots de passe.
La fuite en effet reste exploitable même après correction des sites affectés. et il n’y a pas plus ni moins de danger à s’y connecter depuis cette découverte et même après la correction de la vulnérabilité.
La seule parade réelle c’est effectivement de changer les mots de passe dès que la faille est corrigée (mais pas avant car la fuite mémoire est toujours activé et fera fuiter votre nouveaux mot de passe de la même façon que l’ancien, et il est impossible de savoir qui écoute ces fuites).
Déjà depuis quelques ours on voit se développer toute une série de spams et de pages de publicté sur Facebook ou d’autres sites sociaux pour de faux jeux et des fausses promos, avec un lien à suivre qui n’aboutit ensuite à pas gand chose Je suis persuadé que ces liens sont là uniquement pour tenter d’exploiter la faille ne récupérant des données même si les attaques actuelles ne savent pas encore comment les filtrer pour les utiliser. Dans nombre de cas, ces liens ne demandent même rien du tout à l’utilisateur et n’exigent aucun clic: Facebook a beau avoir corrigé sa propre faille, il n’a encore rien fait contre ces pseudo-pages qui aussitôt vous redirigent vers un domaine tiers qui ensuite affiche n’importe quoi ou quelque chose en apparence innocent.
Assez vite on va voir un marché noir d’outils d’analyse de ces fuites pour en exfiltrer les infos sensibles intéressantes.
Déjà des réseaux de diffusion de publicités sont infectés, de même que les réseaux de “syndication” de contenus par ces contenus au comportamment plus qu’étrange. On n’est qu’au début de l’epxloitation de la faille et cela va durer aussi longtemps que les utilisateurs n’auront pas tous modifiés leurs mots de passe sur tous les sites corrigés de la vulnérabilité, et tant que les utilisateurs continueront à utiliser des mots de passe partagés sur plusieurs sites.
Plus que jamais les outils de génération de mot de passe forts et d’archivage dans des coffre-forts locaux seront utiles.
Citons quelques outils qui fonctionnent bien:
Dashlane, KeePass.fr
(Et sans doute les antivirus proposeront par défaut maintenant cet outil devenu indispensable).