votre avatar

kankan_01

est avec nous depuis le 28 novembre 2010 ❤️

22 commentaires

Le 03/10/2017 à 11h 00

J’ai pas l’impression d’avoir reçu le brief du jour dans le flux RSS complet (alors que c’était le cas hier). Ça a été retiré ? Il y a un moyen de le retrouver dans le flux complet ?

 

(Le flux complet en offline, c’est quand-même bien plus pratique dans le métro, sans réseau fiable)

Le 07/10/2015 à 14h 34

Oui et non… Les choix techniques sont aussi derrière les limitations. L’upload asthmatique en FTTLA est dû en partie à des limitations techniques (il faut ajouter des porteuses pour ajouter de la capa, donc plus d’équipements). Pareil pour la latence, et pour les débits moindre d’une manière générale. le GPON a certaines de ces limites (capacité d’upload sur l’arbre divisé par 2 par rapport au down), mais c’est largement moindre.



  Et surtout, les capacités ont le temps d’évoluer en FTTH (le GPON déployé actuellement par Orange c’est 2.5G/1.25G par arbre, on parle déjà de 10GPOn pour 10G par arbre, et ça ne fait que commencer), qu’en FTTLA on va arriver au bout de ce qu’il est possible de faire physiquement dans des conditions raisonnable (100M de câble pour du giga ? Ça veut dire un équipement actif en pied d’immeuble, pour chaque immeuble, c’est ce qui est fait actuellement, mais on ne peut pas aller plus loin. Quand on en arrivera à devoir mettre de la fibre à chaque palier, autant faire les derniers mètres en fibre aussi. Ça vaut aussi pour le VDSL et la montée en débit : en labo, on arrive aussi à faire des gros débits sur cuivre, mais avec des lignes tellement courtes et tellement parfaites que ça ne sera jamais utilisable sur le terrain).



 Oui, le câble et le VDSL c’est mieux que rien. Non, on ne va pas cracher dessus quand on n’a pas le choix (la preuve, j’y suis abonné), et non, le grand public ne sent pas une différence énorme pour le moment*. Sauf que les écarts vont se creuser, car le câble est une techno en fin de vie, qui ne tiendra pas sur le long terme (3040 ans), contrairement au FTTH. D’où l’importance du déploiement FTTH, et mon énervement quand on me dit “oui, c’est bien suffisant”.



 * (en même temps, les usages actuels sont limités par le débit moyen

actuels… On ne conçoit pas une application qui a besoin de 15Mbps

symétriques quand la moyenne des débits du pays est à 5Mbps/1Mbps)

Le 07/10/2015 à 12h 48

Alors me troller sur le peering, c’est assez mal me connaitre. Globalement il n’y a pas un seul opérateur grand public correct (Orange ne peer plus, Free on n’en parle même pas…). Numéricâble peere mais a des choix bizarre de politique de routage (passage du trafic par des liens de transit “lointains” (aka à Lyon) plutôt que par le peering parisien pour du trafic Paris vers Paris), ce qui en pratique en diminue franchement l’intérêt (et j’ai franchement du mal à en voir le sens, à part “les petits opérateurs on s’en fout de savoir si on peut les joindre correctement”).

 

Sur le ping, je suis à 15ms chez NC pour joindre le premier routeur, loin des 1/2ms que j’ai  eu sur de la fibre (pas sur du grand-public hein). Même mon ADSL Free fait mieux (8ms en fastpath), c’est dire.

 

Le câble à un upload ridicule. Oui, 5Mbps c’est ridicule pour du soit-disant THD, et je pèse mes mots. Et oui, j’ai besoin d’un upload décent (À une époque, quand le câble était encore en 301 chez moi, j’avais même envisagé une SDSL chez OVH avec leur offre SDSL “grand-public” pour avoir plus que le méga de l’ADSL).

 Sans compter que les 100Mbps en descente, je ne les atteint  jamais (mais à la limite c’est moins grave ça). Le câble, c’est un médium partagé, il ne faut pas l’oublier (on me souffle que le GPON aussi, mais les débits disponibles étant bien plus élevés, en pratique ils le sont aussi plus malgré le partage)



Dernier point, je suis régulièrement déconnecté. Perte des porteuses câble, probablement car elles sont parasitées. Tous les 2 mois, j’ai 2 bonnes journées pendant lesquelles ma connexion est inutilisable. Et j’en connais d’autre dans ce cas (j’ai en tête une personne qui avait un débit pourri et des déconnexions en ADSL, qui s’est retrouvé avec les mêmes en câble). En FTTH, on n’est pas sensible à ces perturbations électromagnétiques, donc la connexion est bien plus stable en pratique.

 

Le 02/10/2015 à 18h 34

Visiblement, tu as la chance d’être en FTTH.



&nbsp;Dans cette tranche, on retrouve surtout du FTTLA (du bon vieux câble légèrement modernisé) et du VDSL, dont les débits, la latence et la stabilité n’ont rien à voir avec du FTTH&nbsp; (quoi qu’en dise Patrick Drahi<img data-src=" />), mais ne&nbsp; nécessitent que des investissements beaucoup plus légers, et qui utilisent des infras en fin de vie.



&nbsp;Quand les lignes de 30-100Mbps ont étés intégrées au calcul, ça a permis de masquer un peu dans les chiffres européens le retard considérable que l’on a sur le déploiement du FTTH, la seule infra viable et pérenne sur le long terme.

Le 07/10/2015 à 13h 55

C’est plus les best-practises que le protocole, exactement comme pour le mail qui passe très facilement en spam en cas de non-respect de certaines best-practises. Ceci-dit, il avait de “bonnes” raisons de le faire.

Le 07/10/2015 à 12h 14

Pour ceux qui disaient qu’il n’y a pas de faux positifs, en voici un premier :

http://www.mail-archive.com/frnog@frnog.org/msg35153.html

&nbsp;(je n’ai pas lu tout le fil de discussion,&nbsp; je viens de tomber dessus juste après avoir lu l’article)

&nbsp;

&nbsp;Alors oui c’est un “cas marginal”, mais combien d’autres “cas marginaux” vont exister ?

Le 01/10/2015 à 22h 46

Alors… contrairement à ce que tu affirme, j’ai lu la news. Et ça ne me parait pas clair du tout. Parce que Premium != abonné (oui, c’est pénible le double tarif hein ? Faut expliquer les différence à tout le monde). Or les abonnés non plus n’ont pas de pub. Du coup, je demande des précisions…

Le 01/10/2015 à 12h 38

Et du coup, pour les abonnés classiques, qui ne voient pas la pub non plus (ni les traqueurs, en décochant la case adéquate) ? Pourtant, ils n’ont pas l’air d’y avoir droit (je viens de tester).

Le 21/01/2015 à 18h 23

Des VPN qui aboutissent sur les serveurs dédiés. J’ai déjà vu ça (et utilisé d’ailleurs) sur des coins de Renater où Steam était filtré (cela explique également le débit moyen élevé).



La probabilité que ce soit ça est assez élevé, le réseau télécom d’OVH est isolé du reste (depuis qu’un incident sur les réseaux d’accès télécom avait fait crasher en série les routeurs du réseau principal d’OVH ce qui avait provoqué La disparition du réseau d’OVH d’Internet (coupure des annonces BGP)), mais que ce dernier comprends ADSL, VDSL et SDSL sans moyen simple de les discerner depuis l’extérieur.

Le 10/12/2014 à 23h 03

StartSSL permet normalement de signer en SHA1 ou SHA256. Et les certificats intermédiaires existent en deux versions, signés en SHA1 ou SHA256.



&nbsp;Il y a donc moyen d’avoir des signatures complètes en SHA256 avec StartSSL. C’est ce que j’ai sur mon serveur perso…

Le 10/03/2014 à 14h 04

Je tenterai de l’installer ce soir.



La M3 sur mon Nexus S m’a bien déçu, par rapport à la précédente version : lenteurs voir freezes réguliers du téléphone (un reboot par jour est nécessaire pour garder un téléphone utilisable), micro-pertes régulière du wifi, tendance à tester en EDGE ou en GPRS alors que la 3G est dispo…



Si ça ne marche pas mieux, tans pis, je downgraderai sur CM 10.2 et j’y resterai, mais ça serait un peu dommage.

Le 06/01/2014 à 13h 47







flagos_ a écrit :



Pour moi, Hangout vient avec les applis Google, mais tu peux encore utiliser l’ancienne appli sms malgré tout. tu es juste invité à l’utiliser lorsque tu te mets a chatter.





OK. Du coup, vu que je ne veux pas l’installer, je n’en verrai jamais la couleur :)







flagos_ a écrit :



Sinon oui sur Nexus S, ca change carrément la vie. Kitkat tient vraiment sur 512 de ram. La seule lenteur constatée, c’est lorsqu’on revient sur le bureau, ya une petite attente mais rien d’insurmontable. Et ca me parait pas irrémédiable, style obliger l’OS a garder le bureau en ram, un truc dans le genre.



C’est franchement pas mal pour un téléphone sorti il y a 3 ans, 512 de ram, et single CPU 1GHz.





OK, c’est bien ça :) Si Android peut revenir à quelque chose de confortable sur les 384 Mo de RAM utilisables, je testerai pour voir.



Ceci-dit, mon passage récent de la rom stock a un CM 10.2 a déjà donné une seconde jeunesse à mon téléphone. Après, je ne saurai pas dire si c’est dû à CM, à JB 4.3 qui est plus optimisé que la 4.1, ou si c’est juste dû au ménage fait par le factory reset…


Le 06/01/2014 à 12h 07

Est-ce que les options pour retirer des permissions ont étés gardées, vu que la fonction App Ops a été retirée d’Android par Google ?



Est-ce que l’application SMS est toujours l’ancienne, où est-ce qu’ils ont tout intégré avec Hangout (alors qu’il n’est pas fourni par défaut) ?









flagos_ a écrit :



En tous cas, je sais pas sur d’autres appareils (si vous avez des retours ca m’interesse), mais sur Nexus S, ce Kitkat et cette CM11 font des miracles ! On sent vraiment que l’OS a été bien optimisé et ca fait plaisir.







Il y a vraiment une différence importante ? Car pour le moment, je le trouve toujours relativement fluide comme téléphone, mis à part l’écriture sur la flash très lente (250 ko/s, il y a besoin d’un bon TRIM je pense) et le manque de RAM qui m’oblige à recharger sans arrêt des applis/pages/onglets dès qu’il y a plusieurs applications qui tournent. Deux points que je ne vois pas comment résoudre magiquement en changeant de version…


Le 02/01/2014 à 22h 01







essa a écrit :



(le plus gros jeu doit faire 4-5Go sur steam)





Perdu…

The Secret World fait 20Go sur Steam (sans compter les mises à jour à faire via le lancher du jeu ensuite)… En pratique, ça fait 2h de téléchargement sur ma connexion câble, et près de 30h sur la ligne ADSL de 4 km de mes parents (qui ont théoriquement 4Mbps, en pratique ça oscille entre 2 et 3,5), donc un débit bien plus représentatif de ce qu’il y a en France.

Autant dire que les 50 Go de Blueray, même pas en rêve…


Le 18/12/2013 à 20h 52







sum0 a écrit :



Pour la fibre, qu’Orange se dépêche de fibrer mon quartier à Bourg en Bresse, vu qu’Orange a cherché des noises au SIEA qui était en train de fibrer Bourg en Bresse et ses environs.







Hors sujet mais ça en est où cette histoire ? Le SIEA a abandonné le déploiement de Bourg-En-Bresse et des alentours pour le laisser à Orange ?

Et quels quartiers Orange a/va déployer à court terme ?



J’espère juste que ça ne va pas trop faire souffrir les petits villages à côté, qu’Orange à déclarer vouloir fibrer, et qui eux risquent de rester longtemps en ADSL si le SIEA n’y vient pas… ADSL qui avait déjà mis une éternité à être déployé à l’époque.


Le 14/12/2013 à 00h 14







matroska a écrit :



Belle prouesse en tout cas, à voir dans les prochains mois avec le nombre d’utilisateurs qui va grandement croître.







Oui, c’est surtout ça qui sera intéressant… Je me souviens des premières semaines de Free Mobile, avec un débit impeccable en itinérance (plusieurs Mb/s atteints sans problèmes) puis de la dégradation progressive qui s’en est suivi en région parisienne, suivant l’augmentation de la charge du réseau…


Le 07/11/2013 à 13h 09







brazomyna a écrit :



Pour donner un repère,



la consommation moyenne d’un ménage français tourne autour de 15Go de données par mois … pour l’accès résidentiel fixe.



Avec plus de 20go on est au delà du besoin moyen actuel fixe + mobile pour un foyer complet.





J’aimerai également savoir d’où vient ce chiffre (qui n’est pas du tout représentatif de mon usage visiblement).

Rien qu’en téléchargeant un jeu sur Steam l’autre jour, j’ai “consommé” 21Go en une heure (merci le câble).


Le 25/09/2013 à 13h 28







ptitbiscuit a écrit :



J’ai encore un peu de mal à comprendre pourquoi Valve, Notch & co sont si remontés envers le store Windows 8… Il est sénsé devenir obligatoire ou quelque chose comme ça ?

Qu’est ce qui les empêche de livrer leurs jeux comme ils le font depuis 10 ans ?





Le fait qu’un store centralisé c’est plus pratique pour les utilisateurs, qui vont donc s’y tourner en priorité sur le long terme (on a vu ça avec Android, quel pourcentage d’utilisateurs ont utilisé un “store” alternatifs, où même juste installé un APK externe ?)

.

De plus, il y a une crainte (légitime) que Microsoft fasse du store un passage obligé, fermant le modèle à la manière d’iOS (il l’est déjà sur WP et sur Windows RT).



Bref, ils se sont rendus compte qu’être dépendant d’un unique éditeur et de sa politique, c’est un gros risque, et ils sont décidé de se diversifier (si ce n’était déjà fait <img data-src=" /> ).


Le 31/07/2013 à 18h 33







5h31k a écrit :



Sauf que Sony/M$ sont tres fort pour acheter des dev/editeurs pour faire du console exclusive (Last Of Us, MGS, Bayonetta) sans compter tous les J-RPGs qui ne sortiront jamais sur PC

Resultat si tu veux etre un gamer heteroclite, tu dois quasi avoir toutes les consoles + un PC





Les nouvelles générations de console étant des x86, ces “soucis” seront vite oublier j’espère.







Pas forcément, surtout qu’un certain nombre d’exclusivités sont commerciales.

Mais ça facilitera clairement l’émulation :)







TidiusFF a écrit :



Dans le pire des cas, Nintendo ne sortira plus que des jeux 3DS / consoles portables qui cartonnent a mort, faut pas l’oublier. Sega n’avait vraiment plus rien, eux.





Ne pas oublier que Sega a aussi subi 2 échecs consécutifs : la Saturn et la Dreamcast, ce qui fait une période noire de presque 10 ans. Or, en plus des consoles portables (qui cartonnent, même face aux smartphones), Nintendo sort d’une excellente période avec sa Wii.


Le 15/07/2013 à 14h 04







Stargateur a écrit :



alors je suis pas un pro de linux loin de là mais est-ce la même règle dans la console avec && ?







Le “&&” est interprété par le shell (bash chez moi), et permet de chainer des commandes. Il s’arrête si le retour d’une commande indique une erreur (qui ne se termine pas par EXIT_SUCESS, aka 0 dans 99.9% des cas). Donc non, ce n’est pas spécifique au script, et non, ne pas utiliser des codes retour “standards” dans ses programmes peut amener à des surprises.

Pour chainer sans tenir compte des codes de retour, il y a “;”.



Autre contexte (plus spécifique) où les codes de retour sont standardisés : les plugins Nagios (un programme de monitoring, pour vérifier si une machine se porte bien. Le code retour des plugins doivent-être en fonction du niveau de criticité du problème détecté, par exemple : 0 = OK, 1 = Warning, 2 = Critical, etc).



Sinon, dans un code, il vaut mieux utiliser la constante EXIT_SUCCESS à la place de 0 pour la portabilité.


Le 15/07/2013 à 13h 44







Stargateur a écrit :



bof c’est celui qui fait le programme qui choisit c’est pas vraiment une règle c’est juste des constances du préprocesseurs proposer par défaut dans une biblio mais pas du tout obligatoire du moment que tu met un nombre entier qui rentre dans un int de la machine.







Non : le code de retour du main() est important : il est utilisé pour savoir si le programme s’est exécuté correctement ou s’il s’est terminé à al suite d’une erreur (et laquelle si le nombre retourné est différent à chaque fois).

C’est notamment utilisé dans les scripts shells (un code de retour différent de zéro empêche la commande suivante d’être exécutée si elles sont enchainée par && par exemple).



Par convention, sur les UNIX-Like, 0 = tout s’est bien passé, et n’importe quoi d’autre = erreur.


Le 01/06/2013 à 12h 32







David_L a écrit :



Disons que le point de vue est développé depuis un moment ici, mais je ne répète pas tout à chaque fois. L’email n’est pas sécurisé, il est mal géré (comme montré ici), il est encore souvent utilisé de manière naze (POP est ton ami, peu de bons clients, souvent incomplets…), on est bourrés de spam, aucun échange n’est signé… Ouais, l’email c’est une plaie.





Il y a des outils standards pour ça, qui existent depuis longtemps :





  • Pour la sécurité (ça dépend ce que tu entends par “sécurité”, il y a OpenPGP (authenticité, confidentialité), malheureusement peu/pas utilisé. Et pour authentifier le nom de domaine, DKIM (après, le gestionnaire du domaine se démerde pour authentifier ses utilisateurs sur ses serveurs d’envoi).

    Sinon, avec TLS, on apporte “un peu” de sécurité aux échanges, pour pe qu’il soit utilisé de bout en bout (ce qui est impossible à maitriser)

  • Mal géré : ça dépend par qui. Je connais à peu près autant d’usage de mail que de personnes connectées à Internet. Vu que ça permet plein de choses, on ne peut pas simplement créer un autre outil qui remplacerai tout ces usages…

    Pour le classement “à la GMail”, un alias par site, comprenant ton username + une catégorie + le nom du site et c’est réglé (par exemple kankan-forums-pci@, puis un filtre générique sur la catégorie, et des filtres plus spécifiques en cas de besoin (genre séparer différentes mailing lists au hasard). C’est ce que je suis en train de mettre en place chez moi pour virer les multiples filtres spécifiques, et ça permet au moins de maitriser son filtrage.











    David_L a écrit :



    C’est malheureux à dire, mais Facebook Messenger est grosso modo l’e-mail tel qu’il devrait être en usage basique (seuls les amis peuvent nous écrire en direct, on sait qui envoie le mail, etc.), mais ça ne propose pas de grosses fonctionnalités puisque ça reste minoritaire comme usage en volume… et puis ça reste un service Facebook, pas un protocole standard.





    Le comportement du “seul les amis peuvent écrire en direct” est très facile à reproduire avec du mail et un seul filtre : seuls ceux étant dans notre liste de contacts vont en inbox, le reste est déplacé dans un dossier “bordel”. Mais ça ne correspond qu’à un type d’usage, et ça ne conviendrait pas du tout en entreprise, ou même à un usage massif (mailing lists diverses et variées).







    David_L a écrit :



    Mais il faudrait globalement que la façon dont fonctionne le mail à la base soit entièrement revue pour qu’on évite de dépendre des bidouilles des clients qui ne font que tenter de corriger de manière un peu bidouillée un problème de fond.





    C’est bien là que je ne suis pas d’accord : ça détruirait les multiples usages et la souplesse d’utilisation au profit d’une truc bien plus rigide (et non maitrisé par l’utilisateur).







    A33 a écrit :



    Certains veulent révolutionner le Mail en le cryptant par défaut, en utilisant le P2P, et rendant le spam difficile





    Le mail est déjà acentré : tu n’est pas obligé d’utiliser les “gros” serveurs de messagerie, monter le sien et tout maitriser de bout en bout c’est pas très dur :)





    Et vous, pour gérer correctement vos e-mails, quelle est votre solution ? N’hésitez pas à nous en faire part au sein de nos commentaires.





    Noms de domaines perso avec des dizaines d’alias (un par site, créé en 30s chrono), Procmail pour le filtrage sur le serveur (règles spécifiques puis génériques via les “catégories”), IMAP avec Thunderbird sur mes PCs fixes, KMail sur Android ou Roundcube en webmail quand je n’ai (vraiment) pas le choix (quand je ne suis pas chez moi par exemple)