votre avatar

brazomyna

est avec nous depuis le 7 octobre 2011 ❤️

7015 commentaires

Le 05/10/2013 à 08h 40







Soriatane a écrit :



Les spécialistes y travaillent:

http://www.bortzmeyer.org/qos-ou-qoe.html

http://www.bortzmeyer.org/6349.html

http://www.bortzmeyer.org/2330.html





Le premier lien détaille exactement les problématiques entourant la notion de métrique.

Les autres se concentrent sur la métrique de la QoS d’une liaison (en TCP), qui est effectivement un aspect du problème, mais qui ne règle rien en soit. Comme l’explique le premier lien, cette liaison n’est que la métrique d’un cas particulier (ie. qualifier la “qualité” du lien entre tel point et tel autre point).



Sauf que le cas particulier ne peut définir une QoS globale. Les contre-exemples abondentt:





  • L’exemle récent bien parlant est justement le cas de Free qui s’amusait vraisemblablement à prioriser le trafic qui était destiné à speedtest



  • Youtube (souvent aux seules heures de pointes),



  • les cas d’abonnés en plein bouchons chaque soir dans telle région de la France, parce que (pour cette zone en particulier et pour ce FAI en particulier), le lien vers le réseau national est trop faiblard et commence à saturer.



  • Orange+Cogent+MegaUpload



  • etc…


Le 05/10/2013 à 06h 20







TheRealBix a écrit :



On a (j’ai) été habitué à voir de faux chiffres sur la majorité des pubs ou présentations de produits.





Meuh non, tu fais erreur.



Quand un constructeur affiche une consommation pour sa voiture, c’est ce que peut constater le client moyen sur un trajet quotidien.



Quand tel matos électronique est annoncé pour x heures d’autonomie, c’est bien connu que ça correspond parfaitement à la réalité in situ.



Quand Intel ou NVidia annoncent des performances “multipliées par z avec notre nouvelle génération de zinzin”, c’est toujours parfaitement pondéré et réaliste.



Même chose pour les promesses de la crème anti-ride de P-A ou la nouvelle cure WeightWatchers de David.





Bref, tout le monde du marketing est vraiment super respectueux des chiffres annoncés. Il y avait vraiment que les FAI qui faisaient n’importe quoi, ce qui choque évidemment l’opinion publique qui se snt d’autant plus flouée qu’elle n’est pas coutumière.f de ces pratiques.



Je comprends donc la fixette de l’ARCEP et le dossier de PCI là dessus.



M’enfin bon j’espère bien que nos ministres veillent au grain. Une ptite loi spécifique (et une taxe tant qu’on y est ?) devraient bientôt régler tout ça.


Le 04/10/2013 à 21h 09







lsPCI a écrit :



Plus sérieusement, indiquer des débits moyens et médians réalistes (pas plus de 20% d’écart avec les débits constatés) serait déjà moins foutage de gueule.





pour qui, dans quelles conditions, à quelle heure, á partir de quel échantillon, avec quel terminal, depuis quelle région, vers quelle destination ?



C’est bien beau de vouloir du ‘réaliste’, mais dans de tels réseaux de type ‘best effort’, où chaque élément (de la qualité et du dimensionnement global du backbone de l’opérateur jusqu’au derrnier lien entre le réseau et le terminal de l’abonné, voir même sa config software ) peut complètement influer sur les résultats, vouloir établir une métrique est quasiment un non sens par définition.


Le 04/10/2013 à 15h 48

Pour ce qui concerne les problématiques de billets plus ou moins explicitement sponsorisés, un bloggeur se distinguait de façon assez rigolote, c’est un certain Pierre Ouziel, qui rédigeait le “blogdepierre”.



Un pur amateur qui faisait ça à titre désintéressé (et le revendiquait ouvertement). Il refusait toute forme d’ambiguïté et de mélange des genres amateur / rémunéré. Il refusait la moindre pub sur son blog, gueulait à moitié contre ceux qui “vendaient leur âme pour trois copecs”, etc…



Le mec était cadre (sup), commercial dans la restauration à la base, à priori souvent sur la route et acheteur compulsif d’à peu près tout ce qui sortait en PDA/smartphone/baladeur de musique. Du coup, il faisait des tests réguliers des trucs qu’ils achetait (*)



Surtout, au dela de ses tests (qui plaisaient ou pas, il ne prétendait pas être objectif, juste relater son opinion toute personnelle), ce qui était assez instructif, c’est qu’il prenait un malin plaisir à relater la façon dont certaines marques essayaient de lui “proposer du matos gratos pour qu’il en fasse un billet”.



C’était à ma connaissance un des rares endroits où on pouvait justement voir relaté l’envers du décor, et la façon dont les petits blogs amateurs qui font 1000, 2000, 3000 visiteurs/jour sont finalement facilement ‘corruptibles’ par les marques avec un matos prêté ( = donné) à 500-500 euros de temps en temps.



Ca faisait un peu réfléchir, car on se dit que finalement, les petits blogs amateur son peut-être finalement ceux qui sont encore moins dignes de “confiance”. A contrario, avoir un “bloggeur pro” sera peut-être finalement plus difficile à “corrompre” parce que le prix à payer ne sera pas du même ordre.









fabcool a écrit :



dans la même époque il y avait techcrunch qui était pas mal aussi, mais qui est bien descendu…





PS: fabcool … fabcool … ce pseudo me rappelle quelques petites choses de feu le temps de Windows Mobile et de mon PDA toshiba ;-)





(*) Il a à plusieurs reprises stoppé son blog “définitivement” … pour le reprendre quelques mois plus tard. C’est ce qui s’est passé en octobre 2012 et pas de nouvelles depuis.

Sauf hier: j’ai eu la surprise de voir un billet de ‘come back’ hier soir sur son domaine d’antan, mais ça semble avoir disparu à nouveau depuis.


Le 04/10/2013 à 11h 58







Faith a écrit :



C’est pourtant évident… La dangerosité d’une onde est directement liée au nombre d’octets qui transitent grâce à celle-ci ! <img data-src=" />





Attention quand même, c’est pas aussi simple. C’est comme à la chasse, il y a les bon octets et les mauvais octets. <img data-src=" />



On rigole, mais la réalité est triste en fait: si tu regardes de plus près la réthorique des Robins des Toits, on est en plein dedans.



Les Robins (et pas qu’eux) ont leur notion d’onde “pulsée” pour enfoncer le clou. L’emploi du terme “pulsée” laisse penser au gogo adepte du FUD qu’elle est encore pire puisqu’elle paraît encore moins naturelle, comme gonflée artificiellement. Et donc forcément plus dangereuse encore.



Donc non ce ne sont pas des gentilles ondes. Ah ben non, dans ce cas là ma bonne dame, croyez-nous, on est en face de super méchantes ondes.



Bien entendu, il n’y a aucune base scientifique là dedans qui résisterait aux connaissances d’un étudiant lambda en fac de physique (hormis le fait que c’est basé sur la notion d’impulsion, donc un signal qui n’est pas continu). Mais après tout peu importe, ce n’est pas le public manifestement visé par ce groupuscule.





Le 04/10/2013 à 11h 20







orno a écrit :



Vrai, j ai exemple à la clé :

http://www.tomshardware.fr/articles/smartphone-cancer-telephone-OMS-CIRC,1-40031…





Non, les fait sont têtus: l’OMS a juste catégorisé le phénomène comme quelque chose qui devrait demander plus de recherche.

La catégorie choisie par l’OMS amène les ondes au même niveau de dangerosité potentielle que … le café.



Tout est dans l’article que tu as toi même mis en lien.





Plein de gens comme tu dis dont je fais parti, je sais de quoi je parle moi, contrairement à toi quoi affirme le contraire qui pourtant, n as pas d antennes relais en face de chez toi.



S’il y avait réellement “Pleins de gens” on aurait des études simples à mettre en oeuvre et peu coûteuse pour démontrer la relation.



Force est de constater qu’il n’y en a pas.







Donc tu parle d’un sujet dont tu connais rien



J’ai un diplôme d’ingé télécom en poche. Et toi ?





Toi t es le genre qui devait surement nié que l amiante était un poison



Toi t’es sûrement le genre qui aurait cru qu’au delà de 25km/h dans un train, le corps humain allait exploser, comme ce fut le cas au moment de l’apparition du train.



ou encore:



L’apparition du chemin de fer, et donc de la vitesse, sonne le glas de la poste aux chevaux (…) Le chemin de fer suscite de vives inquiétudes pour la santé des passagers. Le savant François Arago affirme que « le transport des soldats en wagon les efféminerait » ; il met en garde la population contre le tunnel de Saint-Cloud, qui donnerait « des fluxions de poitrine, des pleurésies et des catarrhes ».



source







tant qu il n y a pas eu d études scientifiques, et l’interdiction derrière, un scandal sanitaire ça s évite avant ce soit trop tard….



Et donc tu milites aussi pour l’interdiction du café puisque t’es cohérent avec toi-même.





Robin des toits est une association et contrairement au lobby des telecom, elle na ni les moyens financiers, ni le pouvoir de pression qu’exerce les opérateurs sur les médias ( ex Tf1 appartient a bouygues), et bien sur sur les politiques.



Encore un manque flagrant d’argument tangibles.

D’autant que la mise en oeuvre d’études pour prouver à minima un lien de cause à effet ne demande justement pas de gros moyens financiers.





La numération de la formule sanguine est un méthode incontestable que tout un chacun peut effectuer pour ma part nous l avons tester comme je l ai dis plus haut ta pas du lire.



Faux. C’est tout sauf incontestable. Il y a des milliers de facteurs qui pourraient constituer un biais.





Le pouvoir du lobby, l’argent encore et toujours tu semble bien naif



Le naïf c’est celui qui base sa réflexion sur des croyances et des théories fumeuse, pas celui qui réclame des faits scientifiques.





Tu parles d allégations, mais tu en fais



Justement non, il n’y a que toi ici pour supposer des relations de causes à effet sans le moindre début de preuve, pour supposer des collusions, des lobbys, etc.



Moi je ne fais que demander des preuves.





tu travaille peut être chez un opérateur ceci expliquerai cela.



Ta logique est encore une fois complètement ridicule: tu veux que je croie tes allégations et dans le même temps tu veux que j’accepte que tu remettes en cause ma probité.



[quote]avec la 4g, la population sera encore + impacté par ce poison[quote]

Vas-y, explique-moi scientifiquement en quoi les ondes 4G auraient la moindre chance d’être plus nocives que les autres. Qu’on rigole un peu.



Encore une théorie fumeuse basée sur du vent.


Le 03/10/2013 à 15h 14







orno a écrit :



Il existe des études comme l oms qui affirme que ça donne le cancer les ondes





Faux.





ma famille et moi même souffront de divers troubles, maux de têtes, vertiges, fatigue permanente entre qui à terme conduise au cancer ( leucemie, tumeur au cerveau).

Après avoir effectuer des prises de sang les leucocytes baisse bien et remonte lorsque nous allons endroit non exposés par les antennes relais.



On entend plein de personnes qui relatent ce genre de cas. Pas une seule étude dont la démarche aurait été validée scientifiquement n’a jamais vu le jour. Je répète: PAS UNE SEULE. On a des gens comme Robins des Toits qui devraient pourtant se jeter sur ce genre de cas et s’empresser de les utiliser pour monter des études scientifiquement incontestables pour faire éclater (leur) vérité à la face du monde.



Pourtant, bizarrement, pas une seule étude de ce type n’a jamais vu le jour.



Pas un seul test avec une méthode incontestable (typiquement en double aveugle) n’a été capable de démontrer des notions comme l’életrosensibilité alors que des dizaiens de milliers de personnes déclarent en être victime à un point tel que ça en devient totalement handicapant pour leur vie de tous les jours. Je répète: PAS UN SEUL test n’a été concluant.



Etrange quand même que des maux aussi répandus selon les dires de certains soit aussi peu enclins à se laisser étudier.



Au final on a quoi: quelques milliers de personnes qui viennent nous promettre mordicus qu’ils sont affectés, tout comme on a quelques dizaines de milliers de personnes persuadées qu’ils ont rencontré Dieu, les extra terrestres ou je ne sais quoi.



Bref, ce genre d’allégation ne tient pas deux minutes face aux faits objectifs. La seule chose qui reste en l’absence de démarche scientifique un tant soit peu sérieuse est le quantitatif sur la foi desdites déclarations. Et à ce jeu, la probabilité que des extra terrestres soient parmi nous est plus probable que la dangerosité des ondes.



Le 04/10/2013 à 10h 53







frikakwa a écrit :



Effectivement on peut taper ou dire “ok maps “et cela permettra la sauvegarde. Mais tu peux aussi plus simplement cliquer dans la zone de recherche et tout en bas du menu déroulant, apparaîtra “rendre carte disponible hors ligne”! <img data-src=" />





pour être exhaustif: l’entrée dans le menu déroulant a été ajoutée après coup. pas dans la version 7.0 mais dans une version mineure qui a suivi.


Le 04/10/2013 à 10h 50







Kikilancelot a écrit :



Sur un écran de télé ça se comprend (format cinéma toussa²) mais pour le reste c’est totalement inutile comme ratio (et pas que sur une tablette).





La tablette n’est pas équivalente à un ordi pour au moins deux raisons:



1- une des utilisations typique d’une tablette est de mater de la vidéo avec un format 169 ultra dominant



2- une tablette se pivote facilement. on passe du mode paysage au mode portrait sans effort. et dans ce cadre, avoir deux possibilités radicalement distinctes (grande largeur ou grande hauteur) qu’on peut choisir à l’envi en fonction du besoin est un atout.



Le 04/10/2013 à 09h 53







indyiv a écrit :



sans doute … mais comme les concurrents proposent le GPS au même prix …

le choix du consommateur sera vite fait …





Ou pas.



La décision du consommateur fait intervenir de nombreux facteurs ; la fiche technique n’est qu’une partie des paramètres qui rentre en ligne de compte. Et le cas d’une fonctionnalité dont ils n’auraient pas besoin ne pèse clairement pas très lourd.



Le simple fait que ce soit une tablette disponible dans certaines chaines de magasins physiques un peu partout en France est sans aucun doute un argument bien plus parlant pour le grand public que la présence d’un GPS qu’ils n’utiliseront pas pour la grande majorité d’entre eux.



Le 04/10/2013 à 09h 46

La procédure depuis la version 7:



1- Saisir “ok maps” directement dans le champ de recherche,



2- Appuyer sur le bouton de recherche (ou sur le bouton entrer du clavier).   





OU ALORS (depuis une update postérieure à la 7.00)




1- Afficher la zone du plan que vous souhaitez utiliser hors connexion.   

2- Appuyer sur le champ de recherche, et faire défiler les suggestions de recherche jusqu’en bas. Sélectionner “rendre zone du plan dispo hors connex”.





Il convient de soulever un grief concernant ce mode hors connexion. En effet, plus vous enregistrez la carte de haut, moins la carte sera précise en zoomant. Ainsi, n’hésitez pas à faire plusieurs enregistrements de la carte par quartiers, plutôt qu’un plan global.



si vous ne vous connectez pas sur internet avec votre appareil durant 14 jours, vos plans hors connexions seront supprimés.





source

Le 04/10/2013 à 09h 40







DorianMonnier a écrit :



Ah ok, c’est bon à savoir ! Donc aucun moyen de faire une navigation hors ligne. <img data-src=" />







Je pense (mais j’ai pas testé) qu’on peut faire le calcul du trajet en ligne juste avant de partir. Et si on garde bien ouvert l’appli ensuite, il doit pouvoir continuer à nous guider sans avoir besoin d’être en ligne tout le long du trajet.



Mais une chose est sûre: à partir du moment où tu quittes l’appli, c’est foutu: il faudra obligatoirement revenir en ligne pour faire quelque chose.


Le 04/10/2013 à 09h 30







DorianMonnier a écrit :



Le téléchargement des cartes fonctionne plutôt pas mal, pratique quand tu passes à l’étranger vu le prix du data…





D’une part l’option a été à moitié planquée dans la dernière version du soft. Si on ne se renseigne pas spécialement sur le net pour trouver la procédure à suivre, c’est à peu près impossible de savoir qu’on peut le faire. De mémoire, la proxédure c’est de taper un mot clef aLaCon dans le champ de destination.



D’autre part, la carte devient alors dispo en offline mais PAS la navigation elle-même avec le cacul du trajet qui ne peut se faire qu’online.



Je me suis fait avoir il y a pas plus tard que deux semaines.


Le 04/10/2013 à 08h 41







indyiv a écrit :



avec absence de GPS sur les 8 et 9”7 … no comment …





Il y a eu une étude toute récente qui montrait que l’usage ultra majoritaire d’une tablette, c’était à la maison.

Dans ce cadre, l’absence de GPS tien quasiment du gadget.







june a écrit :



C’est quand même vachement mieux que 16:9 ou 16:10 pour la navigation web…





Je trouve au contraire que le 16/(9-10) est bien mieux pour une tablette. Ca permet d’avoir:




  • deux utilisations bien distinctes en fonction des activités et des besoins (beaucoup de hauteur ou beaucoup de largeur)

  • un format proche du format des films qui est dans mon cas une des utilisations principales.


Le 04/10/2013 à 08h 25

archos fait +5% ce matin.



La coïncidence heureuse, je venais d’en acheter hier soir sans savoir qu’ils étaient prêts à annoncer de nouveaux modèles. <img data-src=" />









DUNplus a écrit :



j’ai l’impression de voir des tablette chinoise mais avec un prix français.<img data-src=" />





Ils produisent (comme tous les autres) en Asie. Leur force c’est leur implantation sur le marché français et leur capacité à décrocher des contrats auprès de grandes chaînes de distribution.


Le 03/10/2013 à 14h 16







jinge a écrit :



:( je m’attendais en voyant le titre à ce que ça cause d’intel qui intègrerait des solutions du concurrent européen du GPS :/





<img data-src=" />





euh … pareil <img data-src=" />


Le 03/10/2013 à 13h 22







Thald’ a écrit :



ton premier point fais un peu “On a les parents qu’on mérite”. Si il n’est pas dans la culture ou habitudes de tes parents et même de ton cadre social de lire ou d’aller au musée etc …, ils n’ont que l’école de la république, qui fait du mieux qu’elle peu avec les moyens qu’elle a.





Il y a évidemment une part de chance dans le foyer dans lequel on atterrit quand on naît. (mais au passage si on relativise un peu, cette chance apparaît comme très secondaire quand tu compares déjà à la chance de naître dans un pays aussi favorable à l’éducation).



Ceci dit, je ne suis pas d’accord avec le fait que “ah ben les parents ils ont pas eu l’habitude d’aller au musée alors c’est normal qu’ils reproduisent ça sur leurs gamins.”. L’école de la république que tu mentionnes justement, elle n’arrête pas de leur rappeler ce genre de bases. La république n’arrêt pas de mettre à disposition les moyens pour rendre cet accès à la culture totalement indépendant du niveau social (bibliothèque municipale, musées gratuits, …). S’ils ne le reproduisent pas, ça relève du libre arbitre, pas de la malchance ou de l’impossibilité de le faire.





Et pour le second, ça reste des privilégiés.



Ou juste des gens qui se sont donnés les moyens de leur ambition de ne pas travailler que pour ramener un salaire à la fin du mois.



Par exemple, il y a quantité de petits boulots dans l’artisanat qui demandent relativement peu de formation, relativement peu d’investissement initial pour monter sa boite, et qui permettent de se créer son propre job, être son propre patron, savoir pourquoi on travaille, comment on travaille, etc…


Le 03/10/2013 à 13h 09







Thald’ a écrit :



http://static.generation-quoi.france2.fr/medias/datas/question_2.1.jpg?bc56f451d…

Source :http://www.inegalites.fr/spip.php?article904&id_mot=123

Source :http://www.insee.fr/fr/themes/document.asp?ref_id=ip1372





Premier point: En France au moins, il n’y a strictement aucune barrière pour un enfant issu d’une catégorie sociale “inférieure” d’accéder aux plus hautes études et métiers les plus prestigieux.



C’est surtout l’environnement et l’éducation que les parents construisent pour leur enfant qui détermine les possibilités du rejeton.

Par exemple, inculquer à un gamin une certaine curiosité dans la lecture ou dans d’autres activités épanouissantes et enrichissantes plutôt que le laisser trainer devant le Big Deal est tout autant accessible au couple d’ouvriers que de cadres sup’.



Ca n’empêche pas que statistiquement, il y a une plus forte proportion de couples de cadres qui le feront. Mais ça ne veut pas dire que chacun n’a pas les mêmes possibilités de faire ces choix là.



En l’occurrence, tu confonds agrégation statistique et déterminisme.





Deuxième point: il n’y a pas que les boulots les plus “prestigieux” auxquels on accède en faisant les plus hautes études qui sont source d’épanouissement au quotidien.

Je peux sans problème te présenter masse de petit artisans ou de petits commerçants qui ont la “foi” dans leur activité et qui s’y épanouissent pleinement, tout comme je côtoie un bon paquet de cadres supérieurs stressés, prisonniers de leur propre vision de ce que doit être la réussite, qui ne savent finalement même plus pourquoi ils se lèvent le matin.


Le 03/10/2013 à 11h 48







uzak a écrit :



Encore faut-il avoir eu un minimum de choix dans son boulot…





Oui, enfin le choix dans son boulot ne tombe pas du ciel non plus.

C’est (pas toujours mais) souvent largement déterminé par ce qu’on récolte d’un investissement antérieur.



Mais je m’égare (encore).


Le 03/10/2013 à 10h 50







Thald’ a écrit :



Avoir un peu de plaisir dans sa vie quotidienne. Mais quelle idée de merde.





Le boulot et le plaisir ne sont pas antinomiques.



Concevoir le travail comme une seule source de revenus et jamais de plaisir et d’épanouissement personnel est quelque peu réducteur.



M’enfin je m’égare.


Le 03/10/2013 à 10h 30







Charly32 a écrit :



Bon pour le moment, à part pour un voyage en Russie, le Glonass va pas te servir à grand chose (la constellation de satellite est incomplète) <img data-src=" />





Gros malin: en 2011, Glonass couvrait déjà tout la surface du globe.



Mais toi qui n’en a pas doit mieux savoir à quel point ça ne marche pas en Europe comparé à quelqu’un qui en a un. <img data-src=" />


Le 03/10/2013 à 08h 44







AngeIus a écrit :



Ou au contraire, si comme tu le dis il y a si peu de personnes qui consommeraient de la data, pourquoi n”y a t’il pas encore de data illimité sans faire use ? Le coût ne serait pas si élevé…





parce que faire une offre comme celle là c’est l’assurance de se retrouver avec la totalité des ulta gros consommateurs qui opteraient pour, et donc coûteraient très cher, pendant que les clients ‘normaux’ eux n’y verraient pas d’avantage significatif et ne se jetteraient pas plus que ça dessus.





cf le précédent d’aol en 2001 qui a été le premier à proposer une offre internet rtc illimitée avec les communications comprises pour un prix raisonnable. Mal leur en a pris, tous les geeks qui restaient connectés h24 se sont rués sur l’offre alors que la consommation moyenne du grand public dépassait pas une dizaine d’heure par mois. Résultat: ils ont pris le bouillon.


Le 03/10/2013 à 08h 00







Cara62 a écrit :



PS 2 : Me tape pas brazomyna





<img data-src=" />


Le 03/10/2013 à 07h 46







Soltek a écrit :



les autres ne font strictement rien de plus avec le leur.





Mon S3 a une résolution qui dépasse la taille typique de la largeur d’un site web (1000 pixels), ce qui transforme largement l’expérience en matière de surf.



Mon S3 a un puce GPS + Glonass. L’expérience utilisateur en matière de guidage n’a plus grand chose à voir. J’arrive même à avoir un fix en intérieur dans une pièce sans fenêtre tellement ça reçoit bien.



etc…



Bref: que l’apport ne te change pas la vie et que tu considères que l’upgrade ne vaut pas le coup dans ton cas est une chose. Que tu décrètes que ton petit sentiment personnel est un fait objectif, universel et doit s’imposer à tout le monde en est une autre.





Le 03/10/2013 à 07h 12







G33K-V2 a écrit :



Le prix ne baissera sans doute pas, donc il ne lui reste donc que la data illimitée. (c’est à peu près le seul service manquant aujourd’hui en téléphonie)





De la data supplémentaire n’intéresse (au moins pour le moment) qu’une frange infime de la clientèle, celle de technophiles avertis qui consomment énormément. Ceux-là sont au courant des dernières offres de chaque opérateur, veulent choisir le téléphone qu’ils ont élu après la lecture de 20 comparatifs, etc…



Ca ne cadre absolument pas avec le public qui achète des forfaits “téléphone compris”, qui est au contraire typiquement une clientèle d’utilisateur lambda. Ceux-là même qui utilisent pas ou peu de data et qu’une offre avec 0.5 ou 1GB contente déjà amplement.



Donc rajouter de la data dans un forfait dédié à un public qui n’en a ni le besoin ni l’envie, ce serait être complètement rater sa cible.


Le 03/10/2013 à 11h 18







2show7 a écrit :



Cela voudrait dire aussi et en partie, plus de marque page ?





<img data-src=" />


Le 03/10/2013 à 10h 47







ouais a écrit :



Le XPS 15 est pas mal mais W8 franchement… D’ailleurs est-il possible de faire un downgrade vers 7 avec ce type de machine?





Il me semble qu’à partir du moment où c’est un laptop (et pas un truc sous WinRT et compagnie), le BIOS doit obligatoirement inclure la possibilité de désactiver tout ce qui a trait au SecureBoot, à savoir LE truc qui fait ch* pour mettre un autre OS que le Win8 fourni avec la machine.


Le 03/10/2013 à 08h 04







metaphore54 a écrit :



Tu as le même avec le baytrail pour comparer ?







Non. Justement, je cherchais un truc approchant. <img data-src=" />



Bon après, c’est un ordre d’idée totalement partiel: par exemple en terme de consommation (donc d’autonomie), etc… les deux n’ont pas grand chose à voir.



Bref, je ne suis pas en train de chercher à faire l’apologie du C2D. Juste dire que dans le seul cadre du “je veux sortir des vieux Atom tellement pourris (environ 500 aux même benchs) qu’on ne peut rien faire comme à la maison avec”, le P8400 est suffisant à mon goût et m’a permis de franchir le pas là où j’ai toujours refusé de prendre un netbook pour cette même raison.



Le 03/10/2013 à 07h 53







j-dub a écrit :



Et c’est pas trop light actuellement un Core 2 duo T2300 avec 1 Go de Ram ? Pareil pour le P8400 avec 2Go de Ram ? Genre pour des sites “touffus” comme dis plus haut.





Pour le T2300 je sais pas, mais pour le P8400, associé à un ancien SSD qu’il me restait dans un carton, ça n’a strictement rien à envier à une machine récente pour le surf et les tâches courantes, y compris pour du développement.





Du coup ça vaut peut être plus le coup de se prendre un core i5 maintenant et de le garder quelques années non ? Ça se trouve dans les 500€ je pense



C’est mieux, c’est sûr. Mais c’est aussi deux fois et demi le prix. Dit autrement, à coût égal, c’est de quoi renouveler ton portable 2.5x plus fréquemment.



Surtout: c’est pas parce que ça s’appelle Core i3 que le saut en perf est forcément énorme comparé à un C2D. Exemple (succint et qui ne compare pas tout, mais):





Le 03/10/2013 à 07h 20







Jed08 a écrit :



un Dell sous Ubuntu ça existe !





<img data-src=" />

<img data-src=" />


Le 03/10/2013 à 07h 19







Para-doxe a écrit :



Je regrette la bonne époque des Netbooks sous GNU/Linux. <img data-src=" />





Ca dépend des besoins, mais les netbooks étaient à la cave dès qu’on sollicitait à peine le CPU, le rendant limite utilisable pour autre chose que du word ou du site web à papa sans trop d’HTML5. Tu ouvrais un IDE, le netbook explosait en vol.



Perso, pour mes quelques besoins en mobilité (comprendre ‘laptop du week-end’) j’ai opté pour du Thinkpad d’occasion reconditionné. C’est un poil plus gros (on est plus sur du 12 pouces que du 9-10 pouces), mais le reste n’a rien à voir en terme de confort: on parle de Core 2 duo, d’écran WXGA, de possibilité d’intégrer un vrai SSD dedans, etc…



Pour 175€, t’as un X200, et pour 140€ t’as un X60. Le tout avec 6 mois de garantie. Pour quelques euros de plus tu peux passer à 12 mois de garantie ou avoir une dock station avec.



Et la qualité générale d’un thinkpad (robustesse notamment), même avec un peu de bouteille, n’a pas grand grand chose à voir avec un netbook à 200€.


Le 02/10/2013 à 19h 56







ianaridim a écrit :



j’ai pas hate de devoir demonter tout ça ! :(





Pour avoir démonté un Asus zenbook UX52-VS, j’étais extrêmement (agréablement) surpris: 8 vis torx pour le capot et on avait ensuite accès à absolument tout. Même la batterie est en fait super simplement remplaçable en enlevant juste une vis un fois le capot ouvert.



En comparaison, mon actuel Dell XPS 15 (L501x) est une merde sans nom où il faut dé-clipser le repose main (avec l’assurance de le tordre et le risque de flinguer un clip à chaque fois) pour accéder par exemple au disque dur. Nettoyer les ventilos est de l’ordre du défi impossible, etc…



Ca me fait penser que les à-priori du genre “ultrabook = indémontable” ne sont pas forcément fondés, il vaut mieux voir au cas par cas.



Une seule chose est certaine: quand on veut l’assurance d’un ordi type ‘lego’, les Thinkpad sont imbattables.





Le 02/10/2013 à 18h 15

Tiens, un xps15 qui correspond pile poil à ce que je cherche pour remplacer mon … xps15 (pas de gpu dédié, un très bon écran, un cpu moyen de gamme mais qui ne consomme rien et ne chauffe pas).



Reste à voir sa capacité à aimer les ptits pingouins.

Le 02/10/2013 à 14h 27







Faith a écrit :



incapable de demi-mesure, toujours dans l’excès et le délire de persécution.





+1

Comme dit précédemment:





brazomyna a écrit :



A force d’éxagérer, on en perd le sens de la pondération.





Le 02/10/2013 à 07h 24







Faith a écrit :



Le RSA n’est pas le sujet.





Ben si. Que ça mette en l’air ton affirmation d’avant, c’est un fait, mais ça ne te donne pas le droit de l’écarter pour autant.



La différence fondamentale entre ce que propose les Rosebeef et les contrats aidés c’est que dans le premier cas il ne permet que de continuer à recevoir ses indemnités chômages ; dans l’autre cas c’est un emploi qui te fait gagner un vrai salaire.



Une paille.







Faith a écrit :



Le STO, mon grand-père y a eu le droit… Et ça n’a absolument rien à voir ! C’est un truc de démago délirant de comparer ça à un travail obligatoire.





+1


Le 01/10/2013 à 20h 45







Deep_INpact a écrit :



“les chômeurs de longue durée devront consacrer 30 heures par semaine à des travaux d’intérêt général comme ramasser les poubelles dans la rue, cuisiner pour les personnes âgées ou travailler dans une organisation caritative…ceux qui échoueront à remplir ces conditions seront privés de leur allocation pendant quatre semaines à la première infraction, trois mois dès la seconde”



Ce n’est pas du STO au sens strict, mais ce n’est pas tellement mieux !







Si tu ne vois pas la différence, moi je la vois.





Le service du travail obligatoire (STO) fut, durant l’occupation de la France par l’Allemagne nazie, la réquisition et le transfert contre leur gré vers l’Allemagne de centaines de milliers de travailleurs français, afin de participer à l’effort de guerre allemand que les revers militaires contraignaient à être sans cesse grandissant (usines, agriculture, chemins de fer, etc.). Les personnes réquisitionnées dans le cadre du STO étaient hébergées dans des camps de travailleurs situés sur le sol allemand.

(…)

La réquisition forcée d’ouvriers, gardés par des gendarmes jusqu’à leur embarquement en train, suscite de nombreuses réactions hostiles.

(…)

Certaines victimes furent prises dans des rafles de la Milice et de la Wehrmacht. Le PPF de Jacques Doriot mit quant à lui sur pied, en 1944, des Groupes d’Action pour la Justice Sociale (sic) chargés de traquer les réfractaires contre de l’argent, et d’enlever la main-d’œuvre jusqu’en pleine rue

(…)

Dans les caves humides et mal éclairées, les conditions de travail des ouvriers étaient particulièrement pénibles avec 12 heures de présence. Le camp de Rabstein situé dans un creux de vallon et les baraquements où logeaient les prisonniers étaient souvent inondés. Les hommes insuffisamment vêtus souffraient de la faim, de rhumatismes et du froid. Douze heures de présence aussi dans une entreprise allemande de peinture à Wünschendorf-sur-Elster dirigée par M. PETERS, près d’Erfurt, climat continental où les températures varient suivant les saisons entre plus 30 et moins 25, dans des conditions déplorables compte tenu des tâches imposées surtout aux disciplinaires, appelés en France “réfractaires”, des baraquements malsains et de la sous-alimentation. Il ne fallait pas être pris à se nourrir autrement sous peine de brimades mais il fallait pourtant s’organiser pour voler dans les champs et survivre. Les prisonniers de Wünschendorf entre autres furent contraints à travailler pour les entreprises de Weida, et à procéder à la reconstruction de la gare de Leipzig, bombardée le 3 décembre 1943 par les Alliés.





Je ne doute pas un instant de la réaction de ceux qui sont passés par là s’ils te lisaient.





Je reviens à ce que je disais: à force d’exagérer, on en perd la notion des choses et de la pondération.



Le 02/10/2013 à 14h 25







Lafisk a écrit :



Oui donc une proportion plutôt négligeable de la population … j’ai beau avoir les compétences pour tout ça, déjà moi ça me saoul de paramétrer ce genre de chose alors j’imagine l’utilisateur lambda





Tu prends le problème à l’envers: la proportion négligeable de la population intéressée n’est dûe qu’au fait qu’il n’y a pas d’offre de services grand public qui ont émergé … pour le moment.

Ces offres n’émergent pas pour une raison: il n’y a pas encore un marché suffisamment grand de clients qui pourraient utiliser des services nécessitant obligatoirement une connexion fibrée.



Imagine que dès demain 90% de la population soit fibrée, et non plus ADSLisée. A-t-on avis, combien de temps il faudra pour voir émerger des solutions ‘MIchu friendly’ pour herberger les photos de vacances, les partager automatiquement à toute la famille et les amis qui pourraient les voir directement via une interface sur leur box TV, combien de temps pour voir se généraliser du cloud gaming qui n’aura (enfin) plus grand chose à envier à une console en local ; combien de temps pour que Gandi, OVH ou autre proposent des espèces de serveurs dédiés où l’utilisateur aura son windows et absolument tout son contenu stocké directement dans le cloud sans même qu’il se rende compte du moindre ralentissement en local, etc… ?



La même chose s’est passée il y a 10 ans pour l’ADSL: à l’époque où tout le monde avait un modem 56k, et on disait que très peu de personnes voyaient l’intérêt d’une connexion de plusieurs Mbits/s. Et quand une masse critique d’utilisateurs a obtenu un accès DSL, on a vu apparaître des “sites insignifiants et inutiles” comme youtube ou DailyMotion.



Le 02/10/2013 à 07h 28







Charly32 a écrit :



Imaginez si chacun pouvait stocker une partie des vidéos youtube chez lui, on ne saturerait pas les cables translatlantiques (qui coûtent une blinde) de lolcats.





D’une, ça exist(ait) déjà, cf. Joost.



De deux, ça fait bien longtemps que ta connexion ne traverse pas l’atlantique pour aller chercher ta vidéo Youtube. Google implante partout dans le monde des raplications de leurs données (principe de CDN) et propose à qui le veut de s’interconnecter à côté de chez lui.



C’est pas parce que Xavier Niel trolle sur le sujet en entretenant le flou artistique quand il parle de peering (alors que Google lui propose un peering dès Paris) que les contenus sont réellement rapatriés depuis l’autre côté de l’atlantique.


Le 01/10/2013 à 22h 31







smnr a écrit :



Ce phénomène n’est-il pas corrigé actuellement en bouts de ligne





Actuellement, oui.



Actuellement la “correction”, c’est la marge qu’on prend en sous utilisant le support étant donné que de toute façon on n’a pas une techno suffisamment pointue à chaque bout pour aller titiller les limites physique de la fibre, loin de là.

Du temps du minitel, c’était pareil, on n’était pas embêté par les limites du support puisque de toute façon on n’arrivait pas à fabriquer des modems suffisamment ‘fins’ pour que le support en lui-même (le fil de cuivre et son environnemnment) soit le facteur limitant.



Et puis les choses évoluent et quelques décénnies plus tard c’est le support qui devient le facteur limitant.



Le problème sera le même pour la fibre le moment venu.


Le 01/10/2013 à 21h 19







smnr a écrit :



Ça dépend de la fibre, si elle est en noir et blanc ou tout en couleurs <img data-src=" />





Les couleurs, ça se délave. <img data-src=" />


Le 01/10/2013 à 21h 11



ce sont les équipements de bout de ligne qui font la différence, et qui coûteront beaucoup plus chers sur du FTTH GPON pour avoir un truc équivalent au FTTH P2P…



C’est un point essentiel.









Patch a écrit :



vu que la BP max de la fibre est virtuellement illimitée.





Ca c’est n’importe quoi par contre. On a certes de la marge théorique, de l’ordre d’un 10^6 comparé à ce que peut tenir le cuivre. Mais rien d’illimité.



Or le besoin dans ce domaine évoluant typiquement de façon exponentielle, la limite viendra relativement rapidement (on compte en décennies).



Pour rappel, le cuivre proposait 1200 bits/s exploitables au début de son exploitation du côté du grand public (typiquement, le Minitel). On a effectivement grimpé d’un facteur 10^5 avant d’arriver aux limites actuelles.



Bref, on reste dans les clous en terme de longévité par rapport à l’itération précédente.







Le 01/10/2013 à 20h 00







chriscombs a écrit :



Mais comme les fourreaux seront déjà en place, le coût d’une mise à jour serait moindre.





Ouais, 25 milliards au lieu de 30, peut-être.


Le 02/10/2013 à 11h 06

<img data-src=" /> don’t feed.

Le 02/10/2013 à 08h 16







carbier a écrit :



amha si l’ARCEP est intervenu aussi vite c’est aussi par rapport aux déboires récents de Free sur le peering et donc pour rappeler à tous les FAI que la communication sur ce genre de sujet sera plus sévèrement controlé à l’avenir…





Et ils ont raison sur le fond.



Mais ils font n’importe quoi sur la forme en attaquant non seulement avec des arguments contestables, mais en plus en visant un FAI en particulier.


Le 02/10/2013 à 08h 12







Platanne a écrit :



L’ARCEp a très bien dit que le problème dépasse LARGEMENT la guerre Free-Youtube. Ce n’est pas que Youtube qui rame, ce sont quasiment toutes les intercos de Free qui sont sous-dimensionnés.





L’ARCEP avait dit exactement l’inverse en juillet.





Ce ne sont pas 100 Mbit/s effectifs, ce sont des débits de lignes bruts (même pas ATM). T’as le même niveau technique que Thomas Braun <img data-src=" />



Ce sont des débits de synchro, exactement les mêmes que ceux affichés pour l’ADSL(((2)+) et qui n’a pas posé de problème à l’ARCEP depuis des années alors que TOUS les FAIs ont utilisé abondamment cette valeur.





Justement non, les autres ne font pas pareils. Les autres ne parlent pas de débit dédiés d’1 Gbit/s alors que Free est incapable de garantir un tel débit.



Les débits dédiés ne sont pas mensongers étant donné que le medium pour la boucle locale l’est.

Les débits garantis, Free ni personne dans le domaine de l’accès grand public n’a jamais parlé de ça.



Surtout, pour la fibre, les débits constatés en situation réelle ont pu dépasser le Gbits/s, en data effective de surcroît (couche applicative, on est au dessus du TCP).



Le 02/10/2013 à 08h 08







Platanne a écrit :



L’ARCEP vient de montrer d’une façon brillante





Platoona et ses multicomptes qui qualifie l’ARCEP de brillant alors qu’il passe son temps d’habitude à dire qu’ils sont à la botte de Free.



Priceless <img data-src=" />


Le 02/10/2013 à 07h 42







darkbeast a écrit :



surtout qu’avec leur 1 gbps qui ne va fonctionner à plein que pour la navigation





Dire que 1Gbps apporte quelque chose pour le web, c’est idiot.



Les principaux usages du Gbps, c’est l’auto hébergement et le fait de déporter des ressources qu’on peut utiliser en live au jour le jour (télétravail, etc…). Dans ce cadre, rares sont les usages qui dépassent le cadre géographique du pays ou du continent.



Et dans ce cadre, l’usage en conditions réelles montre que ça tient parfaitement la charge au quotidien.


Le 02/10/2013 à 07h 39







snoopy1492 a écrit :



Arcep <img data-src=" />







La mise au point est une bonne chose, sauf que la forme se prête largement à la critique:





  • l’ARCEP semble considérer que l’accès à internet se résume à aller voir Youtube et Google comme seuls fournisseurs de contenus. A contrario, des débits réels de l’ordre du Gbits/s ont été effectivement constatés par des freenautes fibrés. L’argument est donc nul et non avenu.



  • l’ARCEP oublie que les 100 Mbits/s effectifs ont justement été atteints en Dordogne pendant la phase d’expérimentation, ce sont donc plus que de simples résultats de laboratoire.



  • l’ARCEP tire à boulets rouges sur Free alors que les autres font grosso modo pareil.



    Donc



  • qu’ils critiquent la guéguerre entre Free et Google avec le client pris en otage, j’applaudis des deux mains.



  • qu’ils critiquent la surenchère marketing en vante des débits maximum que 1% de la population atteindra réellement, je suis également pour.



    Mais par pitié, faites les choses un minimum correctement, c’est de la crédibilité du régulateur dont il s’agit. Encore plus quand on se retrouve avec un traitement inéquitable entre FAIs.




Le 02/10/2013 à 07h 29







freechelmi a écrit :



A quoi ça sert d’avoir de la fibre si c’est pour rester asymétrique ?









Krutors a écrit :



Tout simplement a cause de pressions politiques.





Non, t’es un grand naïf toi.

La vraie raison ce sont les extra-terrestres. <img data-src=" />









( en tout cas je vois pas pourquoi ça serait moins probable que ton explication farfelue).





Le 01/10/2013 à 19h 46







Koubiacz a écrit :



Euh l’entretien des lignes en 2013, les lignes ont du être déployés y’a 40/50ans.. si y’a pas des roumains qui piquent les cables, personne les changent, quand on voit certaines lignes qui sont accrochés dans les arbres ou les poteaux téléphoniques qui penchent du coté ou ils vont tomber.



(…)



Moi je pense l’inverse..





Et moi j’ai tendance à me ranger derrière l’avis de l’ARCEP, donc l’inverse de ton inverse.