votre avatar

brazomyna

est avec nous depuis le 7 octobre 2011 ❤️

7015 commentaires

Le 26/11/2013 à 11h 23







charon.G a écrit :



Ce n’est pas du code managé mais du code managé compilé en code natif.





Je comprends ce que tu veux dire, mais du “code managé compilé en code natif” n’est plus vraiment qualifiable de “code managé”, puisque la définition même de la notion de code managé implique une exécution dans une machine virtuelle.



Mais je reste d’accord sur le fond: en gros, c’est une forme d’équivalent à .Net ce qu’un GCJ amélioré serait à java (*)



(*) tiens d’ailleurs, c’est pas ce que fait Google en ce moment avec ART, son remplaçant de Dalvik introduit en beta dans KitKat ?



Le 26/11/2013 à 11h 17







CaptainDangeax a écrit :



Ne venez pas me dire que la puissance des pécé augmente, et si on peut encore gagner en performances sur les téléphones et tablettes, en ce qui concerne le pécé, la loi de Moore commence à plafonner avec la limite physique du nombre minimal d’atomes dans les jonctions de transistors.







D’une si: les performances augmentent. Loi de Moore ou pas, ça augmente quand même.



De deux, l’important c’est que le surcoût, lui, est constant. Il n’augmente globalement pas pendant que les capacités augmentent, ce qui fait que petit à petit la proportion devient de moins en moins significative.



Quand un sucroût représente 20% du traitement, c’est un gros souci, et ça demande des compromis. Quand un surcoût représente 0.5%, c’est une différence insignifiante, de l’ordre de l’incidence d’un flag mineur bien ou mal placé au moment de faire une compilation, ou d’une petite optimisation faite sur le code de ce qu’on a écrit.



Il y a 20 ans, le surcoût était important (d’où d’ailleurs les trolls éculés du “JavaCayLent”, qu’on entend de la bouche de quelques kikoolol qui ont appris ça de leur grand frère) ; de nos jours, il est faible et deviendra bientôt à peu près négligeable.



Donc oui, l’augmentation de la puissance des CPU (et même si elle augmente de moins en moins vite) est un facteur qui va très largement dans le sens d’une adoption massive des langages managés, car son principal défaut disparaît de façon graduelle tandis qu’il continue à offrir de nombreux avantages, surtout dans un environnement mobile où le hardware est très hétérogène.


Le 26/11/2013 à 09h 21







CaptainDangeax a écrit :



Ce qui m’inquiète plutôt, c’est que pour un paradigme “devellop once run everywhere” il faut un langage universel.





Non, en théorie il faut un framework universel ; c’est ce qu’essaie de proposer Microsoft avec .Net qui n’est pas centré que sur un langage unique.





Et je pense qu’un langage qui fait tout n’est bon nulle part



Oui et non: on peut avoir un langage dont la syntaxe est extensible en fonction des besoins. Pour le reste, c’est essentiellement une question de savoir si on veut quelque chose qui descende très bas, au niveau du CPU ou si on veut monter plus haut (langage managé: C#, Java, …) ou encore plus haut (langage interprété, genre Javascript, PHP).



Je pense que le langage managé est le compromis vers lequel tend pas mal de monde car il est à la fois suffisamment performant pour couvrir quasiment tous les besoins et le surcoût de ressources, dû au fait qu’il ne soit pas totalement natif a tendance à s’estomper au fur et à mesure que la puissance des CPU augmente (et elle augmente sacrément rapidement sur les plateformes mobiles).



Après il reste les cas spécifiques qui ne peuvent se satisfaire que d’un langage bas niveau (typiquement, les jeux). Dans ce cas là, une partie ‘NDK’ mais proposé comme complément, à l’image de ce que propose Android, me semble être un excellent compromis.


Le 25/11/2013 à 20h 35







arno53 a écrit :



Ils seront pourtant obligé de revenir sur cette unification des interfaces … Surtout que MS développe des produit type office, visual studio etc … qui nécessite une interface pensé pour la souris. On ne peut pas faire une interface extrêmement riche comme un photoshop adapté a des gros doigts.





Dans un logiciel, l’interface n’est que la toute petite partie émergée de l’iceberg.

Le gros du code qui a tout à gagner s’il peut enfin être mis en commun sur toutes les plateformes, c’est tout ce qu’il y a derrière.


Le 25/11/2013 à 20h 28







yvan a écrit :



Stratégiquement Microsoft se cherche sur les OS.





Non, Microsoft continue sur la lancée définie depuis l’après vista:m, avec comme prinicpal objectif une homogénéisation des différents os et une flexibilité accrue (un seul noyau modulaire et multi architectures, un écosystème de développement unifié, etc…).



Entre les deux, on a un tas d’étapes intermédiaires qui permettent de gérer graduellement la transition (parce que mine de rien, Microsoft est sans doute l’entreprise IT au monde qui a le plus le poids de l’existant à gérer).

Le tout sans pour autant se retrouver trop en retard vis à vis de l’évolution du marché. D’où certains produits qui n’auront dans l’histoire qu’un rôle de solution temporaire pour combler le vide avant que tout soit en place. Exemple: Vista qui a servi à faire avancer une palanquée d’API et amorcé le déclin de win32.



Windows Phone est sans doute également un de ceux là, et aura servi à combler le vide entre Win Mobile et un WinRT unificateur des deux mondes desktop, tablette xbox et mobile.



Elle le dit elle même:

Nous croyons donc à cette vision et à cette direction et nous continuons sur ce chemin



Vision à long terme et continuité.


Le 26/11/2013 à 08h 32







millcaj a écrit :



Une accusation évidemment grave et sérieuse.





Tout le monde sait qu’Octave est “grave” dans sa comm.



Et plus personne de censé ne le prend au sérieux depuis un sacré bout de temps.



Le 24/11/2013 à 17h 07







Kill Them All a écrit :



Je comprend rien .

Ovh.com c’est mort ?

Il y aura plus de serveur chez ovh.com ?





ovh n’est pas mort, ils ont interrompu la vente de nouveaux serveur dédiés à des nouveaux clients le temps de “repenser leur modèle économique”.



Concrètement, le principal problème semble être que chaque fois qu’ils renouvellent leur gamme, ils se retrouvent avec une masse de clients qui ont déjà un serveur, qui l’abandonnent pour en reprendre un neuf, plus puissant pour le même prix. ça génère ses frais, ça leur laisse sur les bras les anciennes versions dont ils ne savent plus quoi faire, tout ça pour pas plus se chiffre d’affaire à la fin.

L’idée qui vient immédiatement à l’esprit c’est d’introduire la notion se tarif dégressif en fonction de l’ancienneté, mais manifestement, ils veulent pas (ou font semblant de vouloir en ajoutant puis reitrant le concept deux jours après).



De ce que j’ai compris, en attendant, les clients qui ont déjà des serveurs chez eux peuvent toujours appeler le service client s’ils pnt besoin de serveurs supplémentaire, et les demandes sont traitées au cas par cas. Mais tous les nouveaux clients n’ont pas d’autre alternative que d’aller voir la concurrence.


Le 23/11/2013 à 19h 23



je trouve à titre personnel (c’est juste une opinion) préoccupants à divers titres.



Je trouvais ça préoccupant il y a quelques années quand klaba était parti dans un délire de persécution comme quoi sfr (?) avait ourdi un complot pour les assissiner à grand coup de peering unfair (si ma mémoire est bonne)

Du grand Klaba, complet parti en vrille sur des allégations qui se sont révélées totalement infondées quelque chose comme 24 heures plus tard. Un grand fail, y compris pour PCI qui avait complaisamment relayé le délire du monsieur sans avoir le moindre élément concret(et pour cause).



Depuis, et à chaque épisode, il déconne systématiquement avec une comm totalement indigne de la boite qu’il est censé représenter.



Dont acte. A un moment mieux vaut en rire.

Le 23/11/2013 à 19h 15



c’est drôle et ça prouve que nos

concurrents ont très très peur.



Il a raison: les concurrents doivent être morts de trouille à force de voir OVH en sold out permanent. Un OVH qui leur refile tous ses clients, même ceux qui voudraient éventuellement aller chez OVH mais à qui on ne propose rien. Y’a de quoi flipper, clairement <img data-src=" />

Le 22/11/2013 à 22h 02

tiens, oles, à force de voir des posts sur PCI qu’il ne peut pas supprimer arbitrairement comme sur son forum chez ovh, est devenu JBGO, inscrit aujourd’hui sur PCI pour non seulement faire un prosélytisme lourdeau pour OVH, maix en plus un FUD dégeulasse sur Online.



Y’a pas à dire, OVH c’est la grande classe jusqu’au bout.

Le 26/11/2013 à 08h 31







Faith a écrit :



Ridicule… les majors n’existent que parce qu’il y a des artistes qui trouvent rentables de s’inscrire chez eux.

(…)

Si tu veux changer le système, c’est aux artistes qu’il faut le demander. Il faut leur demander d’accepter de risquer leurs propres fonds et d’engager leur vie future dans un prêt pour essayer d’émerger et de rentabiliser cet investissement de base. Certains tentent le coup… la plupart mordent la poussière.





+1: jusqu’à preuve du contraire, personne n’empêche les artistes de monter leur propre site web pour vendre leurs albums en FLAC non DRMisés à 500KHz, ou de publier ce dont ils ont envie sur Jamendo.

Si les artistes font ce choix, c’est parce qu’il ont décidé en leur âme et conscience que c’était ce qui leur convenait le mieux. Personne ne les aura obligé à choisir une voie plus qu’une autre.



Au passage, il y a à l’heure actuelle plus de 400 000 titres disponibles sur Jamendo (vous savez, ces artistes qui ont justement décidé de choisir une autre voie). De quoi alimenter des décennies d’écoutes pour un auditeur moyen.



Mais si les gens ne se ruent pas dessus, c’est par choix: ils veulent le dernier Gangnam Style ou le dernier album de M Kopora. Après tout pourquoi pas, c’est leur choix et il n’y a pas de jugement de valeur à avoir là dedans. Mais dans ce cas qu’ils l’assument jusqu’au bout en supportant les contraintes éventuelles qui vont avec sans venir déverser leurs pauvres arguments poubelle à propos des méchants majors et du système dont ils sont les premier supporters.


Le 26/11/2013 à 05h 46







viviane001 a écrit :



Voici ce que je lis :





Moi je comprends surtout que tu sembles incapable d’imaginer que quelqu’un puisse dépenser quelques euros par mois pour ses convictions, plus que pour son tout petit intérêt personnel. Bref, tu mrojettes sur lui ton propre comportement individualiste.



Perso, j’ai un service sur le web, que je propose gratuitement et à mes frais. Tu me rappelles tous ces tristes sires qui sont tellements individualistes dans leur chair que même quand tu leur explique que ce que tu fais c’est bénévole (et à tes frais, qu’il n’y a pas d’entourloupe ou de business model planqué dérrière, etc…) il ne peuvent s’empêcher de ne pas te croire.

Comme si faire quelque chose en dehors de son strict intérèt personnel était tellement loin de leur façon de concevoir les choses, qu’ils ne pouvaient se résoudre à admettre que ça le soit pour d’autres.


Le 25/11/2013 à 16h 35







Commentaire_supprime a écrit :



Qu’est-ce qu’il y a de réaliste à vouloir garder un business model obsolète et qui prend l’eau de toutes part ? Surtout quand la donne du marché de la musique enregistrée subit de plein fouet une révolution copernicienne grâce à Internet ?





La seule chose que je sais, c’est que partir d’emblée du principe que les gens réalistes sont d’un côté et pas d’un autre, c’est l’assurrance de finir avec une analyse biaisée de la situation à la fin.







Mauldred a écrit :



Tu penses qu’elle sort d’un chapeau, cette fan base? Non, ils l’ont construite grâce au partage et à leur talent. Eh oui. D’où les 4 ans de présence. Sans ce succès ils se seraient arrêtés à la première saison.





4 ans de présence télévisuelle (ou même une seule saison si ça te chante). Ca revient à combien en équivalent (millions d’) euros si on devait transposer ça au monde de la musique pour promouvoir un artiste ?



Pour rappel, un spot publicitaire d’une trentaine de secondes sur NoLife, c’est en moyenne 200 euros. Pour 30 secondes, et sur NoLife.

Sur TF1 pendant “The Voice”, un emplacement plus approprié pour prmouvoir un artiste musical, c’est entre 40 000 et 90 000 euros. Pour 30 secondes également.



source:http://www.ftv-publicite.fr/spip.php?article6







Mauldred a écrit :



Conclusion: les majors ne servent à rien.





Conclusion: les majors servent déjà à minima à assurer (et payer) la promotion.

<img data-src=" />





Je pense que c’est toi qui analyses mal la situation. Ce n’est pas le nombre qui est important mais la qualité.



Comme par exemple les gens qui se ruent sur Arte et désertent TF1 ?

Tu as raison, tu analyses bien la situation <img data-src=" />



Le 25/11/2013 à 15h 02







Commentaire_supprime a écrit :



Comme d’hab avec les débats sur P2P et consorts : les défenseurs des majors d’un côté, les gens réalistes de l’autre





Lol, tu aurais pu le dire encore plus simplement: “je considère d’emblée que les gens réalistes sont ceux qui pensent comme moi”.







Faith a écrit :



Toutes les boites qui font de la R&D font payer les échecs par les réussites. Des boites pharmaceutiques à l’informatique, en passant par l’armement.





C’est une évidence. Il n’y a que la mauvaise foi de tybreizh qui peut oser soutenir le contraire plus de deux minutes.







Khalev a écrit :



<img data-src=" />

Il y a une partie de la recherche qui est faite sans l’attente d’un ROI ni compensation si elle échoue.





Oui et non: la recherche publique, pas exemple, n’a souvent pas pour vocation première à un ROI direct sur l’objet de la recherche, mais a tout de même un intérêt sur le long terme (vivier de connaissance, maîtrise des technologies, travaux connexes, etc…). Le ROI est moins visible car il est moins direct, mais il y a un ROI quand même. La seule vraie différence est que la rentabilité est beaucoup moins critique (et encore plus la rentabilité à court/moyen terme).







Citan666 a écrit :



En fait, je déconne je suis en partie d’accord avec toi : il faut tenir compte du fait que le producteur doit pouvoir survivre à plusieurs échecs consécutifs de lancement.





C’est ce que je voulais effectivement avancer, car on ne peut pas avoir une analyse pertinente de la problématique sans prendre en compte ce facteur là.





En revanche, tu sembles toi-même oublier les innombrables albums sur-rentabilisés mais qui continuent de se vendre, et qui donc en eux-mêmes apportent un matelas de sécurité non négligeable.



Je ne l’oublie pas, je dis juste qu’il ne prend pas en compte ce concept qui dtoi faire partie des choses qui permettent de pondérer un jugement. Et que cette absence, dans la forme la plus basique (en gros il ne parle que de coût de fabrication) fout en l’air l’ensemble de son argumentaire, d’emblée.





Deezer ne répond absolument pas à toute la demande, et notamment pas à une partie des téléchargeurs qui défendaient l’usage vertueux de l’illégal.

Deezer c’est :




  • une licence d’utilisation limitée (pouah) ;

  • avec DRM (online, ou appli Deezer) ;

  • de qualité variable ;

  • cher (enfin c’est avis perso).

    Je veux bien croire que le catalogue est bien (je n’ai pas été vérifié les 25 millions de titres) mais on est loin du compte de toute façon…



    Il n’y a aucun produit ou service ou quoiQueCeSoit qui puisse prétendre répondre à toute la demande. C’est une chimère.

    Ca n’empêche qu’une offre comme Deezer répond plus que très largement à une écrasante majorité de la demande (encore plus vrai dans la musique où tu dois avoir 95% des écoutes sont concentrées dans 5% des titres).

    Madame Michu et son fils ou sa fille se foutent de savoir si c’est avec du DRM ou si elle pourra l’écouter avec un Raspberry Pi ou si c’est un FLAC en 500kHz. Ce qu’elle veut c’est savoir si elle pourra en faire l’usage dans les cas d’usage de la musique qu’elle a déjà au quotidien.



    Et dans ce cadre (ie. celui d’une offre à la fois grand public et abordable), cette offre remplit parfaitement son office.



    Quant au prix, laisse-moi rire: 10€ c’est rien. Pendant les débats sur HADOPI, même les défenseurs du tipiakage défendaient un prix plus élevé (typiquement une quinzaine d’euros).


Le 25/11/2013 à 13h 02







tybreizh a écrit :





  1. Le piratage est maintenant ancré dans les habitudes





    Ca ne change rien au fait qu’une offre existe, et qu’elle répond aux écueils qui servaient à l’époque comme argumentaire pro-piratage. Et que cette offre devrait logiquement avoir totalement tari les argumentaires pourris qui perdurent.





  2. Les offres actuelles accessibles en France sont, pour la plupart, risible, accès à un catalogue plus que limité, contrairement à ce que tu dis, limitations en tout genre



    C’est faux. Deezer est un parfait contre exemple (d’après wiki, 25 millions de titres sont dispo, excuse du peu). Et il y en a tant d’autres (spotify, google, …).





    sans compter des exemples graves comme celui d’Amazon (suppression d’un livre à distance)



    Un cas particulier dans un business différent t’autorise à en faire une généralité ?

    Bullshit.





  3. Tu compares une offre de streaming à la licence globale, ce sont deux fonctionnements différents.



    C’est à nouveau faux, il existe nombre d’offres qui permettent du ‘offline’.


Le 25/11/2013 à 13h 01







tybreizh a écrit :



décidément j’ai du mal avec cet argument, en gros la major fait payer tout le monde parce qu’elle se plante. Je ne connais pas beaucoup de métiers ou cela marche comme ca, en tout cas pas à cette échelle.





(rien que) toute la recherche est basée sur ce principe. Excuse du peu. <img data-src=" />


Le 25/11/2013 à 12h 54







Gandalf_barbones a écrit :



c’est grosso modo le principe du mécénat global… et c’est la solution que moi aussi je défend… la plus réaliste aet acceptable par tous





La licence globale, on nous en a rebattu les oreilles en nous expliquant que le jour où on aurait une formule permettant d’avoir un accès illimité à la musique pour quelques euros par mois, promis juré craché il n’y aurait plus de piratage. Parce que les gens seraient honnête par nature, auto-disciplinés, encourageraient une pratique vertueuse, et blablabla.



Sauf qu’entre temps, des offres comme Deezer sont apparues (ce n’est pas la seule, même Google propose désormais des forfaits mensuels). Elles proposent exactement le principe d’une licence globale en terme d’usage pour le client final (écoute online et offline possible, accès à un catalogue pléthorique, …). Il suffit de relire les archives de PCI pour voir que c’était exactement ce que les gens voulaient.



Et bizarrement, ça ne change rien au fait que les gens continuent de pirater. <img data-src=" />



La vérité c’est que les gens piratent parce qu’ils se foutent complètement de l’aspect moral de leurs actes. Tout ce qu’ils voient à la fin c’est que zéro euro en piratant associé à un risque quasi nul de se faire chopper c’est moins cher que 10 euros, quitte à se fourvoyer pour une somme aussi ridicule.


Le 25/11/2013 à 12h 41

Il est batteur d’un chanteur connu, ça n’en fait pas pour autant quelqu’un de qualifié pour disserter des problématiques du business model de l’industrie musicale. Et en l’occurrence, c’est effectivement le cas: le niveau de sa réflexion ne dépasse guère les (pires) diatribes qu’on peut lire dans les comms de PCI.



Rien que son incapacité manifeste à comprendre que le prix d’un album (quel que soit le support) doit également supporter les coûts des dizaines de morceaux qui n’ont pas été rentables, et plus généralement que le coût d’une œuvre doit être seulement corrélé avec le coût de fabrication de cette dernière, ça relève du niveau zéro de la réflexion en la matière, de ce que doit être une industrie musicale capable d’investir (le plus souvent à perte) dans des talents à venir, sans la moindre garantie d’un retour sur investissement ultérieur.




Le 21/11/2013 à 16h 22







Tourner.lapache a écrit :



Bah non justement en connaissant un peu les feux (pour les trajets quotidiens par ex) moi je ne m’arrête quasi pas en ville… sauf quand on déboule et on me double pour aller s’arrêter au feu devant moi (du coup j’ai plus assez de place pour continuer de rouler à la même vitesse et arriver au feu quand il passe au vert)





Et c’est bien le principe: en roulant au ralenti, tu empêches le trafic derrière toi de s’écouler de façon optimum. Ce qu’il faut comprendre c’est que le point de vue de ta réflexion n’est centré que sur ton cas, ta vitesse n’est optimisée que pour ton trajet ; or l’écoulement d’un trafic optimum est un compromis de l’ensemble des cas. Dans le cas du comportement que tu décris, il est optimum pour ce trajet, mais source de contraintes pour tous ceux qui te suivent et qui n’ont pas le même trajet. Au final, il n’est pas optimum pour la globalité du trafic.



Je persiste (et c’est pas juste une lubie de ma part, ça a été démontré scientifiquement, l’écoulement d’un trafic s’apparentant beaucoup aux principes régissant la mécanique des fluides):: pour éviter les bouchons, il faut avoir une conduite plus proche de la conduite ‘sportive/brutale’ (*) que de la conduite écoTrucmucheOnOptimiseLesFeuxEtLaConsommation.





(*) évidemment sans entrer dans l’excès opposé qui provoque insécurité et donc accidents qui sont pire que le remède en matière de résorbption du trafic.


Le 19/11/2013 à 23h 19







Tourner.lapache a écrit :



C’est justement en phase d’accélération ou l’on ne peut pas se permettre de coller le véhicule de devant car c’est une phase beaucoup plus incertaine





Sauf que le véhicule qui est justement devant toi sera plus loin de toi s’il roule à 20km/h plutôt que s’il laisse un “grand trou’ devant lui en roulant en vitesse constante à 10km/h en partant du principe que de toute façon il devra s’arrêter au prochain feu.



<img data-src=" />


Le 19/11/2013 à 10h 35







Alucard63 a écrit :



Oui mais comme précisé le jour ou l’autre pile devant: t’es foutu.<img data-src=" />

Très peu pour moi le manque de distance de sécurité.





Il y a un juste milieu entre coller la voiture qui précède (au risque de manger son coffre au premier freinage) et “ne pas avancer à plus de 10km/h alors que j’ai un boulevard devant moi, parce que de toute façon le feu est rouge dans 500m”, et qui était bien ce qui a été mentionné ci-avant. Relis son comm.



Le 19/11/2013 à 07h 51







Tourner.lapache a écrit :



Si déjà les gens arrêtaient de faire la course pour aller s’arrêter au feu rouge et prenaient le temps de rouler à 10 km/h pour ne pas avoir à s’arrêter…





C’est le même principe que sur une autoroute saturée: c’est le meilleur moyen pour entretenir un bouchon: le fait de laisser de la place inutilisée devant soi alors que la circulation est (très) dense entraîne une congestion qui se répercute sur la capacité des voies derrière toi à écouler normalement le trafic.



Pour résorber un bouchon au plus, vite, la meilleure attitude (mais qui semble peu avouable parce que pas ‘politiquement correcte’ au sens de la prévention routière) c’est de garder une distance minimale au véhicule qui nous précède (soit le minimum pour garder la sécurité, mais pas plus), et ne pas hésiter à accélérer franchement quand on peut.



Rien de plus que de la bonne vieille mécanique des fluides.


Le 21/11/2013 à 10h 30







brazomyna a écrit :



<img data-src=" /> la fiction dépasse désormais la réalité.





Ou l’inverse plutôt <img data-src=" />


Le 21/11/2013 à 10h 19



nous allons mettre en standby Avoton



<img data-src=" /> la fiction dépasse désormais la réalité.

Le 19/11/2013 à 20h 25







patos a écrit :



Sur le papier, il est bien. C’est un entrée de gamme serveur, qui aura certainement vocation à remplacer les poussifs Xeon 1220.





8 coeurs anémiques ne sont clairement pas équivalents à un 4 coeurs puissants.



Faudrait lancer un bon petit test de montée en charge sur un nodeJs (par nature monothreadé) qu’on rigole.



Pour revenir à la news, plus rien ne m’étonne de la part d’OVH. Je leur souhaite pas, mais je parie à moyen terme sur un bon gros fail (commercial et/ou technologique, à force de prendre des clients pour des beta testeurs avec nombre se leurs offres dernièrement), et ça finira peut-être par leur remettre les idées en place, car ça fait bien trop longtemps qu’ils ont oublié qu’un pro ne pzut se satisfaire de leur amateurisme latent à tous les niveaux (de leurs offres jusqu’à leur communication).



Le 19/11/2013 à 23h 19







Goblin a écrit :



<img data-src=" /> je t’aime aussi.





Non, mais ça va vous deux, on vous dérange pas. Les bisous en public, toussa…



NON MAIS VOUS VOUS CROYEZ OU ?!


Le 19/11/2013 à 22h 38







Bulldozer a écrit :



Ceux qui voyage beaucoup et qui ne rentre pas chez eux, consomment peut-être un peu plus de vidéos, jeux etc…





Et plus de femmes, d’alcool et de drogues aussi <img data-src=" />



Et pour ça, y’en a pas un pour leur proposer une offre adaptée.

Monde de merde <img data-src=" />


Le 18/11/2013 à 11h 26







Goldy a écrit :



Je vais donc fermer ma gueule et ne plus jamais émettre la moindre critique d’une offre qui ne me convient pas <img data-src=" />







D’une, sur le fond, le bonhomme a raison: tu as des besoins spécifiques ; ces offres ne te correspondent manifestement pas. tu peux parfaitement le dire, mais de là à les juger ‘minable’, c’est tout simplement idiot.



De deux, l’usage moyen domestique du net avec une ligne fixe est actuellement en dessous de 30Go mensuels de données. Donc tu as à nouveau tout faux: 40Go c’est plus que la consommation typique du foyer avec une ligne fixe.


Le 18/11/2013 à 11h 09







Chloroplaste a écrit :



Je croyais que tant que ce n’était pas de l’illimité, ça ne valait pas le coup de s’y intéresser. <img data-src=" />





<img data-src=" /> le retournage du troll récurrent du monsieur. J’ai bien ri


Le 19/11/2013 à 22h 35







Takoon a écrit :



ouaih… trop cool de mater un BR1080p surr un écran 4 pouces avec un casque à 2€50.

Si çà, ce n’est pas de la branlette geek….





Je sais pas où tu en es chez toi. Mais par chez nous au 21ème siècle, on a des téléphones avec une sortie HDMI.



Je te laisse ramer tout seul pour la suite, j’ai des popcorns à acheter <img data-src=" />


Le 19/11/2013 à 11h 05







sicqo a écrit :



heu non, ma mère,à la campagne





Et pour mon grand oncle en ville, c’est l’inverse: je confirme qu’il s’en moque complètement.



Le 19/11/2013 à 10h 23







carbier a écrit :



Pas vraiment non, titulaire d’une bande à 2,6 GHz pour la 4G, Free Mobile a pour obligation de couvrir au minimun 25% du territoire (pas de la population) en 4G au plus tard dans 23 mois.





C’est une des étapes intermédiaires pour obliger les opérateurs à déployer de façon graduelle et pas au dernier moment. Mais les obligation que j’ai données sont bel et bien celles imposées par l’ARCEP à tous les détenteurs d’une licence 4G au bout du compte. Tout est précisé par l’ARCEP, je t’invite à relire les conditions d’attributions qui sont publiques.



Il n’y a donc aucune alternative: tôt ou tard, chaque opérateur aura dû déployer en propre un réseau 4G complet, couvrant la quasi totalité du territoire.



L’argument du “on va pleurer pour se repiquer sur le réseau d’un tiers” est donc totalement fallacieux.



Et pour la petite histoire, ces conditions sont les plus restrictives qui ont été édictées par un régulateur télécom pour l’ensemble des pays européens. En conséquence, l’argument du méchant ARCEP qui serait à la solde de Free (ou d’un autre) ne tient pas une seconde non plus.



Le 19/11/2013 à 09h 00







trash54 a écrit :



et pour l’accord ils vont utiliser la méthode Free (la leur quoi) : “bouh bouh les autres ont plein de 4G nous nouveau nous du mal installe nouvelles antennes bouh ARCEP obliger autres aider nous”





L’octroi de la licence 4G est concomitant à un engagement de couverture en propre, à la fois de 95% de la population dans chaque département et de 99.6% de la population au niveau national.



Bref, encore et toujours du FUD <img data-src=" />


Le 19/11/2013 à 08h 15







manu0086 a écrit :



Ils lanceront la 4G quand les recrutements auront vraiment diminué et que leurs clients commenceront à aller voir ailleurs en masse.





Ils se sont parfaitement positionnés sur l’offre de la voix et des sms, en proposant comme d’habitude une offre d’abondance à un prix inférieur à ce qui se faisait jusque là. C’est cette offre qui fait le succès de l’opérateur: dès qu’on sort des petits cercles de pseudo technophiles en carton, on se rend compte que l’immense majorité du grand public se fout d’un accès DATA pour le moment. Encore plus de 40Go de fair use avec le débit théorique d’une antenne 5G rien que pour lui.



Dans ce cadre, c’est plus que probable qu’ils lanceront la 4G quand le grand public (le vrai, pas le groupuscule Kevins de Clubic et PCI qui voudraient de la 5G pour frimer dans la cour de récré) sera suffisamment intéressé pour y voir un élément qui fera une vraie différence avec la concurrence.



Alors à titre personnel, leur offre ne me convient pas parce que je cherche autre chose. Mais ça ne m’empêche pas de penser qu’ils ont fort bien mené leur barque en ce qui concerne leur entrée sur ce secteur.


Le 19/11/2013 à 13h 10

D’où le smiley qui allait avec la phrase. <img data-src=" />

Le 19/11/2013 à 12h 22







Chloroplaste a écrit :



Représentant donc 100% du parc WP8 sur le 49, l’UFC pourra se vanter d’une étude plus que représentative pour ce département. <img data-src=" />





Ben non, justement: y’a pas d’appli WP8.

Donc 0% <img data-src=" />


Le 19/11/2013 à 12h 05







Chloroplaste a écrit :



Moi je veux bien participer aussi mais forcément y’a pas d’appli Windows Phone.<img data-src=" />





C’est logique, il y a (pour ainsi dire) pas de Windows Phone en circulation <img data-src=" />





Le 19/11/2013 à 10h 57







carbier a écrit :



Tu as raison une association de consommateurs est beaucoup moins crédible que des entreprises à but lucratif… <img data-src=" />





Le fait d’être une association ne garantit en rien l’objectivité et le sérieux de leurs enquêtes.



Les robins des toits sont à but non lucratif. Je peux te garantir que leurs diatribes incohérentes en dépit de toute réalité scientifique ne tient pas deux minutes dans le monde réel pour qui a quelques connaissances scientifiques dans le domaine.

Pour l’UFC, la preuve de leur connerie a été faite pas plus tard que lors de la dernière enquête sur la couverture 4G en région parisienne.





Sinon tu pourrais aussi nous expliquer pourquoi l’UFC n’aurait pas le droit de poser la question ?



Elle a parfaitement le droit et c’est une bonne chose. Mais entre avoir le droit de poser une question et balancer des contre vérités, il y a un gouffre.







ActionFighter a écrit :



l’offre à 19,99 est clairement en dessous de mes attentes au vu de ce qui était annoncé.





Moi aussi ; je suis chez un autre opérateur (en l’occurrence Sosh, qui existe grâce à l’arrivée de Free d’ailleurs, tout comme par exemple la généralisation du ‘mode modem’ sur les abonnements sans surcoût et dont je suis friand).



Mais ça ne fait pas de mon cas une généralité pour autant.







Par contre, avec l’évolution de la consommation mobile de médias, ce à quoi les générations plus jeunes sont habituées, ça va changer sûrement la donne concernant le choix des offres.



Sans doute, et sans doute que Free comme les autres vont s’adapter graduellement.


Le 19/11/2013 à 10h 33







ActionFighter a écrit :



Le marché va se rétablir de lui-même quand les pigeons en auront marre de payer pas cher pour un service pourri.





L’ARCEP le dit elle-même: plus de 50% de la population n’a encore aujourd’hui strictement aucun usage multimédia en mobilité (pas d’internet, pas de mail, pas même un seul MMS envoyé avec leur mobile).



Les “pigeons” n’en sont souvent pas: ce sont des utilisateurs qui paient pour ce qu’ils utilisent réellement, soit exclusivement de la voix et des SMS. En ce sens, Free a permis de voir émerger




  • une offre qui était jusque là totalement absente du paysage français.

  • et au passage, une généralisation des offres sans engagement, qui est justement l’arme anti-pigeonnage par excellence (j’aime pas ce qu’on m’offre =&gt; le mois prochain j’ai changé de crémerie ; ça me coûte rien, et c’est aussi simple que récupérer son RIO).






Le 19/11/2013 à 10h 12

Marrant comme l’UFC retient systématiquement la théorie du complot dans ses pseudo-enquêtes.



Par exemple:



l’UFC-Que Choisir se demande donc si les opérateurs ne seraient pas en train de « dégrader la 3G pour pousser la 4G ?



Il pourrait ici s’agir d’un problème de saturation graduelle des capacités des réseaux 3G (et c’est même le plus probable), au fur et à mesure que les abonnés et la consommation augmente. Mais non, pour l’UFC, et sans la moindre preuve supplémentaire, c’est très probablement les méchants opérateurs qui dégradent volontairement leur service. Le FUD fait vendre, semble-t-il.



Et mention spécialie pour le “sensorly-like made in UFC x années après la guerre” <img data-src=" />



Plus ça avance, plus pour moi l’UFC rejoint la crédibilité des robins des Toits, soit nulle, voire même dans le négatif.

Le 19/11/2013 à 07h 40







Latios a écrit :



C’est l’aller-retour.





<img data-src=" />



Dans les télécoms, on parle plutôt de Round trip time, qui est beaucoup plus explicite. L’aller seulement correspond plus à la notion de latence (latency). Et la variation de cette latence au cours du temps est la gigue.





Le 18/11/2013 à 14h 11







Chloroplaste a écrit :



Merci pour ces précisions, mais la technologie de fibre utilisée (FFTH, FTTB…) peut aussi avoir un impact sur le ping indépendamment du reste, non ?





Oui, mais le reste est déterminant lui aussi.



La vitesse de la lumière, c’est grosso modo 300 000 km/s. Rien que traverser la France même avec une ligne unique et directe prend donc dans les 3ms minimum, soit déjà 20% des 15ms évoqués.



Dans le même ordre d’idée, un Paris Tokyo, c’est 30ms incompressibles rien que pour prendre en compte la vitesse de la lumière.



A cela s’ajoutent nombre de facteurs, dont certaines différences entre une transmission FTTH et FTTB ou ADSL à cause de codage/décodage intermédiaires qui prennent du temps, dont le WiFi, dont le trafic, dont …



Bref, tout ça pour dire qu’un ping en tant que valeur balancée sans autre information ne représente strictement rien. C’est comme dire “Mon trajet depuis paris me prend 2 heures”, sans préciser si c’est pour aller à Puteaux ou à Nice.





Le 18/11/2013 à 13h 06







kiliking a écrit :



Suis passé à la fibre chez SFR depuis pas longtemps. Ca dépote grave avec un ping inférieur à 15ms <img data-src=" />







coket a écrit :



C’est énorme pour de la fibre non? Normalement il me semble que c’est plutôt entre 4 et 6ms…







Chloroplaste a écrit :



Ce ne doit pas être de la FTTH, expliquant ainsi ce ping relativement élevé.





Un ping, c’est entre un point A et un point B <img data-src=" />


Le 18/11/2013 à 09h 45







rsegismont a écrit :



Parce que pour l’instant son but est d’attirer de nouveaux clients, pas de faire de la marge … J’aimerais juste savoir le nombre de clients a 15,99/ 19,99 et ceux à 0/2 …





La période de commencement pour un opérateur mobile est forcément à part étant donné que les investissements initiaux sont extrêmement évelés ; ça n’empêche qu’Iliad dépasse le milliard en CA annuel juste pour la partie mobile ; c’est déjà largement suffisant pour compenser sur le temps les coûts de construction et d’exploitation d’un réseau mobile complet, en “régime de croisière” sur le territoire.



Quelle que soit sa stratégie et son positionnement commercial, Iliad est donc bien en position de faire de la croissance grâce à son activité mobile, et le simple fait d’avoir cette visibilité moins de deux ans après un démarrage dans ce secteur représente tout sauf un échec, bien au contraire.



A nouveau, il faut comparer ce qui est comparable, et dans le contexte d’un nouvel entrant sur un marché atypique, très réglementé, avec un ticket d’entrée exceptionnellement cher et des investissement lourds et un secteur arrivé à maturité, le bon angle de comparaison c’est ce qui a pu se passer dans d’autres pays lors de l’arrivée tardive d’un nouvel opérateur mobile. Et à ce jeu, Iliad est en extrêmement bonne posture.


Le 18/11/2013 à 08h 53



Le bilan n’est donc pas nécessairement négatif pour Orange, SFR et Bouygues Telecom



Vous parlez de revenir au même nombre de lignes au bout de 2 ans après l’arrivée d’un quatrième entrant. Et alors que pendant ce temps, il ne faut pas oublier que le nombre de lignes total a augmenté de près de 10% (+6 millions, ce qui devrait nous faire considérer le ‘point mort’ comme le nombre de lignes d’il y a 2 ans +10%)



Il suffit de regarder l’ensemble des autres pays européens où un s’est produit le cas d’une situation avec un quatrième entrant tardif pour constater qu’au contraire cette situation est totalement inédite, avec un quatrième opérateur qui sur-performe très clairement.


Le 18/11/2013 à 14h 13







indyiv a écrit :



Effectivement tant qu’on ne saura pas combien d’abonnés sont a 2 € (voire 0 €) … on aura bien du mal à parler d exploit …





Sauf qu’on n’a pas que cette donnée, mais d’autres indicateurs également fort utiles: CA, EBITDA, …


Le 17/11/2013 à 23h 21







Dirty Troll a écrit :



une vidéo 360p sur un serveur situé sur le continent Nord Américain





Détail technique sans rebtrer dans le troll: Google étant son propre cdn, ses vidéos sont déjà en Europe, et Google apporte le trafic jusqu’à l’entrée du backbone du fai, à Paris.


Le 18/11/2013 à 12h 04







piwi82 a écrit :



Autant sur un iPhone ça évite de jouer avec le zoom, autant sur un laptop je reste sceptique.





Perso, je vois une belle différence de confort de lecture sur un écran de smartphone de 5-6 pouces en 1280x720 vs. 1920x1080. C’est un ressenti, les polices sont plus lisses, et au final, la fatigue visuelle est moindre.



Même chose sur un 15 pouces, la différence de productivité en plus (on peut éventuellement se permettre de mettre certains textes plus petits, et donc afficher plus de choses qui restent ‘lisibles’). La fatigue visuelle est largement moindre, et c’est important pour un développeur qui passe des heures par jour à lire sur un écran. Ceci dit, la résolution n’est pas le seul paramètre: la luminosité et surtout le contraste sont également importants.



Bref, pour moi c’est clair, il est hors de question de redescendre en dessous du 1920x1080 avec des très bons contrastes & luminosité.



Le 18/11/2013 à 11h 50







corsebou a écrit :



Linux c’est pour les vrais developpeurs maintenant?





oui <img data-src=" />


Le 18/11/2013 à 11h 03







jb18v a écrit :



ptet que le MBPr se revendra mieux sur du long terme, après c’est surtout niveau budget que ça se joue <img data-src=" />





+1 pour la revente,



MAIS (à titre perso), -2 pour le layout du clavier qui n’est pas le même chez Apple que sur les PCs. Et quand tu switches déjà entre plusieurs layouts proches dans la même journée (FR, BE, …), un de plus et c’est la cata assurée.



Donc dans tous les cas, ce sera “PC” pour moi. J’attends les premiers retours du XPS 15 2014 pour remplacer mon XPS 15 (L501X) de 2010 (qui a donc plus de 3 ans et qui fonctionne comme un charme).







jb a écrit :



Je comprends pas bien le choix du processeur, pour être honnête…





Au contraire, ce CPU est juste parfait pour obtenir une machine autonome, qui ne chauffe pas et silencieuse. Ca se justifie doublement que cette version linux est clairement pas orientée pour les gamers qui ne regarderont que du côté de Windows.

Dans mon cas, c’est l’absence d’au moins une déclinaison du XPS 15 2014 avec au minimum une config avec un CPU ULV qui me paraît un mauvais choix: le mec qui met 2000€ dans son laptop, c’est souvent un pro qui cherche pas la puissance pure à tout prix, quitte à se retrouver avec une chaudière entre les mains.