Bumblebee a quand même montré que c’était possible.. un peu pédestre, mais ça fonctionne quand même très bien !
Je ne dis pas le contraire, je pointe juste le décalage entre les déclarations initiales et celles de maintenant.
Le
10/04/2013 à
16h
30
moi1392 a écrit :
Rien n’est impossible, ce qu’ils ont voulu dire (à mon avis), c’est que c’est impossible sans code source ouvert dans le noyau et/ou sans des efforts très importants qu’ils ne sont pas prêts à investir vu le retour en terme de ventes.
Non, ce qu’ils ont dit c’est que vue l’architecture de XOrg il était impossible d’envisager d’intégrer ne serait-ce qu’un support partiel sous linux, les deux étant incompatibles.
Leurs propres dires, c’était bien d’avancer une impossibilité technique sans modifier en profondeur XOrg, pas autre chose.
Bref. contrairement à ma dernière machine où j’avais naïvement crû qu’une machine sous optimus était convenable (puisque je pourrais désactiver le GPU NVidia pour ne garder que l’Intel), mes prochaines machines, c’est de l’IGP Intel only.
Le
10/04/2013 à
15h
03
NVidia. C’est pas eux qui disaient qu’il était techniquement impossible de le faire fonctionner sous nunux + XOrg ?
De ce que j’ai compris les 75% sont payés par l’entreprise pas par lui .
Non. C’est une tranche d’impôts sur les revenus. Donc la somme totale de tes revenus tels qu’affichés sur ta fiche d’impôts.
S’il suffit de toucher 2 fois 500 000€ de 2 boites différentes pour éviter cet impôt je me fais pas de souci pour nos grands patrons.
Donc non.
Le
10/04/2013 à
14h
27
Le-Glod a écrit :
Mais ils en font quoi de tout ce fric ?
Il est ré-investi dans l’économie: même s’il garde ses millions sur son compte courant, la banque s’en sert pour investir sur les marché.
L’économie est un jeu de vases communicants. On ne possède pas l’argent qu’on ne dépense pas ; on possède uniquement le pouvoir de choisir là où il est investi (ou le pouvoir de déléguer les choix d’investissement à des tiers, notamment sa banque).
Le
10/04/2013 à
11h
22
lordnapalm a écrit :
Mais ça a sans doute été plus dur pour toi que pour d’autres, il n’y a malheureusement pas que les capacités des élèves qui sont prises en compte.
En premier, il y a bien sûr une forme d’inégalité ‘de la nature’ entre deux écoliers. Tu peux très bien avoir deux frères dans la même famille, le même environnement, la même éducation, etc… et l’un qui comprend un truc scolaire du premier coup, l’autre qui va bosser 5 heures dessus avant d’arriver au même point.
C’est sans doute la plus grosse inégalité, mais celle là ne peut pas être imputable à un système sociétal biaisé. C’est juste la nature et sa diversité.
Après, comme je disais, entre deux écoliers “égaux devant leurs capacités d’apprentissage”, pour moi c’est l’environnement le plus facteur de (non) réussite. Et l’environnement est avant tout déterminé par les choix de ses propres parents (quand on n’était pas encore en âge de faire ses propres choix en conscience).
Ces choix qui ne sont souvent pas relié au facteur ‘finance’, mais plus au facteur ‘capacité à montrer un modèle’. Genre des parents qui lisent tous les soirs plutôt que de passer la soirée devant le BigDil ; qui s’intéressent, jour après jour à ce qui s’est passé dans ta journée d’école (pour débrief prendre un peu de recul, pour montrer implicitement que c’est important, …), etc…
En un mot comme en 100: quand tu as un gamin qui réussit des hautes études, ça devraient être les parents qu’il faut féliciter ; pas le gamin.
Le
10/04/2013 à
10h
59
lordnapalm a écrit :
Voir mon commentaire juste au dessus. C’est faussement public, les frais ne sont pas la seule barrière à l’inscription.
Les grandes écoles recrutent sur concours (X, mines pont, …) et pas besoin d’avoir fait la prépa la plus réputée (H4) pour finir en bonne position.
Et plus ça avance, plus le recrutement desdites écoles se diversifie (post DUT, licence, …).
Perso, j’ai commencé dans un collège en ZEP d’une ville de 15k habitants et j’ai fini dans une école groupe A.
Pas de gloire personnelle là dedans, c’est surtout grâce à deux parents (un ouvrier et une prof) qui n’ont jamais fait le moindre compromis quant à la nécessité de bosser à l’école au maximum de me capacités.
Le
10/04/2013 à
10h
49
lordnapalm a écrit :
Les “élites” françaises sortent rarement d’écoles publiques malheureusement, l’égalité des chances est un mythe.
Si tu connaissais un peu, tu saurais que les écoles les plus réputées en France sont des écoles publiques, avec des frais de scolarité dérisoires.
La non égalité des chances elle vient avant tout de l’environnement de l’enfant pendant son adolescence: quand tu vis dans une cité avec pour seuls modèles des dealers/voleurs qui gagnent beaucoup et le reste des gens qui crèvent de faim (malgré une formation pour certains d’entre eux), c’est sûr que c’est moins évident de se convaincre de l’intérêt de la formation que quand papa et maman sont tous les deux cadres et habitent dans une banlieue pépère de Paris.
Reste que pour celui qui a décidé de s’en sortir par le haut et de s’investir là dedans, en France le financement de la scolarité n’est pas un souci.
Le
10/04/2013 à
10h
21
Skeeder a écrit :
Entre Orange et Illiad, il y a un facteur 10 au niveau du chiffre d’affaire.
Bien tenté. Sauf qu’il y a un facteur 2 " />
Le
10/04/2013 à
10h
03
rsegismont a écrit :
Bref, c’est de la comm, tout comme quand Xavier Niel parle de son salaire, 2 hypocrites …
Entre XN et Richard, on a un facteur 10 de différence de salaire. Une paille.
Et Richard a bon ton de confondre l’activité d’investisseur d’un côté, et de dirigeant salarié de l’autre: que je sache, Richard a pas mis 6 milliards d’euros dans le pot d’Orange de sa petite poche. En quoi il se permet de comparer la rémunération des dividendes avec son salaire ?
Pour le reste, franchement, 170k€ bruts annuels pour un poste de PDG d’une boite valorisée 9 milliards, c’est loin d’être délirant ; c’est même plutôt le contraire.
backdoor sur son NAS, dès qu’il le connecte (chez lui, avec son ip) il se prend une tornade de connexions invisibles
Ou une tornade d’envoi massif (style NAS transformé en zombie émetteur pour du DDoS).
L’upload est nécessaire pour avoir un débit en download, puisque régulièrement lors d’un download, le receveur envoie des paquets d’acquitement pour confirmer qu’il a bien reçu ce qu’on lui a envoyé.
Si son upload est définitivement saturé, normal que le débit tombe complètement en download.
La solution: chainer son NAS avec un équipement intermédiaire qui va tracer de façon indépendante les échanges dans les deux sens et leur volume (une tite machine sous linux avec deux ports ethernet qui sert de relais et le tour est joué)
le duc rouge a écrit :
même si le sujet semble assez passionnant ca a plutôt sa place sur le forum … " />
+1. La seule motivation pour en faire un article serait que ce cas particulier soit un exemple d’un comportement plus général ; le seul phénomène à caractère général qu’on pourrait avoir ici est une action (bridage) de la part de Bouygues. Or cet aspect n’est qu’une possibilité parmi d’autres (genre son NAS est vérolé ou buggué et envoie de la merde à saturer sa ligne) en l’absence d’autres éléments.
Donc pour moi, faire un article là dessus, c’est mettre la charrue avant les boeufs.
Si on en arrive au système du tout payant, il y aura ceux qui voudront/pourront payer, et les autres (la plupart?), qui se tourneront vers autre chose (ailleurs que sur internet?).
L’alternative c’est pas le ‘tout payant’ ; l’alternative c’est bien pire: les articles et autres billets sponsorisés avec un flou le plus total sur ce qui est sponsorisé et ce qui ne l’est pas.
C’est déjà le quotidien de nombreux blogs plus ou moins personnels qui - une fois atteints une petite notoriété dans une secteur donné - se font spammer par les vendeurs de produits pour leur ‘prêter un matos en échange d’un test publié sur leur blog’ ; sous entendu : “on vous offre le matos, pas besoin de le rendre à la fin du test mais si votre test n’est pas trop complaisant, ne comptez pas sur nous pour vous proposer à nouveau un ‘partenariat’ la fois suivante”.
Le
09/04/2013 à
14h
24
sebtx a écrit :
C’est pourtant simple à comprendre : quand les sites arrêteront d’abuser avec les pubs, les gens arrêteront de bloquer ces dernières.
C’est ça, oui. La vérité c’est que les gens ont vite fait de brandir ce genre de principe pour justifier leur comportement, mais n’en changeront pas pour autant tant qu’ils n’y sont pas contraints.
D’autres ont dit à l’époque que quand la musique sera proposée sans DRM à un prix abordable (genre 1€ le morceau), les gens arrêteront de tipiaker.
Lol.
Le
09/04/2013 à
14h
21
L’article expose bien les problématiques ; à un détail près amha: nombreux sont les annonceurs qui ne rémunèrent plus à l’affichage mais au clic ; et quand l’AdBlock est utilisé par des internautes technophiles, ils savent déjà ce qu’est une pub, où elle se situe, et ils ne la regardent même plus. Et donc ne cliqueront de toute façon jamais dessus.
Je désactive désormais systématiquement AdBlock de toute url qui est présente dans mes bookmarks, en partant du principe que les sites sur lesquels je reviens sont ceux qui présentent un intérêt et donc qu’une forme de deal gagnant/gagnant est adéquate. Et si le site est pollué de pubs, je trouverai toujours l’info ailleurs.
Mais entre nous, j’espère surtout que ces sites ont une forme de rémunération au nombre de vues car ça doit bien faire plusieurs années que je n’ai plus cliqué sur la moindre pub d’un site que j’ai visité. Donc si la rémunération est basée sur du clic, ne rien afficher ou afficher une pub sur laquelle on ne cliquera de toute façon pas revient au même. Ils faut donc tempérer l’idée que plus d’AdBlock se traduirait par une hausse réelle des revenus pour les webmasters (dont je fais partie, à mon petit niveau).
Si un SSD est plus grand donc il y en aura moins par boites de conditionnement donc plus de boites donc plus de volume à transporter.
C’est un élément, mais il est à mon sens totalement négligeable comparé aux coût économisés d’avoir deux chaines de fabrication en aprallèle, deux références, deux types de pièces, deux …
Le
09/04/2013 à
13h
33
floop a écrit :
desole je ne vois pas l’interet de l’analogie disque/bagnole
si on reste du coté pratique, la twingo sera tout aussi capable que la bmw de t emmener d’un point A a un point B
L’analogie était justement là pour te faire comprendre qu’un choix ne se fait pas par rapport à un seul et unique paramètre (le débit pour le SSD, le fait de t’emmener à un point B pour la bagnole).
Il se fait en fonction d’un ensemble de paramètres distincts qui collent plus ou moins à tes besoins: encombrement, chauffe, fiabilité, vitesse, consommation, … pour le SSD ; confort, reprise, consommation, tenue de route, fatigue après 1000km, service associé, sécurité, entretien, etc… pour la bagnole.
Le
09/04/2013 à
13h
23
floop a écrit :
bien sur mais des ssd dans un NAS tu vas etre fortement bridé par le reseau
Tout comme ma BMW est fortement bridée par les panneaux sur le bord de la route ; mais même en respectant toutes les limitations de vitesse (" />) elle offre d’autres prestations qu’une twingo (pourtant capable d’aller à 130km/h) n’a pas.
après c’est pas pour ça que je commande demain un couple de SSD pour upgrader mon NAS, mais dans mon esprit ça vient de passer du status “pas envisageable” à “ça pourrait mériter réflexion”.
Bref, on avance…
Le
09/04/2013 à
13h
12
floop a écrit :
je parle de SSD de grosses capacités dans un NAS
1000 euros pour 2To alors que pour le meme prix j’ai 8 ou 9 fois 3To en mecanique
C’est une question de moyen et de besoin.
Avoir 25To ne me servira à rien si je n’utilise que 1To. Quitte à choisir je préfère encore l’alternative qui m’offrira d’autres avantages que la seule capacité qui sera inutile.
Après évidemment que le prix est un prix d’early adopter (donc cher dans l’absolu) ; mais mettre 1000€ c’est pas pareil quand ça représente un mois complet de salaire ou un dixième.
Je me rappelle des commentaires lors de l’achat de mon premier SSD (un Vertex de 120Go) ; tous ceux qui décrétaient que c’était du délire de mettre aussi cher dans un disque aussi petit. On voit comment les comms ont évolué depuis, et on comprend plus facilement que la vraie raison n’était pas la pertinence du SSD en lui-même (qui fait l’unanimité maintenant alors que ce n’était pas le cas avant), c’était en fait juste le prix qu’on était prêt à mettre dans un disque pour du confort accru et la pléthore de gens qui savaient mieux que tout le monde ce qui était bon pour les autres, sans même en avoir approché un seul.
Le
09/04/2013 à
12h
53
Industriality a écrit :
Non c’est les statistiques, n’oublie pas que les SSD perdent énormement en fiabilité quand les NAND et réecrites de nombreuses fois, certes maintenant tu as le TRIM mais ça reste problématique surtout vis à vis des firmwares/controlleurs.
Les statistiques, y’en avait que tu aurais pu lire dans le lien vers lesnumériques que j’ai donné ci-dessus. Résultat:
10Go par jour de consommé pour un power user avec l’ordi de travail allumé et utilisé de façon relativement intensive toute la journée ; probablement infiniment moins pour un NAS avec mon usage de backup.
ça induit 66 ans de durée de vie pour du TLC, pourtant réputé comme ayant moins de longévité que le MLC de l’article.
Mais c’est sûr, le moteur de ton disque mécanique tiendra bien plus longtemps.
" />
Le
09/04/2013 à
12h
38
Industriality a écrit :
Absolument aucun intérêt.
BlackYeLL a écrit :
Et si LUI y trouve un intérêt ?
J’aime bien les gens qui pensent pour les autres " />
" /> t’as pas compris, il parlait de ses comm’ sans intérêt d’une façon générale, pas du miens " />
Pour moi c’est silence ++, chauffe –, conso –, place –. Et éventuellement le débit ++++ mais ça n’a que peu d’intérêt POUR MON USAGE.
Le
09/04/2013 à
12h
10
patos a écrit :
Oué enfin mettre 1100€ dans 2 SSD, c’est un peu du gachis pour un NAS quand même… Surtout quand on voit la fiabilité.
Je suis assez peu convaincu d’une plus grande fiabilité des disques mécaniques, y compris pour le TLC
Le
09/04/2013 à
12h
03
Deux SSD d’un To en RAID pour mon ptit NAS ; voilà qui pourrait être sympa et finir complètement ma migration vers du non mécanique.
C’est chouette que les prix deviennent enfin abordables.
C’est très français tout ça. On gueule sur les sanctions (sans se remettre en cause) sur ce qui à amené à la dite sanction…
" />
Le
09/04/2013 à
11h
35
methos1435 a écrit :
J’ai même vu des jeunes qui ont pris des peines de prison pour certaines conneries, avec qui ca s’est bien passé avec nous, et qui sont venus s’excuser pour leurs conneries une fois sortis de prison. Aujourd’hui ils sont rangés et nous disent bonjour normalement quand on les croisent…
Ceux là, c’est ceux qui ont pu faire un peu de PS3 pour se détendre dans leur hotêl 4 étoiles. " />
Le
09/04/2013 à
10h
54
Ti Gars du Nord a écrit :
je pense ce que je veux, c’est pas toi qui va me dire si je pense bien ou pas
pour moi une prison n’est pas un lieu ou l’on doit trouver une console de jeux
qu’on éduque les branleurs oui le reste non
Ben ça tombe bien, c’est exactement ce que l’administration et l’Etat voudraient faire, mais avec des bon citoyens réac dans ton genre, ils n’ont pas les moyens financiers de le faire, puisque la logique primaire veut que prisonnier = l’important c’est de punir, pas de réintégrer dans la société.
Ce raisonnement bas de plafond conduit les politiques à abonder dans ce sens populiste en proposant toujours plus de moyens pour la répression, toujours moins pour la prévention / réintégration.
Le plus drôle, c’est que ces “bon français bien droit dans leurs bottes” seront les premiers à subir les conséquences de leur raisonnement basique quand le petit délinquant fraîchement sorti de prison va récidiver en piquant leur GSM dans la rue ou dans le métro, faute d’avoir eu la moindre chance de tirer quelque chose de positif de son expérience pénitencière.
Dire que d’autres pays le font et que ça marche bien.
blackdream a écrit :
Ouai, la Norvège, qui a justement le taux de récidive le plus bas au monde. Après faut pas un QI spécialement élevé pour comprendre qu’un taux de récidive bas, c’est plus de sécurité pour tout le monde. Mais bon, la sécurité on s’en fout, ce qui comte c’est que la justice se venge.
Idée de QoS intéressante (t’es sûr qu’il n’y a pas un truc du genre déjà instauré chez les opérateurs historique ? pas aussi dynamique certes, mais éventuellement prioriser l’utilisable faible contre l’intensive pouvant pénaliser les clients), mais je me demande si c’est réellement applicable ?
C’est applicable et non ce n’est pas déjà fait ; la règle est qu’à partir du moment où tu es autorisé à te connecter en DATA tu as la même bande partagée que tous les autres.
Les usages “légers” (web/mail classique), ou “moyens” (streaming vidéo..) sont, à mon avis, beaucoup plus fréquents que les usages intensifs. Au final la BP ne risquerait-elle pas de se lisser à un point qui ferait qu’elle serait très faible une fois le nombre d’usagers élevé ?
Mon idée n’est pas de différencier les usages (neutralité du net toussa), mais de différencier les utilisateurs qui ont déjà beaucoup consommé dans le mois des utilisateurs qui ont peu consommé.
Ce n’est pas la même chose et c’est justement là toute la différence car elle permet d’introduire la notion de ‘plein pot même si j’ai déjà downloadé comme un porc si personne d’autre n’a besoin de la bp à ce moment là’. Et donc de l’illimité réel, tout en proposant une solution pour éviter l’engorgement.
Je dois avouer que j’ignore complètement quelle est la capacité en débit d’une antenne de réseau 4G, mais comme leur principal argument c’est la rapidité du réseau (jusqu’à 100mbps sur un terminal mobile si je ne m’abuse), si la QoS fait lisser la BP à un niveau qui au final est proche de la 3G, cela peut se retourner contre l’opérateur du point de vu satisfaction client.
Déjà dans dans la réalité, nous serons loin d’avoir tout le temps le débit théorique promis du fait de la BP partagée, avec une QoS derrière, ça risque d’être vraiment très bas pour des utilisations parfois courantes telles que de la vidéo en streaming.
Ce n’est pas vouloir faire passer plus pour une bande passante identique, c’est prioriser selon des règles différentes que le “on/off” ou le “pleinPot/128kb” des techniques de fair use avec une limite fixe actuelles.
L’idée est bien d’optimiser l’usage de la bande passante disponible dans les cas où cela n’entraîne pas de “gène” pour le reste des autres utilisateurs, pas d’inventer de la nouvelle bande passante qui n’existe pas.
Le
08/04/2013 à
20h
24
Le
08/04/2013 à
20h
17
Pour moi on a deux solutions:
solution 1: XN ne fait rien de plus que son jobs de commercial ; il est patron d’une boite, son rôle est évidemment d’entretenir l’intéet autour de sa marque. Il annonce rien de concret pour jouer sur l’imagination de la communauté ; ça fait parler de sa boite, tout le monde est content. C’est la solution sûrement la plus probable, et étant donné qu’il n’y a rien de plus à dire (et même il y avait probablement pas de quoi en faire un article), on s’arrête là. Pourquoi pas.
Bon, puisqu’on y est, jouons le jeu deux minutes: admettons que Free ait dans les cartons une idée disruptive. Et à ce jeu des suppositions, je ne vois pas 36 ‘révolutions’ à faire si on parle d’innovation dans la 4G pour un fournisseur de tuyau:
solution 2: on fait voler en éclat LA chose qui constitue la principale limitation sur l’ensemble du marché, chez tous les concurrents. Y’a pas à tortiller du poptin, on pense immédiatement au fair use.
Si Dr Geek downloade 4To de Debian comme un malade sur sa cellule, objectivement on s’en tape … s’il est tout seul. Mais si ça doit empêcher Mme Michu connectée à la même antenne de charger tranquilou sa page sur marmiton.org, là ça devient hautement problématique, car la capacité du réseau est limitée par cellule.
Solution: on priorise les flux, mais pas en fonction d’un fair use statique ou d’un type de flux (vidéo vs. http vs. bittorrent vs. …). Non, on priorise les flux dynamiquement à la fois en fonction des utilisateurs connectés à la cellule et leur data déjà consommée:
je suis madame Michu, ou Dr Geek ; je suis tout seul sur ma cellule, j’ai un accès avec un débit plein pot.
je suis madame Michu, sur une cellule partagée avec 20 Dr Geeks qui veulent tous récupérer leur 300ème ISO DVD Debian du mois. Sur un schéma classique, je partage la connexion avec tous les autres dr Geeks et j’ai 1/301ème de la bande passante dispo ; avec un schéma un peu plus novateur:
* Mme Michu qui n’a utilisé que 20Mo de DATA jusque là se verra octroyer 70% de la bande passante juste pour elle.
* Dr Geek #1 qui a déjà consommé 1 Go dans le mois aura 5% de la bande passante ;
* Dr Geek #2 (5Go au compteur) aura 3% de la bande
* …
* Dr Geek #300 (10To au compteur depuis le début du mois) aura 0.1% de la bande passante.
Quand Mme Michu aura fini de télécharger sa page, ses 70% de bande seront immédiatement re-répartis entre tous les Dr Geeks restants, selon le même principe du “moins j’ai consommé auparavant, plus je suis prioritaire”.
C’est techniquement relativement complexe, mais pas infaisable sur un réseau NGN ; et surtout c’est une bombe pour proposer:
une offre que la concurrence n’aura jamais proposé jusque là, et qui fait sens autant pour les technohiles que les Michu: l’offre d’abondance, le label “plus de limite, même pour la DATA”.
une offre que la concurrence ne pourra pas proposer facilement en l’état ; le poids de l’existant (les opérateurs actuels se traînent 15 ans de technos disparates) retardera d’autant leur capacité à proposer rapidement la même chose, laissant le champ libre pendant de nombreux mois à Free pour engranger clients et image de marque.
Le
08/04/2013 à
13h
12
Des propos qui sous-entendent que Free Mobile préfère annoncer un haut taux de couverture de la population en 4G plutôt que de cibler ville par ville comme le font ses concurrents.
Le problème de Free c’est qu’une proportion relativement importante de leur déploiement d’antennes jusqu’à maintenant utilise une ligne cuivre pour la liaison avec son backbone (je suis le premier surpris du choix, mais je pense qu’ils n’avaient pas trop le choix pour tenir les délais).
Dans cette configuration, proposer de la 4G (et les débits qui vont avec) n’est pas possible ; il faut une liaison fibre pour pouvoir écouler un trafic suffisant.
Donc même si demain ils sortent une offre 4G officielle, ça ne se fera pas sur toutes les antennes déployées jusque là ; seulement celles déjà fibrées. Et on en revient exactement à la même problématique que les autres opérateurs (qui ont déjà masse d’antennes, mais peu déjà fibrées).
Il devrait recruter un “bon” chargé de communication au lieu d’avocats, et aussi un comptable, pour pas envoyer de société de recouvrement alors qu’on ne doit rien…
Dans la logique “je vais leur montrer qu’au jeu du plus con, ils perdront” (*) : Tu les laisse faire et au bout de quelques relances, tu pourras les (contre)attaquer pour harcèlement.
~ 10” pour moi car c’est en complément du smartphone, donc pas vraiment en mobilité mais à la maison.
Pareil: amha tout dépend de si on a déjà un smartphone avec un écran “confortable”.
Si on a déjà un smartphone, la tablette 7 pouces est d’une utilité toute relative en mobilité ; une tablette se justifiera donc plus comme périphérique qui reste principalement au domicile. Donc 10 pouces ; c’est mon cas perso.
A l’inverse, si on n’a pas de smartphone, la tablette servira plus souvent, pour “tout faire” au quotidien donc y compris en situation de mobilité (transports, salles d’attente, …) ; dans ce cas, une 7 pouces à glisser dans un sac paraît plus appropriée.
Facebook, c’est le TF1 de PCI: tout le monde se sent obligé d’expliquer en quoi c’est la pire merde qui soit, mais au final, les statistiques montrent qu’il fait les meilleures PDM de loin.
Reste plus qu’à trouver l’Arte de PCI: le service que tout le monde trouve génial mais qui fait pas 1% d’audience quand on regarde au delà des jolies intentions.
Le
04/04/2013 à
18h
42
Reznor26 a écrit :
Toujours ces gens super cool, avec une vie super cool, sur une musique super cool.
Jaloux ? " />
Le
04/04/2013 à
18h
13
Une façon rendue possible par l’ouverture d’Android qui permet une modification plus en profondeur que d’autres systèmes. Ici, on sent surtout une attaque vers iOS
Faut arrêter la fixette sur iOS deux secondes: c’est pas une attaque, juste un fait de par la nature d’Android.
Zantetsuken a écrit :
Je suis le seul a sentir une grosse odeur de “drain battery” ??
" />
Pas plus pas moins que l’appli qui tourne de toute façon en background pour récupérer les mises à jours.
AxelDG a écrit :
Encore un super outil pour s’immiscer toujours plus dans la vie privée de ses utilisateurs…
Idem: pas plus pas moins qu’avant avec l’appli non intégrée à la home.
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres, c’est déjà beaucoup moins pire d’avoir une domination écrasante d’un service malgré un concurrence possible qu’un bridage des tuyaux eux-même
Le
04/04/2013 à
07h
40
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le
04/04/2013 à
07h
40
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le
04/04/2013 à
07h
40
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le
04/04/2013 à
07h
40
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le
04/04/2013 à
07h
40
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le
04/04/2013 à
07h
40
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le
04/04/2013 à
07h
39
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le
04/04/2013 à
07h
39
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le
04/04/2013 à
07h
39
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le
04/04/2013 à
07h
39
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le
04/04/2013 à
07h
39
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le
04/04/2013 à
07h
39
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
7015 commentaires
NVIDIA apporte le support préliminaire d’Optimus sous Linux
10/04/2013
Le 10/04/2013 à 18h 18
Le 10/04/2013 à 16h 30
Le 10/04/2013 à 15h 03
NVidia. C’est pas eux qui disaient qu’il était techniquement impossible de le faire fonctionner sous nunux + XOrg ?
Dont acte " />
Orange : Stéphane Richard rognera sur son salaire pour éviter la taxe à 75 %
10/04/2013
Le 10/04/2013 à 15h 05
Le 10/04/2013 à 14h 27
Le 10/04/2013 à 11h 22
Le 10/04/2013 à 10h 59
Le 10/04/2013 à 10h 49
Le 10/04/2013 à 10h 21
Le 10/04/2013 à 10h 03
[MàJ] Abonné chez Bouygues à 30 Mb/s, limité à 45 kb/s
10/04/2013
Le 10/04/2013 à 14h 21
Adblock : une utilisation de plus en plus massive qui fait réagir
09/04/2013
Le 09/04/2013 à 14h 42
Le 09/04/2013 à 14h 24
Le 09/04/2013 à 14h 21
L’article expose bien les problématiques ; à un détail près amha: nombreux sont les annonceurs qui ne rémunèrent plus à l’affichage mais au clic ; et quand l’AdBlock est utilisé par des internautes technophiles, ils savent déjà ce qu’est une pub, où elle se situe, et ils ne la regardent même plus. Et donc ne cliqueront de toute façon jamais dessus.
Je désactive désormais systématiquement AdBlock de toute url qui est présente dans mes bookmarks, en partant du principe que les sites sur lesquels je reviens sont ceux qui présentent un intérêt et donc qu’une forme de deal gagnant/gagnant est adéquate. Et si le site est pollué de pubs, je trouverai toujours l’info ailleurs.
Mais entre nous, j’espère surtout que ces sites ont une forme de rémunération au nombre de vues car ça doit bien faire plusieurs années que je n’ai plus cliqué sur la moindre pub d’un site que j’ai visité. Donc si la rémunération est basée sur du clic, ne rien afficher ou afficher une pub sur laquelle on ne cliquera de toute façon pas revient au même. Ils faut donc tempérer l’idée que plus d’AdBlock se traduirait par une hausse réelle des revenus pour les webmasters (dont je fais partie, à mon petit niveau).
SSD M500 de Crucial : disponibles à partir de 0,57 € / Go, 545,55 € pour 960 Go
09/04/2013
Le 09/04/2013 à 13h 41
Le 09/04/2013 à 13h 33
Le 09/04/2013 à 13h 23
Le 09/04/2013 à 13h 12
Le 09/04/2013 à 12h 53
Le 09/04/2013 à 12h 38
Le 09/04/2013 à 12h 10
Le 09/04/2013 à 12h 03
Deux SSD d’un To en RAID pour mon ptit NAS ; voilà qui pourrait être sympa et finir complètement ma migration vers du non mécanique.
C’est chouette que les prix deviennent enfin abordables.
La PlayStation 3 n’est pas la bienvenue dans les cellules françaises
09/04/2013
Le 09/04/2013 à 11h 48
Le 09/04/2013 à 11h 35
Le 09/04/2013 à 10h 54
Free annonce « quelque chose de nouveau, révolutionnaire » pour la 4G
08/04/2013
Le 09/04/2013 à 11h 18
Le 08/04/2013 à 20h 24
Le 08/04/2013 à 20h 17
Pour moi on a deux solutions:
Bon, puisqu’on y est, jouons le jeu deux minutes: admettons que Free ait dans les cartons une idée disruptive. Et à ce jeu des suppositions, je ne vois pas 36 ‘révolutions’ à faire si on parle d’innovation dans la 4G pour un fournisseur de tuyau:
solution 2: on fait voler en éclat LA chose qui constitue la principale limitation sur l’ensemble du marché, chez tous les concurrents. Y’a pas à tortiller du poptin, on pense immédiatement au fair use.
Si Dr Geek downloade 4To de Debian comme un malade sur sa cellule, objectivement on s’en tape … s’il est tout seul. Mais si ça doit empêcher Mme Michu connectée à la même antenne de charger tranquilou sa page sur marmiton.org, là ça devient hautement problématique, car la capacité du réseau est limitée par cellule.
Solution: on priorise les flux, mais pas en fonction d’un fair use statique ou d’un type de flux (vidéo vs. http vs. bittorrent vs. …). Non, on priorise les flux dynamiquement à la fois en fonction des utilisateurs connectés à la cellule et leur data déjà consommée:
* Mme Michu qui n’a utilisé que 20Mo de DATA jusque là se verra octroyer 70% de la bande passante juste pour elle.
* Dr Geek #1 qui a déjà consommé 1 Go dans le mois aura 5% de la bande passante ;
* Dr Geek #2 (5Go au compteur) aura 3% de la bande
* …
* Dr Geek #300 (10To au compteur depuis le début du mois) aura 0.1% de la bande passante.
Quand Mme Michu aura fini de télécharger sa page, ses 70% de bande seront immédiatement re-répartis entre tous les Dr Geeks restants, selon le même principe du “moins j’ai consommé auparavant, plus je suis prioritaire”.
C’est techniquement relativement complexe, mais pas infaisable sur un réseau NGN ; et surtout c’est une bombe pour proposer:
Le 08/04/2013 à 13h 12
Des propos qui sous-entendent que Free Mobile préfère annoncer un haut taux de couverture de la population en 4G plutôt que de cibler ville par ville comme le font ses concurrents.
Le problème de Free c’est qu’une proportion relativement importante de leur déploiement d’antennes jusqu’à maintenant utilise une ligne cuivre pour la liaison avec son backbone (je suis le premier surpris du choix, mais je pense qu’ils n’avaient pas trop le choix pour tenir les délais).
Dans cette configuration, proposer de la 4G (et les débits qui vont avec) n’est pas possible ; il faut une liaison fibre pour pouvoir écouler un trafic suffisant.
Donc même si demain ils sortent une offre 4G officielle, ça ne se fera pas sur toutes les antennes déployées jusque là ; seulement celles déjà fibrées. Et on en revient exactement à la même problématique que les autres opérateurs (qui ont déjà masse d’antennes, mais peu déjà fibrées).
[MàJ] Fin des problèmes d’accès au web chez SFR
08/04/2013
Le 08/04/2013 à 12h 34
Quelle est la diagonale d’écran idéale pour une tablette tactile ?
05/04/2013
Le 05/04/2013 à 16h 13
Bbox Sensation : des améliorations sur l’interface, le média center et le Wi-Fi
05/04/2013
Le 05/04/2013 à 10h 59
Ben dites donc, tout le monde s’est donné le mot ou quoi ?
Ca en fait une belle pelletée de commentaires du dredi " />
[MàJ] Facebook Home est disponible pour les utilisateurs français
17/04/2013
Le 04/04/2013 à 19h 02
Le 04/04/2013 à 18h 42
Le 04/04/2013 à 18h 13
Une façon rendue possible par l’ouverture d’Android qui permet une modification plus en profondeur que d’autres systèmes. Ici, on sent surtout une attaque vers iOS
Faut arrêter la fixette sur iOS deux secondes: c’est pas une attaque, juste un fait de par la nature d’Android.
HTC First : le smartphone Facebook Home en exclusivité chez Orange et Sosh
04/04/2013
Le 04/04/2013 à 18h 16
C’est en effet une série de tweets qui vient de confirmer l’information
Des tweets pour annoncer un smartphone facebook.
Ca aurait mérité un meilleur sous-titre " />
Google quitte Webkit et officialise Blink, son nouveau moteur de rendu
04/04/2013
Le 04/04/2013 à 10h 17
Le Sénat veut réguler Google par la théorie des infrastructures essentielles
02/04/2013
Le 04/04/2013 à 07h 42
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres, c’est déjà beaucoup moins pire d’avoir une domination écrasante d’un service malgré un concurrence possible qu’un bridage des tuyaux eux-même
Le 04/04/2013 à 07h 40
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le 04/04/2013 à 07h 40
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le 04/04/2013 à 07h 40
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le 04/04/2013 à 07h 40
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le 04/04/2013 à 07h 40
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le 04/04/2013 à 07h 40
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le 04/04/2013 à 07h 39
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le 04/04/2013 à 07h 39
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le 04/04/2013 à 07h 39
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le 04/04/2013 à 07h 39
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le 04/04/2013 à 07h 39
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.
Le 04/04/2013 à 07h 39
Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.
Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.