votre avatar

yl

est avec nous depuis le 29 mai 2013 ❤️

4032 commentaires

Le 07/07/2014 à 06h 36







JR_Ewing a écrit :



Ouais mais ça c’est du délire de geeks de remplacer les applis par la version mobile d’un site web! <img data-src=" /> Va dire au péquin moyen d’épingler un site web au lieu d’utiliser une appli, il va te rire au nez et aucun péquin moyen ne voudra remplacer sa petite appli avec jolie icone par un épinglage de site web avec icone moche.







Il est vrai que le débile qui donne accès à sa localisation, contacts, micro/cam et j’en passes pour une appli donnant la météo, il mérite aussi un peu de se faire mettre!


Le 06/07/2014 à 06h 04

Ce qu’il faudrait surtout, c’est que les sites web en version mobile progressent afin de ne plus avoir besoin de tout ce qui est lié à un site, ce qui doit représenter l’essentiel de ces applis.



Car devoir installer un truc pour avoir la météo ou facebouc, comment le justifier? En général, c’est surtout que ca permet de demander des droits à piquer dans la vie de l’utilisateur que le navigateur mobile ne permettrait pas (ou pouvant être configuré pour bloquer).



A la place de Microsoft je rentrerais un petit peu plus dans cette critique: Ils n’ont, bons derniers, que cette carte à jouer. En démarrant par une (réelle) appli amha assez différenciante (héritée de Nokia/Ovi-Maps), le GPS. Car cela en est vraiment un: Il n’envoie pas ses demandes de calcul de trajet à Google/Apple car il peut les faire lui même (embarque la carto) et peut fonctionner totalement offline (point d’artifice de préchargement des cartes pour pas trop tirer sur la 3G ici) sans devoir annoncer partout ou vous allez en avance et êtes, en temps réel, à Big Brother himself.



Bref, des vraies applis pour ce qui doit pouvoir fonctionner offline, des sites web mobiles bien foutus pour le reste.

Le 07/07/2014 à 06h 33

Le “motodidacte” est un cré<img data-src=" />, même à l’UMP on le reconnait. Lui et ses accolytes co-dégénérés du sud (Ciotti etc… tous des sarkozystes, allez savoir pourquoi!) y sont surnommés “les pizzaïolos”.

Alors l’effet Streisand a beau être connu… <img data-src=" />

Le 04/07/2014 à 04h 45







OlivierJ a écrit :



Ce que tu décris, avec le cycle read-modify-write, s’appelle “write amplication” (amplification en écriture), et c’est le boulot d’un bon contrôleur de réduire cette amplification (les SandForce ont été innové sur le sujet à un moment).







La compression des données à la volée par exemple… mais reste qu’avoir en permanence des carreaux, que l’on espère parfaits, de ce qui bouge peu sur un SSD pour éviter que ce qui bouge beaucoup flingue trop vite les secteurs de flash correspondants est un problème nouveau. De même devoir rafraîchir les données régulièrement pour éviter leur perte dans le temps génère de l’écriture même quand tu n’en fais pas. Le SSD, c’est le truc qui s’use même si on ne s’en sert pas! Vu ainsi, c’est vrai qu’il vaut peut-être mieux s’en servir…



La fragilité n’est certes plus mécanique, elle est différente mais elle est là.



Par nature une NAND c’est pas fiable, ca tiens pas des années sans fonctionner, les niveaux pour trancher si on a stocké un 0 ou un 1 doivent en permanence être ré-étalonnés, le contrôleur fait en permanence un boulot, plus complexe et risqué qu’un HDD, derrière ton dos et qui a bien plus de chances de poser de gros pépins sur coupure d’alim brutale etc…



C’est comme tout, ca s’utilises a bon escient. Le pb étant que l’on vante une sécurité qui n’est pas forcément meilleure en SSD qu’en HDD pour tous les usages. En gros, il n’y a probablement que pour ceux qui baladent en permanence leur laptop en marche qu’elle sera inconditionnellement meilleure (si l’utilisateur n’a pas trop bidouillé les actions sur niveau de batterie critique)!


Le 03/07/2014 à 17h 01







jeje07 a écrit :



j’ai du mal à comprendre comment tu peux avoir un SSD de 2012 qui soit mort…

ca veut dire quoi “les sections physiques correspondant à l’install Linux et l’install Windows sont HS pour de bon” ??? tu ne réécris par sur ces cellules, elles ne s’usent pas.

comprends pas….







Si, car si ton système de fichiers utilises des blocs logiques (LBA) en adressage… ca ne correspond pas sur un SSD a des blocs physiques. Le controlleur, maintient une table de pointeurs de correspondance pour quand il bouge un bloc physique pour un LBA donné.



C’est obligatoire car une flash nécessite d’effacer (une flash effacée a tous ses bits à 1) avant de ré-écrire (passer les bits qui doivent l’être à zéro) =&gt; une modif d’une donnée d’un LBA, c’est forcément un cycle de read-modify-write qui va réutiliser un autre bloc physique pré-effacé en tâche de fond.



Tu ajoutes le wear-levelling qui va, pour égaliser l’usure, bouger les blocs physiques correspondant aux LBA de ce qui change beaucoup et tu comprends que ce qui bouge peu (fichiers de l’OS/applicatif) va pouvoir se faire botter le cul par des LBA de log/swap ou data régulièrement. Sans aucune considération pour le partitionnement, le controlleur du SSD n’interprète pas la table de partition.


Le 03/07/2014 à 16h 53







Citan666 a écrit :



Si je comprends bien, tu dis que les données sur ssd n’arrivent pas à persister au delà de quelques semaines ?







Cf les spec JEDEC. Selon que c’es un modèle grand public ou pro, la durée varie. Pour les raisons, cf la structure microelectronique d’un bit de stockage flash (un transistor modifié, en gros, capable de stocker une charge… qui va fuir dans le temps).


Le 03/07/2014 à 11h 18







jeje07 a écrit :



faudrait arrêter la parano…..

des tests récents sur des SSD récents de 250 Go montrent qu’on peut écrire au minimum 200 To sur un SSD avant d’avoir des problèmes.







C’est sur que c’est déjà plus encourageant comme ratio… Mais au final le seul truc sur lequel tu peux raisonnablement compter c’est que que l’on te garantit. Et ca baisse pour les raisons évoquées.



Maintenant, ils n’ont pas non plus testé des coupures d’alim aléatoires dans les tests, histoire de voir comment ils apprécient! Le pire étant quand par malheur le firmware arrive à corrompre ses tables de pointeurs de blocs logiques/physiques. Là c’est le blocage pur et simple, tu ne récupères rien. Un HDD tu risquais certes un atterrissage forcé qui t’esquintais un cylindre, si la mécanique commencait à fatiguer et que le parcage des têtes commencait à peiner. Mais en général tu récupérais l’essentiel. Là c’est peau d’zob.



En prime, j’en ai laissé (des HDD) 2 ou 3 ans sans alim, aucun pb pour récupérer une image disque de sauvegarde le jour ou j’en avais besoin. Là, ils ont testé… 7j! Quelques semaines/mois, on aurait rigolé en SSD!


Le 03/07/2014 à 07h 20







sylvere a écrit :



Pour la consistance du système de fichier les OS insèrent ce qu’on appelle des barrières, c’est à dire que l’OS demande au disque d’écrire les données dans l’ordre réellement sur le disque et attends que cela soit vraiment fait.







Le pb étant que le SSD acquitte les blocs recus quand son contrôleur les as mis dans son propre cache (s’il en gère un)… pas quand ils sont physiquement écrits dans la NAND.



Et ca, toutes les précautions de l’OS n’y pourront jamais rien.



C’est pour cela que les SSD gamme pro désactivent le cache et compensent avec une l’organisation interne (parallélisme sur les NAND) pour assurer néanmoins des perfs correctes. Ils gèrent juste un buffer d’écriture, forcément nécessaire a cause de l’obligation d’effacer avant de ré-écrire propre à la flash, très limité en taille et assurent une veille d’alim pour bloquer toute nouvelle écriture quand elle est perdue combiné a des capacités permettant d’assurer la persistence de l’alim interne du SSD les quelques dixièmes de secondes nécessaire à assurer la fin des écritures en attente.



Avec 1GB de cache, c’est pas qq capas qui peuvent faire le job: C’est la batterie d’un laptop qui demeure le seul cas d’utilisation raisonnable d’un SSD ainsi spécifié. <img data-src=" />


Le 03/07/2014 à 07h 02







jeje07 a écrit :



ah bon le swap fusille un SSD? <img data-src=" />







Vu que la moindre machine a désormais 4 à 8GB de DDR, c’est sans doute de moins en moins vrai. Mais ca n’a rien à voir avec le SSD: Le swap ne sert plus a rien, on peut dans la majorité des cas s’en passer en totalité si on ne fait pas de veille prolongée.



Quand à supporter 200TBW, c’est sans doute un peu optimiste pour des modèles actuels. Quand tu vois que Samsung en est à donner 150TBW pour un SSD de 1To, garantir de ne pouvoir ré-écrire en totalité un média que 150 fois je maintiens que c’est juste minable!



Si ca continues, dans 2 ans on en sera au niveau d’une galette réinscriptible. <img data-src=" />


Le 03/07/2014 à 06h 55







OlivierJ a écrit :



C’est drôle ce mythe des logs et du swap qui fusillent un SSD. J’ai mes logs et mon swap sur mon SSD depuis 2009 et il va très bien.







Le pb, c’est que depuis les finesses de gravures ont beaucoup évoluées. Alors la NAND de ton SSD de 2009 supportait minimum 100k cycles d’effacement quand actuellement ce serait probablement plus de l’ordre de 10k.



Fatalement, tu mets désormais beaucoup plus de pression sur le controleur, dont ses algos de wear leveling (et dans une moindre mesure, les raffraichissements périodiques de l’info stockée qui se perds sur la durée par fuite de charges), afin d’assurer la fiabilité.



Et si tu veux avoir les même durées de vie en terme de TBW avec un SSD actuel, il te faudra investir dans un SSD grosso modo 10 fois plus gros que ton modèle de 2009 tout en n’y mettant pas plus de données!



Tout ceci ne t’affranchissant pas des problèmes liés aux blocs que le firmware du contrôleur va (de plus en plus, avec les die-shrinks) bouger dans ton dos: Les LBA de ce qui bouge beaucoup (logs swaps) vont être remappés physiquement régulièrement vers d’autres emplacements libres (si le SSD est en début de vie et pas trop plein) ou qui bougent peu, générant alors des recopies de ces contenus. Et ce qui bouge peu intentionnellement, sur une machine, c’est surtout l’OS/soft… et qui bougera dans ton dos sur un SSD ce qui ne se produisait pas sur un HDD. Là, le bug du firmware ou la coupure d’alim au mauvais moment et c’est des emmerdes qui étaient autrefois envisageables.


Le 02/07/2014 à 16h 20







jeje07 a écrit :





  • un SSD n’est pas fiable selon toi? moins qu’un HDD?







    Selon ce que tu en fais, oui, ca peut en effet être le cas. Quand on creuse un peu, pour y foutre un OS réinstallable à l’envie OK (en évitant d’y coller les logs/swap qui vont le fusiller). Tes photos de famille (même si les tarifs actuels limitent encore), je serais moins affirmatif!


Le 02/07/2014 à 16h 17







sylvere a écrit :



donc ton argumentaire est tellement pessimiste que j’en déduis que tu bosse pour un fabriquant de disque durs.







Non, juste eu à examiner qq cas de corruption car, comme tu le dis, les controleurs intègrent pas mal d’intelligence pour gérer un média flash nand par nature non fiable. Mais là ou il a de l’intelligence, il y a aussi fatalement de la connerie!

<img data-src=" />


Le 02/07/2014 à 13h 48

150 TBW de garantie pour le modèle 1TB, ca fait juste un facteur 150. Il y a peu on était plus proche d’un facteur 1000 sur un SLC correctement géré. Mais les die-shrinks (faisant passer le nb de cycles d’erase de 100k à quelques k) et le MLC ont fait le reste et on arrive a ce résultat assez pitoyable, au fond.



Par ailleurs, 1GB de cache, ca devient du délire. Bonjour l’ampleur de la casse potentielle en cas de perte d’alim. A reserver aux laptops sur batterie (les SSD gamme pro évitent en général tout usage de cache).



Autre aléa peu connu: Le minima garanti (JEDEC) de rétention des données hors alim est de 1 an.



Ca sert à quoi au juste un truc sur lequel on pourra écrire dans la limite de 150 fois sa capacité… et qui ne pourra servir de sauvegarde fiable pour ses photos de famille dont les données bougent peu?

<img data-src=" />

Le 03/07/2014 à 11h 59

Le fait de devoir faire un secure-erase avant n’incite pas trop à l’optimisme sur la criticité des bugs corrigés!

Le 03/07/2014 à 11h 49







larkhon a écrit :



sans doute que le piratage a connu un gros essor dès lors que la technologie permettait au plus grand nombre de se procurer des oeuvres.







Et avant cela, que tout un chacun ait pu les copier sans perte. C’est la machine de Gutemberg, version numérique, pour tous!



Si après cela certains utopistes intéressés s’imaginaient pouvoir continuer longtemps un simple business de moine copiste, anormalement rémunérateur pendant plus de 3 décennies.



Ce juteux business est aussi dû au fait qu’on rachetait pas mal un 33T/45T/K7 ou une VHS qui s’usait. Par contre, quand CD puis DVD sont arrivés le ré-achat et paiement en multiples s’est déjà bien calmé, compensé par une époque assez riche niveau production.



Avec en prime la capacité de faire ses propres copies optiques, puis carrément de laisser tout ca sur le HDD d’un HTPC. Bon, c’est mort!



Faut se remettre aux concerts/spectacles, fini de palper 70 ans sur une interprétation!



Le 03/07/2014 à 07h 06







loloemr a écrit :



Ahahaha …. rm -rf ne supprime pas les données, tu peux relire les blocs tant que l’espace disque n’a pas été utilise.







Bin je te laisses essayer! Faut toujours démontrer ses affirmations! <img data-src=" />



Déjà, sur un HDD, ca sera chaud car l’OS continuera a écrire ce faisant… Mais sur un SSD avec un système de fichier gérant le TRIM, tu oublies carrément: Les blocs signalés libres au firmware du controleur vont passer aussitôt dans sa file de blocs à effacer en tâche de fond et là, turlututu chapeau pointu tu l’as dans le c<img data-src=" />!



<img data-src=" />


Le 02/07/2014 à 16h 23







psn00ps a écrit :



Ca ne serait pas l’installeur qui vire la lib en question ? Donne des détails.

EDIT: Il y a un mécanisme pour la gestion des librairies partagées, et ton programme tiers ne devrait pas écrire n’importe où.







C’est le désinstalleur qui a viré une lib autrefois sans pb de nommage. qu’un update de windows avait visiblement remplacé pour son propre compte car c’est tombé sur le même nom (pas de bol, j’avoue!)…


Le 02/07/2014 à 13h 37







arno53 a écrit :



Probleme de l’OS ou de l’application ? <img data-src=" />







Quand l’OS va, au hasard d’une upgrade, réutiliser le nom d’une lib partagée qui était avant pris par un media player tiers. Qu’un jour (tu l’utilisais plus depuis des plombes, VLC power!), tu te rends compte que cet applicatif ne fonctionne plus et que tu décides de le virer (proprement, avec l’outil installation/suppression de programmes de windows) car t’as besoin de place… et que ce débilon d’OS te vire (erreur fatale) ce qu’il avait écrasé de ses gros sabots (1ère erreur!)… et que, pas de bol, ce qu’il t’avait écrasé est un truc sans lequel l’interface graphique ne fonctionne plus du tout sur un OS ou il est impossible de s’en passer.



Bin t’es mal! Pb de l’appli? Je crois pas, non! <img data-src=" />


Le 02/07/2014 à 13h 27







Bejarid a écrit :



J’ai vu pas mal d’exemple de Linux où le rétablissement du système fut épique, loin de ce qu’il est possible de se taper sous Windows.







Sous windows, en général c’est réinstall ou recoller un master. Même en entreprise avec des gens qui ne font que cela, plus personne ne s’emmerde au delà de 5mn pour corriger un gros souci.



Linux a un niveau de log et qq outils qui permettent en général de procéder plus finement et de corriger le tir.



C’est un peu l’avantage boite blanche versus boite noire. On peut aussi démarrer sans interface graphique et sur un système bien plus minimal (single user root et juste un terminal texte) qu’avec windows, d’une modif de la ligne de boot en s’arrêtant dans le boot loader.



Avec tout ca, mis à part le \rm-rf /, quasiment tout se répare.


Le 02/07/2014 à 11h 27







Guinnness a écrit :



Perso je passe plus de temps à updater ma Gentoo que mon Windows donc non ça n’est pas forcément plus rapide avec le manchot <img data-src=" /> (comment ça c’est un cas particulier ? <img data-src=" />)







En devant tout recompiler et, en gros, la faire from scratch, ta distro… T’es un peu hors concours!



Ceci dit, pas certain qu’avec un peu d’habitude tu n’arrives à les battre: Avec le plus pourri des µP en vente, les compils ne sont plus si lentes comparé à ce c<img data-src=" /> de win update!

<img data-src=" />


Le 02/07/2014 à 11h 20







Bejarid a écrit :



Et l’update d’un Windows, si elle est plus longue que celle d’un pinguin, elle est facile. Loin du pinguin.







En 30 mn d’un disque vierge, le pingouin il est opérationnel et à jour: Il aura tiré dès la netinstall les dernières versions des dépots de la distro.



Quand on aura du réseau 100GB et des SSD partout, microsoft commencera à être d’une lenteur acceptable mais ce ne sera pas grace à leurs progrès intrinsèques…



Ensuite, les updates du pingouin, en tout auto ou en manuel, clicodrome ou ligne de commande, c’est du velours. Jamais eu un pépin, même avec des configs pas vraiment standards, quand de simples desinstallations de soft, même pas OS, sous windows m’ont parfois pêté des installations complètes.


Le 02/07/2014 à 08h 43

De toutes manières, les updates de windows ont toujours été mal gérés. Il n’y a qu’a devoir restaurer une ancienne image pour voir a quel point c’est aberrant. Récemment, j’ai dû le faire sur un Seven a partir d’une image d’install d’origine vieille de 2 ans, pré SP1:

-Totalité des updates pré-SP1, dans l’ordre.

-Le SP1.

-Totalité des upgrades post-SP1, dans l’ordre.



Ca mets quasiment la journée. Pitoyable. Tout cela car cet OS reste peu modulaire!



Il pourrait au moins passer direct à la seconde étape. Voire zapper les upgrades incrémentaux qui sont depuis annulés par un autre pour passer direct à la version actuelle.



Bin non, quand on l’est, on l’est… et des tétrachiées d’utilisateurs partout dans le monde perdent leur temps avec ça.

<img data-src=" />



Je plains ceux dont le métier est d’administrer cette vérole.

Le 02/07/2014 à 09h 00







js2082 a écrit :



+1

Quand on voit ça, on comprend bien que rien n’empêche la compatibilité des manettes ps3 sur ps4, une simple mise à jour logicielle suffirait.



Sony prend bien ses consommateurs pour des cons sur le coup.

Bien fait de ne pas acheter de PS4.







Manettes, ps-move+caméra…



=&gt;Moi aussi je suis resté sur l’ancienne. En plus la nouvelle ne fait même pas média-center! <img data-src=" />


Le 02/07/2014 à 08h 20







Cara62 a écrit :



Attendez, je rêve, mais, Sony fait de la rétrocompatibilité. <img data-src=" />







La rétro-compatibilité, ce serait plutôt de ne pas devoir foutre à la poubelle les contrôleurs d’une PS3 en passant à une PS4.



Maintenant, la manette PS4 sur PS3, sans vibration/capteur de mouvement ni la capacité à démarrer/arrêter la console, ca limite l’intérêt.



Le véritable objectif de cette MAJ, ca semble surtout avoir été de modifier le FW du lecteur BR afin d’empêcher les loaders d’ISO pirates de fonctionner, jusqu’a la prochaine parade.


Le 02/07/2014 à 08h 06

Il est vrai qu’Orange a le temps qui joue pour lui, la valorisation de Bouygues Telecom ne pouvant que baisser…

Le 02/07/2014 à 08h 03







Konrad a écrit :



La dernière fois que j’ai abordé le sujet ici, on m’a rétorqué «oui mais les utilisateurs sous Windows seraient perdus avec des bureaux virtuels».







Si perdus que jusqu’a XP, microsoft proposait au moins Desktops dans ses power-tools. Non fonctionnel ensuite: Seven refuse l’install d’ailleurs.



C’était pas parfait (pas possible de bouger une appli d’un bureau virtuel à l’autre etc…), mais ca avait le mérite d’exister quand on ne peut vivre sans.



Sur Seven, le laptop du boulot ayant dû migrer, le mieux que j’ai trouvé qui fasse bien le job tout en restant léger, c’est mDesktop.



Sur le fond, je suis d’accord: Microsoft s’est chié dessus avec une interface monofenêtre qui ramène un peu, en graphique et plus joli, au bon vieux terminal plein écran. Ce qui est un retour en arrière.



Il aurait été plus simple de copier les bonnes idées pré-existantes ailleurs, comme les bureaux virtuels… ou intégrer le fait que les souris aient des boutons du milieu depuis plus de 10 ans, pour les copier coller sélection puis clic milieu. L’autre truc qui te fait conchier Redmond quand tu es obligé de te servir d’un de leurs OS.


Le 02/07/2014 à 04h 21







Tirr Mohma a écrit :



C’est l’objectif de Canonical avec Unity. Et d’ailleurs ils font ça plutôt bien.







Si bien que, comme avec Microsoft, tout le monde gueule. Avec en prime les distro dérivées qui reviennent de + en + à la base originale, Debian, car le machin Ubuntu nécessite de patcher de plus en plus lourdement l’applicatif, ce qui leur pose des pb quand ces dérivés ne veulent pas d’Unity.



Et pose aussi pb aux utilisateurs, avec de moins en moins d’applicatif des dépots non supportés (mais présents et tirés direct de Debian) fonctionnant sans anicroche.



Si c’est pour perdre la richesse de Debian en n’ayant toujours pas un truc hyper stable, autant aller chez RH ou CentOS: Là le contenu des dépots est minable en comparaison, mais bon, les autotools ca marche bien et au moins on gagne une distro de base béton qui évite de disperser l’écosystème.


Le 02/07/2014 à 04h 14







damaki a écrit :



Ayant un fond audiophile, j’ai un Sansa et j’ai été déçu. J’aime pas Apple, mais pour les interfaces des lecteurs MP3 et la qualité physique, il n’y a hélas pas photo. Je l’ai aimé mon Sansa, mais c’est vraiment cheap et l’interface est pourrave, même en mettant RockBox dessus.







Hélas, Cowon n’innove plus trop. Il y a bien qq lecteurs audiophiles de marques chinoises qui semblent pas mal (et font DAC en même temps), mais j’ai pas encore osé!



Sur le Sansa, ce qui m’emmerde c’est qu’il ne charge que si l’USB est monté: Le truc débile commun avec les manettes de PS3 par exemple et qui oblige à avoir une machine en route pour charger le truc. Mais bon, comme Apple est bien assez con pour avoir fait pareil…



Débile de gâchis d’electricité.


Le 28/06/2014 à 15h 00







misterB a écrit :



C’est vrai que ALAC c’est de la merde







Non, c’est aussi sans perte… Y’a juste qu’on ne le trouve nulle part ailleurs et que ce n’est donc pas un format d’archivage valable.



Et un truc qui n’a aucune utilité quand on a sa sonothèque encodée en FLAC pour être lisible partout, c’est juste un fameux “deal-breaker”, en anglais dans le texte, histoire d’espérer que ca tilte un jour du côte de Cupertino.


Le 27/06/2014 à 16h 44







G33K-V2 a écrit :



Le flac c’est possible mais c’est payant et galère. Surtout que j’ai l’impression qu’il y a une perte de qualité du son (Avec flac player)







C’est surtout qu’une circuiterie son taillée pour mp3 et aac châtrés sur la dynamique… qqsoit la qualité du décodeur! <img data-src=" />


Le 27/06/2014 à 16h 42







Reznor26 a écrit :



J’aurais tendance à être d’accord avec toi pour mon usage purement personnel, sauf que les deux produits n’ont strictement rien à voir. Ça n’a donc pas le moindre sens de comparer leurs prix.







Pour, a citer a qui je répondais, “avoir plein de musique dans la poche”… Si.

Contexte, toussa… <img data-src=" />


Le 27/06/2014 à 15h 08







Pyvs a écrit :



Je pense que l’ipod touch permet d’offrir à un enfant…







Un truc fragile et irréparable dont l’écran va péter tôt ou tard (mais certainement tôt!) sur une chute…



Et puis comme souligné par ailleurs… devoir passer par iThunes donc installer cette merde quand des trucs à 40€ sont vus comme un stockage de masse standard, ca calme.


Le 27/06/2014 à 15h 05







damaki a écrit :



A avoir beaucoup de musique dans la poche (60 Go) sans payer 917€ pour un iPhone 5s 64 Go.







Ouais, mais pour cela, un Sansa 8Go à moins de 50€ et une µSD de 64Go à 30€: 80€ pour un truc bien plus petit/autonome. On est loin de plus de 300€ pour un truc d’une marque qui n’a pas encore compris que faire des lecteurs avec peu de memoire intégrée mais un slot SD, ca permet de contourner en grande partie la ponction copie privée chez nous (barème carte mémoire très inférieur à celui du stockage d’un mp3).



Bon, ca fera certes pas console de jeu, mais le Sansa a un meilleur son et saura lire le FLAC auquel Apple semble être allergique… et sera vu comme un stockage de masse standard (fuck iTunes!).


Le 02/07/2014 à 04h 11







philoxera a écrit :



le ministre de l’écologie qui ferme des centrales nucléaires: pareil, etc etc







Si c’est pour rouvrir des centrales à charbon, voire au sous-charbon de surface qu’est la houille, pour prendre le relais comme chez les schpountz (tandis que les chinois cherchent à en sortir)… il méritera surtout d’être satellisé à coups de pieds au c..



<img data-src=" />



Remarque, quand le nuage croissant sera porté ici par les vents d’Est l’hiver, on accusera le diesel, ce qui “légitimera” d’en augmenter les taxes.



Les écolos, faut surtout les recycler. Façon “Soleil Vert”.


Le 27/06/2014 à 16h 52



Le premier à dire NSA dans les commentaires ira au coin





Syndrome VHsword?<img data-src=" />

Le 27/06/2014 à 16h 51







jeje07 a écrit :



Récemment j’ai passé des tests à l’AFPA, le test d’anglais datait de……. 1995! la bureaucratie à la francaise…….







La langue anglaise a été révolutionnée, depuis?! <img data-src=" />

T’as foiré et l’as mauvaise? <img data-src=" />


Le 27/06/2014 à 16h 50







linconnu a écrit :



Honte à notre pays. En plus une migration vers Windows 7 c’est irresponsable, l’OS est déjà dépassé.







C’est vrai qu’opter pour ce grand succès qu’est win8.1.2 et bientôt 3, avec win9 qui se fait rebooter histoire d’arrêter les conneries!



=&gt; Win7 sera le nouvel XP, prolongé car son successeur (win8 dans le role de vista) n’aura pas pris.



C’est donc un très bon choix. <img data-src=" />


Le 26/06/2014 à 16h 27

Franchement, j’ai envie de tout sauf d’une Gogole-Black-Box chez moi…

Martin vends son âme au diable, qu’il y aille!

Le 25/06/2014 à 11h 02







Deep_INpact a écrit :



Pour DSK c’était Sarcelle, lui aussi PS dans une ville populaire et avec des idées politiques plus proches du capitalisme ultra-libéral.







J’avais un prof d’éco en école d’ingé qui eu enseigné là ou DSK avait étudié et qui se souvenait très bien d’une déclaration en aparté a un pot de diplomés avec un de ses condisciples visant une carrière politique, qui donnait a peu près “tu vas aller t’encarter ou, toi? Au PS: Car il n’y a pas d’économiste intelligent au PS donc

si un jour le PS gagne les présidentielles je serais forcément ministre de l’économie!”.



Et ce fut le cas.



Ca relativise un peu l’engagement en politique, même si dans la situation actuelle je pense qu’il n’aurait pas pu être pire qu’un Hollande arrivé là par défaut. D’ailleurs, probable que DSK se soit fait dégommer avec une fine utilisation de ses penchants queutards car même s’il est tendance libérale, ses opinions sur la remise en cause du dollar comme monnaie mondiale à travers les bons de tirage du FMI comme possibilité de découpler le monde des USA crisogènes, ca agaçait aux USA.


Le 24/06/2014 à 15h 24







Deep_INpact a écrit :



“autant d’arguments qui avaient fait mouche à l’époque auprès des partisans de la liberté de communication”



Ils ratissent large au PS et manuel el blanco, n’y fait pas exception…







Manuel, il est pas intellectuel!


Le 24/06/2014 à 14h 53







webshaker a écrit :



Une petite loi forçant les hommes politique à présenter leur excuses à la nation en publique lorsqu’ils changent d’avis ne serait pas de trop !







Je ne pense pas que ca leur ferait peur: Quand tu ne penses pas ce que tu dis, tu te fous de donner des excuses tout aussi pipeau.



Ce qu’il faudrait c’est une invalidation automatique de l’élection si les engagements de campagne ayant incité les gens a voter pour celui qui les aura donnés ne sont pas tenus.



Ça éviterait les dérives démagogiques consistant à promettre n’importe quoi pendant la campagne… et le reniement signifierait la porte.


Le 24/06/2014 à 14h 49

Vraiment, avec des cons pareils comment s’étonner que tout parte en couille dans le pays et que les résultats des dernières élections soit aussi navrant?



Autant voter pour la girouette du toit de l’église du saint Bobard… <img data-src=" />



Socialiste et énarque, je me disais bien que Hollande était un cumulard. Le seul truc positif, c’est qu’a force de retourner sa veste l’autre suceur de roue de Sarko va bien finir par se griller.

<img data-src=" />

Le 23/06/2014 à 17h 02







flobo09 a écrit :



Assez logique car les nouvelles versions de Skype fonctionnent maintenant sous une nouvelle version du bon vieux protocole MSN







Logique, oui… tout le monde n’a pas les égards de pci:

http://m.korben.info/tox.html


Le 23/06/2014 à 16h 14







Bejarid a écrit :



NXi sans troll anti-MS, ça serait plus NXi après tout !







Si passer d’un modèle décentralisé et P2P (qui a été notoirement difficile a intercepter pendant une décennie) à un modèle centralisé n’a comme seul dessein d’avoir à se fader une bande passante énorme pour certains… Laissons les sworder!

<img data-src=" />



Skype avait été conçu par des gens intelligents ayant du trouver des solutions car ils n’avaient pas les moyens de louer des serveurs propres à faire communiquer le monde de manière fiable. Il a été racheté par un marteau pilon…


Le 20/06/2014 à 04h 15







Drepanocytose a écrit :



Bah dis donc, il s’indigne vite le président…

Vache, ca doit être difficile de vivre avec une dignité aussi étouffante.







Ce qui est indigne, c’est de vivre ainsi en charognards. Ces “ayants droits”, ne les appelez plus ainsi mais “rentiers du droit d’auteur”. Et a tout les étages ils se gavent, cf aussi les intermittents dont le régime vit aux dépends des autres car des collègues de ce digne personnage se servent des avantages pour ne pas payer beaucoup d’heures travaillées.



C’est bien de remettre ce type de personne et sa dignité à leur vraie place… <img data-src=" />



Ce serait mieux de confisquer leurs comptes en banque si mal acquis.


Le 19/06/2014 à 14h 12

Si c’est un celeron, il serait pas mal de savoir si c’est une architecture de PC classique… Afin d’avoir la liberté de lui coller autre chose que le firmware maison!

Le 17/06/2014 à 10h 56







durthu a écrit :



On peut enregistrer la carte avec Google maps pour une utilisation hors ligne.







Ouais mais c’est a priori asseaz contraignant: Tu enregistres ce qui va border un itinéraire planifié. Si tu en sors (ou pars faire un tour d’Europe), c’est mort.



D’ailleurs, le fait de ne pas avoir la carto résidente implique de ne pas pouvoir calculer d’itinéraire localement: Le truc est forcément dépendant de la data et des services de google. Le truc juste aberrant sur un réseau mobile. Et ce n’est pas comme si tout smartphone n’avait pas des capacités mémoire/calcul à faire pâlir un PC de plus de 57 ans. Google veut juste savoir ou chaque utilisateur va en plus de là ou il est présentement et de ce qu’il dit/écrit.


Le 17/06/2014 à 10h 49







mamath7 a écrit :



Il y a un surcoût ou des restrictions par rapport à un googleMap? Ou on est pas du tout sur le même produit? Ca m’intéresse la carto europe.







Non, aucun surcoût… Nokia (Ovi, désormais) maps est inclus avec update (monde) à vie. C’est pas nouveau, même sur les anciens Symbian c’était déjà le cas (depuis facile 5 ans).



Les anciens modèles de Nokia avaient parfois des pb de sensibilité GPS rendant quasi obligatoire au moins le download des éphémérides satellite (afin de savoir lesquels chercher, c’est le mode A-GPS) avant chaque utilisation ce qui faisait consommer un peu de data. Là, sur le 630, en standalone c’est juste parfait.



Je dirais que c’est même mieux que tom-tom au niveau des recalculs d’itinéraires: tom-tom a tendance a être très con et vouloir te faire faire demi-tour pendant au moins 10mn (et je suis gentil, j’ai observé jusqu’a 1/2h) quand tu choisis de diverger de manière impromptue. Là en 2mn c’est recalé en tombant en général sur ce que tu voulais faire. Agréable et n’oblige a aucune manip au volant afin de lui faire fermer sa g…!


Le 17/06/2014 à 09h 14

J’ai récemment renoncé a acheter le G pour cause de batterie non extractible. Au final, j’ai rajouté un peu, gagné 2 core, de la mémoire et la batterie extractible tout en conservant les 2 sim que je souhaitais avec un Lumia 630.



Dommage, ces appareils comblaient pourtant tous les autres manques (double sim, µSD) des précédents modèles.



Bon, au final y’a moins d’applis kikoolol que sous Androïd mais rien que le GPS avec carto mondiale sans tirer de la data (et fonctionne mieux que mon tom-tom) à flinguer son forfait (ou devoir avoir chargé son parcours a la maison avant, bonjour le merdier) vaut le coup. Le reste étant aussi plutôt une bonne surprise.

Le 17/06/2014 à 09h 18



La prochaine fois, les mots de passe hashés menu avec un peu de sel svp





<img data-src=" /> <img data-src=" />