votre avatar

lionnel

est avec nous depuis le 25 mars 2004 ❤️

598 commentaires

Le 24/01/2014 à 21h 08



de l’avis de ceux qui en ont eu la meilleure utilisation qu’on pouvait en faire c’était comme presse livre, et en plus pour ça ils sont très fiables vu leur poids



Même pas, ils étaient volumineux mais pas bien solides , avec leur boîtier en espèce de fer blanc. le dernier a être passé entre mes mains (récupéré aux encombrants) a cassé net au premier coup de masse, même le métal est merdique









Guinnness a écrit :



D’un autre coté la quasi totalité des machines de l’époque feraient passer un Atom actuel pour une machine de gamer hein ;-)







Évidement que l’on va pas comparer un Cyrix P166+ à un atom ou tout cpu actuel, j’évoquais simplement l’arnaque des machines à moins de 5000F sorties en 1997, ce qui pour l’époque était une baisse importante (il fallait compter 7000 un an avant).

Sauf que cette baisse a été rendue possible par l’utilisation de composants au rabais, entre autres le Cyrix P166+ qui en plus d’etre une arnaque manifeste chauffait à mort (pour l’epoque) posait des soucis avec certains drivers…, mais aussi les Quantum Bigfoot évoqués plus haut, la ram EDO deja obsolète, et bien d’autres



Résultat, ça a donné des machines lentes, instables et qui faisaient pitié en comparaison de ce qui était vendu 1000 à 2000 F plus cher. La lenteur et les limitations étaient bien plus contraignants qu’avec une machine entrée de gamme actuelle qui suffit largement à des besoins “basiques” (surf, bureautique ou multimedia de nos jours) sans ralentissement. En 97 même l’usage de base était galère.



Ps: j’oubliais les écrans 14 pouces bombées qui tuaient les yeux



Le 23/01/2014 à 14h 51

Dans mes souvenirs les HDD IBM étaient réputés, du moins à une époque très lointaine. Par contre debut 2000 j’ai vu passer un paquet de Seagate Cheetah 36go complètement cramés, pour la plupart hors garantie.



Enfin ma pire experience en matière de stockage ca reste de loin les Quantum Bigfoot en 5.25p. Des disques durs “low cost” qui avaient tout pour déplaire:



Des performances anémiques, due à une vitesse de 3600 rpm et une densité faible

Un bruit juste atroce, même neufs ils faisaient le même bruit qu’un disque à l’agonie

Un design carrément cheap et pas du tout engageant

Une taille de 5.25 pouces pas toujours pratique.

Et bien sur la fiabilité catastrophique.

Pour ne rien arranger on retrouvait souvent ces disques dans des machines premier prix à base de Cyrix, le genre de trucs qui ferait passer un atom pour une machine de gamer.





C’est le problème pour les marques qui font dans le stockage, il n’y a que très peu de droit à l’erreur et au moindre faux pas on est rapidement catalogué “produits de merde à fuir comme la peste”, et un fois qu’on s’en taillé ce genre de réputation c’est pas facile de faire machine arrière





C’est plus ou moins comme ca que la plupart des fabricants ont soit été rachetés ou ont coulé. Entre autres:



Quantum avec les Bigfoot

IBM avec le 75GXP

Iomega et le Zip

Excelstor qui n’a jamais décollé (qui serait assez fou pour acheter un disque dur chinois)

et bien sur Maxtor



Je dirait qu’en matière de stockage ce n’est pas très peu de droit à l’erreur, c’est pas de droit à la moindre erreur. A part pour les 2 géants actuels vu q’il n’y a plus vraiment d’alternative, mais toshiba a intérêt à ne pas se planter sous peine de se faire bouffer.

Le 23/01/2014 à 10h 34







Guinnness a écrit :



Vu l’image de marque associée avec OCZ il aurait peut être été préférable pour Toshiba d’enterrer ce nom pour repartir sur “des bases neuves” (un peu comme la “transformation” Goldstar > LG qui a réussi à faire passer une marque renommée pour ses produits low cost merdiques au possible de merde pour une marque limite haut de gamme)







Tout à fait d’accord, je pense d’ailleurs que c’est ce qui pourait se produire d’ici. Toshiba va attendre un peu avant de passer les produits OCZ sous sa propre marque. A moins qu’ils ne profitent du fait que OCZ soit considéré comme “entreprise américaine” à l’heure ou les ricains sont de plus en plus sensibles à cet aspect et ou certains jouent indirectement la dessus, apple en tête (même si on sait trés bien que tout est made in china, mais c’est un autre problème)







Guinnness a écrit :



Cela dit Toshiba est coutumier du fait pour le rachat de boites fabriquant de la camelote, si je ne me goure pas c’est aussi eux qui avaient racheté la division disques durs d’IBM.







C’etait Hitachi qui ont racheté l’activité stockage d’IBM en 2002, avant d’être eux mêmes rachetés par WD, achevant ainsi le quasi duopole de la fabrication de disques dur.

La grosse différence avec OCZ est que exception faite de la série des 75GXP “Deathstar” pour lesquels la faute a été reconnue, les disques dur IBM étaient dans le haut du panier niveau fiabilité. La vente c’est surtout faite car IBM voulait se séparer de cette branche comme ils se sont séparés de la branche PC 2 ans plus tard. OCZ est loin d’etre en aussi bonne santé.


Le 23/01/2014 à 17h 54



Maintenant, rénover le réseau téléphonique en France malheureusement c’est devenu un problème politique. On a très bien vu comment FT/Orange est passé du public au privé et malheureusement les régions/villes malgré les recommandations qu’on leur a donné à l’époque ont préférés se livrer pieds et poings lié à FT.





C’est bien là l’effet pervers de la baisse de prix poussée à l’extrême. Actuellement la France est 37eme pour ce qui est du débit moyen et c’est pas prêt de s’améliorer.

Je me souviens des propos d’un ancien tech de chez France telecom qui, alors que le dégroupage total se développait à peine, s’inquiétait de voir la boule locale deja pas au top se dégrader encore plus faute de rentrées d’argent et d’engagements dans ce sens.



Pour moi, la solution aurait été de faire comme pour l’électricité et le gaz, séparer FT en 2 entités, d’un coté Orange et de l’autre un gestionnaire de réseau en charge de la boucle locale, et détenteur d’une mission de service public. Ainsi, ce serait l’état qui fixerait les tarifs d’utilisation de la boucle locale, répercutés sur la facture de l’abonné. Évidement que ça aurait entraîné une hausse de prix, mais à mon avis il y a peu d’autres solutions pour assurer l’entretien et l’évolution des réseaux. Le problème est qu’il est juste impossible de faire ça maintenant.



Dans le même registre, on dit souvent que les FAI belges sont chers en ADSL et très chers en câble, mais ce que l’on dit moins, c’est que les débits sont bien meilleurs. Y compris dans des hameaux excentrés où en France on n’aurait que 2 mb les bons jours.

Je cite une réflexion entendue plusieurs fois: Telenet c’est pas Numéricable ni Free, y’a un vrai service derrière. Et un réseau de qualité ça se paye.

Le 22/01/2014 à 20h 44







refuznik a écrit :



Ou vois tu que c’est équitable sur le papier ou dans tes rêves peut-être ?

Tu as très bien vu ces dernières années non seulement les prix de l’adsl chez les principaux FAI. D’ailleurs je t’incite à regarder les prix d’un abonnement professionnel adsl chez Orange par exemple. Et sans même allez jusque là, le prix d’une connexion adsl+telephonie chez orange vis à vis de ses concurrents sans valeur ajouté.



Et je ne parle même du prix de la data chez les principaux fournisseurs qui au dernières nouvelles sont aussi FAI.



Bref si tu milites pour de l’adsl payant à la data avec ou sans débit (en pack genre 50 roros la connexion + racker l’excédent de débit), je ne peux rien pour toi.







Même en les relisant plusieurs fois, je n’arrive pas à comprendre la signification des 2 premiers paragraphes.



Pour le 3eme, où tu a vu que je parlait d’accès internet avec un quota de transfert (je présume que c’est de ca dont tu parle lorsque tu évoque “l’adsl payant à la data”). Je n’ai d’ailleurs pas dit que le système de R-mundo était idéal (pour rappel “un peu plus équitable” n’est pas vraiment une formulation élogieuse)



Non, je disait simplement que moduler les tarifs en fonction du débit serait moins injuste pour ceux qui sont bloqués avec des débits dignes des années 90.



Pour info, dans nombre de coins en France, le réseau téléphonique est dans un état lamentable, dans ma ville pourtant pas si petite (10 000 habitants) ca fait depuis 2005 que l’on réclame une augmentation de débit (qui vont de 6mb au mieux à 512k pour les quartiers un peu excentrés) et que ni Orange ni la mairie ne bougent. Et bon nombre de villes ou quartiers ont le même problème.



C’est bien beau de dire qu’en France on a les accès internet parmi les moins cher d’Europe, mais on a aussi un des réseau “cuivre” les plus pourris, un déploiement de la fibre abominablement lent, et des millions d’abonnés avec un débit de moins de 8mb. Peut être que si les tarifs étaient ajustés en fonction du débit, les FAI seraient plus enclins à proposer à l’ensemble de leur abonnés un débit supérieur, vu que ca serait plus d’argent dans la poche.


Le 22/01/2014 à 15h 16







Soltek a écrit :



C’est plus “Mundo-R” d’après leur site.

Au passage c’est marrant chez eux, plus tu veux un débit élevé, plus tu paies cher :\







Ben je trouve ca un peu plus équitable que le système français ou tout le monde paye le même prix, et ensuite c’est la loterie pour les débits, allant tout de même de l’adsl à 512kb/s jusqu’à de la fibre à 1gb/s. CA n’incite pas les FAI à monter en débit.

Par contre les tarifs de l’ADSL chez ce fai espagnol sont juste effrayants, 55€ pour du 20mb, alors que le même débit en fibre coute 20€ de moins.


Le 21/01/2014 à 14h 16

N’empêche que c’est assez ironique de voir les éditeurs de ce genre de jeux “pompe à fric” blinder leur propriété intellectuelle, alors que tout leur business repose sur la repompe de concepts et de gameplay de jeux “classiques” des années 90. Heureusement pour eux que les éditeurs de l’époque n’avaient pas fait pareil.



Farmville et ses dérivés = Theme park (ce serait une insulte que citer simcity)

Bubble Safari = Puzzle Bobble

Forge of Empires = Civilization, avec un gameplay plus proche de Caesar

Candy crush = Money puzzle exchanger puis Bejewlled par la suite



Bref zéro innovation, que du plagiat éhonté.

Le 14/01/2014 à 20h 24







Patch a écrit :



ca tombe bien, ce n’est pas un microdrive. ou alors pour toi 1 pouce ou 2,5 pouces sont la même chose?

et un élément mécanique est toujours une faiblesse, dans une machine faite pour être transportée.







La plupart des lecteurs mp3 utilisaient des disques de 1.8 pouces, dont la capacité allait de 5go (en 2001) à 160go (2007). Ces disques supportent très bien l’utilisation nomade,



Les microdrive de 1 pouce allaient de 150mo (1999) à 8go en 2006, étaient au même format que les cartes CF mais leur fiabilité etait moindre.



Un disque dur de 1.8p avec les densité de stockage actuelles pourait faire entre 500go voire 1 to. en 1 pouce on peut envisager 320go, mais la miniaturisation du moteur et des tetes pourrait poser problème. Ca permettrait de disposer d’une capacité de stockage importantes sur des appareils nomades, les grand voyageurs appréciaient sûrement



Le 14/01/2014 à 15h 42







fred42 a écrit :



Dans ce cas, ce n’est pas difficile :

Tu dis que les 2 € sont le pourboire et tu pars.

Si on t’en empêche, c’est le commerçant qui aura des problèmes.

Refus d’un billet valable.

Entrave à la liberté de circulation :on te retient contre ton gré.

Coups et blessures : bah oui, comment te retenir sans violence alors que tu pars et que tu es dans ton bon droit.







Faut faire gaffe avec ce genre d’interprétations hâtives, et remplies de mauvaise foi, tout ce qui pourrait t’arriver avec ce genre de logique est d’avoir de gros ennuis. Surtout que ton argumentaire ne tient pas debout.



Déjà, comme dit plus haut, aux yeux de la loi c’est au client de fournir l’appoint. Pour l’excuse du pourboire, rien n’oblige le restaurateur à l’accepter.



Pour le refus d’un billet valable, encore faut t’il prouver qu’il est authentique. Dans le cas contraire le commerçant est en droit de refuser tout billet qu’il soupçonne d’être faux. Sauf que ce refus ne te dispense pas de payer pour ce que tu a consommé. Ou au minimum de fournir à ton débiteur des garanties suffisantes: autre moyen de paiement, reconnaissance de dette, pièce d’identité…



Pour info, refuser un billet c’est 150€ d’amende Par contre, partir sans payer c’est de la grivèlerie, et c’est un délit passible de 6 mois de prison et 7500€ d’amende.



Vu que l’on est face à un délit de grivèlerie, le commerçant est tout à fait en droit de te retenir en attendant l’arrivée de la police en vertu de l’article article 73 du code de procédure pénale. Et ce y compris contre ton gré.

La séquestration et les coups et blessures ne pourront être retenus que si l’accusation de grivèlerie s’avère infondée. Ce qui ne risque pas d’être le cas si tu t’enfonce dans la mauvaise foi de la sorte. Dans tout les cas rares sont les juges qui statuent dans ce sens, sauf abus manifeste.





Le 13/01/2014 à 21h 02







joma74fr a écrit :



Simcity 2013 est un jeu social plus qu’un jeu de gestion de ville.



Pour ce qui est des mods, étonnant qu’ils soient gratuits puisque “villes de demain” est payant…







+100. J’ai l’impression que EA se sont largement “inspirés” des jeux sociaux type farmville, Cityville… et ont complètement oublié l’aspect gestion. La ou ca devient drôle c’est que Cityville n’est qu’un vulgaire plagiat de Simcity auquel on a rajouté l’habituel délire des jeux Facebook: actions limitées, taches répétitives…



Aprés, je ne pense pas q’un simcity basé purement sur l’aspect gestion et simulation économique trés poussée rencontrerait beaucoup de succès. Combien de joueurs vont acheter un simcity pour les fonctionnalités de simulation économique ou la possibilité de gerer les multiples contraintes d’une grande métropole? Je pense que ce qui intéresse plus le joueur c’est l’aspect construction et “desing” plus que la gestion


Le 12/01/2014 à 20h 09







youri_1er a écrit :



Yt comme FB réagis bien plus facilement au sexe qu’a la violence, c’est tout de même aberrant quand on vois qu’un téton ne passe pas alors que ce genre de vidéo passe et reste longtemps en ligne!







Problème résolu, le compte du mec (qui contenait 11 autres videos) a été fermé, il reste encore 2 réupload qui devraient pas tarder à gicler aussi des qu’ils auront un peu de vues.


Le 12/01/2014 à 11h 52



Il y a certainement un texte de Loi qui réprime ce genre d’apologie ‘au moins pour les supports de diffusion)

je vais aller voir sur Youtube la tête qu’il a. (a ben non, ça va lui faire une vue de + :-( )





Il y a bien une loi, l’article 24 de la loi du 29 Juillet 1881:





Seront punis de cinq ans d’emprisonnement et de 45 000 euros d’amende ceux qui, par l’un des moyens énoncés à l’article précédent, auront directement provoqué, dans le cas où cette provocation n’aurait pas été suivie d’effet, à commettre l’une des infractions suivantes :



1° Les atteintes volontaires à la vie, les atteintes volontaires à l’intégrité de la personne et les agressions sexuelles, définies par le livre II du code pénal ;





On peut aussi citer les CGU de Youtube qi interdisent tout contenu incitant à la violence. Maintenant que ce sombre crétin a eu son heure de gloire, il serait utile due sa vidéo soit signalée en masse, ca inciterait p’etre youtube à réagir

Le 09/01/2014 à 12h 39

Mon idée était justement d’installer par defaut XBMC dans SteamOs, voire à terme d’intégrer la lecture multimedia dans l’interface. Bref un truc “out of the box” pour casser l’image de truc compliqué que traînent aussi bien Linux que le jeu sur PC

Le 09/01/2014 à 12h 21



Pourquoi acheter une Steam Machine quand tu peux monter un HTPC avec SteamOS pour moins cher ?

Pourquoi acheter une Steam Machine quand tu peux acheter une console pour moins cher et profiter d’un immense catalogue ?





Certains utilisateurs recherchent une machine complète et pas un pc en kit, et accessoirement steamos n’est pas (encore) officiellement disponible “seul”



Pour ce qui est des consoles, la cible n’est pas la même. Les Steam machines ciblent le joueur PC, qui veut un hardware et un software plus flexible et pas de l’environnement verrouillé des consoles. Sur une steam machine le modding est quasi identique à ce qui se fait sur pc,



Par contre, je pense que Valve devrait adopter une politique plus agressive pour promouvoir SteamOs et Steam Linux, par ex en faisant des promos valables uniquement sous Linux ou en faisant pression sur les éditeurs pour qu’ils portent le maximum de titres. Il faut que le client ait un intérêt à jouer sur une plateforme linux et non windows.



Ensuite, si ils mettent le paquet sur le multimedia, ca peut donner une machine de salon au top et “prete à l’emploi”, ce qui aurait de la geulle







Oui il y a un risque à produire des Steam Machine, ce produit est un marché de niche avec une forte concurrence (deja 14 constructeurs dessus). Si Valve s’y met il a risque qu’il perde de l’argent !





14 constructeurs dont beaucoup basés uniquement dans un seul pays, comme materiel.net.

Le 08/01/2014 à 09h 30







Faith a écrit :



A vous entendre, on pourrait croire que vous préférez mettre en faillite une société qui embauche du monde juste parce qu’elle filme ses employés <img data-src=" />

Vous réfléchissez un peu à ce que vous dites ?







+1, on va tout de meme pas s’embarrasser du droit du travail qui pourrait nuire aux bénefs des partons qui nous font l’honneur de nous exploiter. Revoyons entierement le droit du travail, alignons nous sur la chine et en 2 ans, le problème du chômage serra réglé.


Le 03/01/2014 à 12h 08







kirire a écrit :



Un produit fini ne doit pas subir de modification sans le mentionner, par exemple si tu achètes une 3DS maintenant et plus tard tu aura le même processeur, le même écran et les même batterie, il en va de même pour les consoles de salon, les changements de la Playstation 3 ce sont accompagné généralement d’une nouvelle console (PS3, PS3 slim etc.), idem pour le XBOX. Et l’exemple de la XO que tu énonce, ce changement à eu lieu avant sa sortie donc c’est hors sujet.







A la fin de la plupart des mode d’emploi, tu retrouve une mention du genre

“Les caractéristiques du produit sont susceptibles de modifications sans préavis.” Ce qui veut dire que des changements internes sont possibles tant que les performances initiales du produit n’en pâtissent pas.


Le 02/01/2014 à 19h 57







Araldwenn a écrit :



Dernière chose : le matos dans le Mac Pro (et pas Mac Book Pro, c’est pas la même chose - même si la déclaration est valable pour les 2) n’est pas du matériel propriétaire. C’est du Intel (processeur Xeon, chipset intel C602), de l’AMD (cartes FirePro), bref, rien du tout de propriétaire. Il est loin le temps où Apple tournait sur du matos “propriétaire”, c’est à dire l’architecture PowerPC…







Tout dépends de ce que l’on donne comme définition au terme “matos propriétaire”



L’architecture PowerPc n’était pas plus ni moins “propriétaire” que le x86.



Il existait (et existe toujours) des machines à base de PPC, la plupart n’étant pas compatibles entre elles. Le CPU est loin d’être le seul élément d’un ordinateur. De la même manière, il existe des systèmes basés sur une archi x86, mais absolument pas compatibles avec du hard ou du soft PC. Par exemple la première xbox, les consoles actuelles, certains systèmes industriels…



Pour moi, les macs sont des systèmes “propriétaires car ils ne respectent pas certains des standards édictés par l’industrie des composants pour PC. Coire pour le mac pro ne respectent quasiment aucun de ces standards.





Le 02/01/2014 à 13h 43



C’est une station de travail. Un outil de travail, tu ne le bidouille pas, tu ne joues pas à Crysis avec, et ça coûte CHER.





Une station de travail, ça ne se bidouille pas, mais ça s’upgrade (soit car les besoins augmentent, soit car de nouveaux composants plus performants existent sur le marché), d’autant plus que la durée de vie de ces machines n’est pas négligeable. Ensuite, ça doit s’adapter aux besoins de chaque profession. Un monteur vidéo n’aura pas la même configuration qu’un graphiste 3d, un musicien ou un photographe. Sur ce point le mac pro 2013 est une vraie calamité, c’est indéniable.

Enfin, à 3000€ hors moniteur et peripgs, on est en droit d’attendre une fiabilité parfaite, de ce que j’en vois c’est pas gagné, rien que l’alim n’est pas trés engageant.















MoiMemePerso a écrit :



Concernant les principaux défaut de la machine:









+1, je rajouterait une chose: le CPU ne m’a pas l’air facilement upgradable vu comme l’alim est limitée, difficile de caser un cpu plus gourmand.


Le 01/01/2014 à 23h 50







wookie sans fil a écrit :



Je suis étonné que les designers d’Apple aient réitéré l’une des failles du design du G4 Cube.



Donc pour moi, cette faille, certes occasionnelle mais dont l’antécédent du G4 Cube en est la preuve, me laisse penser que les designers d’Apple se fourvoient dans l’esthétique et non dans l’usage. Rédhibitoire.







Je ne peut que approuver. Plus je regarde cette machine et plus je me dit que les

designers ont imposé leur idée, et à charge pour les ingés de rendre la chose possible. Et tant pis si ca implique des choix pas très rationnels. Personnellement j’ai très peur pour la fiabilité de cet engin, notamment en ce qui concerne l’alim qui est indigne d’une machine à plusieurs milliers d’euros (puissance très juste, condensateurs noname , mosfet minuscules et peu refroidis…), des multiples carte fille et connecteurs trés complexes ou encore du refroidissement. Il y a largement le potentiel pour faire passer le G4 cube pour une machine fiable.



Concernant la config elle même, c’est vraiment pas équilibré et beaucoup trop axé sur la 3D. Les graphistes 3d et les architectes vont être très contents, les autres beaucoup moins.







sr17 a écrit :



Un objet technique ne devrait jamais faire la moindre concession à l’esthétique.

C’est au contraire l’esthétique qui devrait se plier aux considérations techniques, mais jamais l’inverse.









Il est clair qu’apple a complètement oublié quelle catégorie d’utilisateur cible le Mac Pro: les professionnels. En particulier ceux des arts graphiques, de l’audiovisuel ou de la musique. Les précédents mac pro étaient les dernières machines de chez apple à offrir un haut niveau de performances, mais aussi une certaine évolutivité, indispensable à ces métiers. Le tout sans trop sacrifier au design, ce type de clientèle etant aussi regardante sur ce point.

Je me souviens encore des mac pro G3 qui explosaient les PC de l’époque niveau accessibilité interne.



Maintenant on a une machine dont la config de base est non seulement pas des plus équilibrée (une partie graphique démesuré, mais pas grand chose niveau stockage), mais surtout qui perd toute capacité d’adaptation. Tout passe par le Thunderbolt pour tout les periphs demandant du débit. à ce train la les 6 ports seront vite pris, sans parler de l’entreméllage de câbles qui va avec.





Au final on a plus affaire à une machine pour hipster fortuné (exerçant éventuellement dans un secteur nécessitant une machine puissante, mais pas du tout à une machine conçue pour les professionnels. En gros apple a fini de se couper de ses utilisateurs “historiques”.







Ps: Ceux qui font de l’édition vidéo en non compressé vont être contents, tout le stokage en externe et croyez moi il en faut un paquet. Rien que ca justifie largement un passage sur PC, pour pouvoir choisir une machine réellement adaptée, et ne pas payer pour 2 gpu inutiles


Le 27/12/2013 à 22h 45







Spezetois a écrit :



Et pour quelle utilisation au final ?



Non sans déconner, pour reprendre certains, ils feraient mieux de s’intéresser au écrans de

PC ou de TV.



Bref, au final on peut appeler ça du faux progrès.











ZOOUUU a écrit :



Aucun intérêt <img data-src=" /> marketing débile pour une course à l’armement

Qu’ils augmentent les résolutions et la qualité des dalles de laptot plutôt, car se trainer encore avec des équivalents 1024*768 qui ont plus de 15 ans, c’est vraiment pitoyable :(







On vous l’a pas assez rabâché dans la presse généraliste comme spécialisée, le pc c’est obsolète, périmé, has been. L’avenir c’est les tablettes, les smartphones et les consoles. C’est donc logique que ca soit ces derniers qui beneficient des avancées en matiere d’affichage, et pas le pc, cette machine so 80’s qui est destinée à disparaitre d’une maniere ou d’une autre. Vous vous rendez compte ma bonne dame, sur PC les utilisateurs ne dépensent pas 5€ pour une application de chien qui pète, allors imaginez les micro treansactions. Quels ingrats. C’est plus rentable de bosser sur mobiles, au moins on peut faire un max de pognon avec du petit jeu 2d qui coute rien.


Le 24/12/2013 à 18h 16

Même à un tarif plus accessible cette clef de 1to n’a pas des masses d’interet comparé à un ssd, les 1to sont moitié moins cher et 2x plus performants. Et honnêtement un boitier 2.5p est pas des masses plus encombrants que ce gros cube moche




Le 23/12/2013 à 23h 43

Le comparatif des HDD Wester digital oublie le Black qui se rapproche en termes de perf des Re et Se tout en étant infiniment moins cher. Dans tout les cas c’est bien stupide de comparer des disques dur pour particulier à ceux destinés aux pros.

L’interet des disques pro (et ce qui justifie leur prix) c’est surtout les MTBF et les garanties qui vont avec, plus que les perfs

Le 23/12/2013 à 10h 57

Le problème d’un éventuel rachat de winamp est que si il semble y avoir une importante communauté autour de ce soft, la plupart des utilisateurs sont de la “vieille école” voire pour certains résolument hostiles à tout changement. D’autant plus que l’on se demande quelles innovations sont encore utiles de nos jours dans un lecteur multimédia. Le marché est plutot mature.

C’est pas trés facile pour un acquéreur de faire du buisness dans ces conditions. A mon avis ce qui intéresse m$ c’est plutôt shoutcast et le contenu qu’il y a derrière, je pense surtout à la xbox one et son orientation media center

Le 17/12/2013 à 11h 03



L’article parle de bande passante, pas d’usage.





Je plussoie, c’est pas forcément facile de regarder du porn sur une tablette, les modeles de 10 pouces et plus restent assez délicats à manipuler à une main, surtout comparé à un pc plus facile à poser. <img data-src=" />

Le 14/12/2013 à 21h 58







Marc31boss a écrit :



Carmageddon, de 1997, est le jeu le plus ancien sur lequel je puisse mettre un nom qui avait déjà ce concept de voiture débloquables avec les gains durant une course. Et si c’est le plus ancien sur lequel je peux y mettre un nom, ce n’est pas le plus ancien auquel je pense…



Ça n’a rien à voir avec un DLC. Faudrait voir à lire les commentaires correctement avant d’y répondre :-)







PERDU et archi perdu. Carmageddon était au contraire un jeu ou il etait assez dur et inutile de faire du farming (a moins d’etre trés mauvais). On pouvait finir le jeu sans refaire plusieurs fois une course, et seul 9 véhicules étaient deblocables aleatoirement. A partir du 2 effectivement on pouvait racheter les véhicules detruits dans la course (et uniquement ceux la) , mais ca n’était absolument pas un moyen de progresser. Seul le rang permettait d’acceder a de nouveaux circuits et d’afronter des adversaires plus forts.



L’autre grosse différence avec les jeux actuels est que dans les carmageddon l’argent (virtuel) ne fait pas tout, la progression est surtout celle du joueur lui même qui doit devenir meilleur pour passer certaines missions. Il n’y avait pas de bouton “skip for xxx credits”


Le 13/12/2013 à 12h 07



C’est très français de vouloir tout réguler, les amerloc pensent pas comme ça et préfèrent laisser les joueurs sanctionner eux-mêmes les studios.





L’absence totale d’exigence qualité pour les éditeurs tiers on a bien vu ce que ça donnait en 1983 avec Atari. Le libéralisme et l’absence de contrôle “à l’américaine” a précipité le marché dans la crise et c’est les japonais, tout aussi libéraux mais plus avisés qui ont relancé le marché en imposant des limites aux développeurs US adeptes du “capitalisme sauvage” (on remarquera que Nintendo n’était pas aussi exigeant envers les éditeurs tiers sur la Famicom).





Certes il y avait dans le krash de 83-84 quelques facteurs qui ne sont plus reproductibles de nos jours (notamment la possibilité pour les magasins de retourner les invendus) mais d’autres ressemblent trait pour trait à ce qui a entraîné la chute:

Des jeux trop chers

Des pratiques visant à tromper (certains diront tondre) le consommateur (en 83 on vendait le même jeu sous plusieurs noms différents, en 2013 on fait payer des micro transactions)

La concurrence d’autres supports (ordinateurs en 83, mobiles et tablettes en 2013)

Peu d’évolution en matière de gameplay ou de performances (le saut technologique de cette génération est un des plus faibles de l’histoire).



En bref beaucoup de points sont réunis pour que l’on assiste à un impressionnant bide l’année prochaine, 30 ans exactement après la crise de 83





Ps: plus j’y pense, plus les micro transactions me rappellent aussi les jeux “porno” de la VCS 2600: une pratique non voulue par le constructeur, archi minoritaire , mais dont la médiatisation nuit gravement à l’image de marque de la machine.

La c’est pareil, meme si m$ recadre les editeurs, le mal est fait et le public gardera en tête l’image d’un jeu en kit.








Le 13/12/2013 à 00h 30

Perso j’apprécie beaucoup la phrase qui dit que Microsoft ont sorti la même année le meilleur et le pire Os de leur histoire.



D’ailleurs Win 2000 est resté longtemps une alternative geek à xp, certes très moderne avec son interface playskool ou ses fonctions nouvelles, mais pas forcément stable à ses débuts et très gros consommateur de ressources comparé à un 2000 basé sur de solides fondations “‘entreprise”. J’ai vu plusieurs d’admin migrer à regret des machines sous xp ou win serveur lorsque le support etendu de 2000 s’est terminé.

Le 12/12/2013 à 23h 28







KiaN a écrit :



Ouais ouais ouais et Windows 95 était la beta de Windows 98.

Et DOS 5.0 la beta de DOS 6.22

Ah et Windows 2000 la beta de Windows XP.



On peut jouer à ça longtemps <img data-src=" />







Pas 100% faux, il faut souvent expérimenter avant d’arriver à la bonne formule :

Le tout premier win95 etait tout de même bien fini à la pisse (le seul os qui arrivait à s’autocorrompre en utilisation normale ou encore sur lequel on réinstalait des driver a chaque boot sans solution possible). Les choses se sont assez bien ameliorées avec l’OSR 2, et win98 posait infiniment moins de soucis (mais en a amené d’autres).



Pour win 2000, nombre de geeks (dont j’ai fait parti) ont largement essuyé les platres du passage du grand public au noyau NT avant la sortie de XP, ce qui entraina parfois des expérimentation on ne peut plus hasardeuses. (remplacer une dll ou un driver d’origine par une version prévue pour un win 95 voire 3.1 ne donne rien de bon, croyez moi)


Le 12/12/2013 à 21h 07







Aloyse57 a écrit :



De ce que je retiens de Millenium, c’est qu’il a permis de tester les procédures de récupération après un BSOD. Ces mêmes procédures affinées ont donné un XP très fiable en terme de conservation des données et préservation du système, alors que 98, même SE, était souvent bon à formater après certains BSOD.

Et Dieu sait que j’ai eu l’occasion de tester la récupération dans Millenium <img data-src=" />







Ce système existait avant sous Win 2000 qui aurait pu être le véritable successeur de win98 si la transition 9x - NT avait été plus rapide.



Le gros pb à l’époque c’etait que peu de jeu et de softs grand public étaient compatibles NT (vu que NT4 etait trop axé “grosse entreprise”, donc il n’était pas envisageable de passer de win98 Se à 2000.


Le 12/12/2013 à 18h 13



et Windows Millenium c’était aussi du rafistolage ?



Millenium c’était de la grosse esbroufe marketing dans l’attente que Xp soit finalisé. En 1999-2000, il devenait urgent de remiser la branche 9x, notamment lorsque internet a commencé à se généraliser. commercialement parlant la présence de ms-dos etait de plus en plus mal vue (ca se discute d’un point de vue technique)



Sauf que coté éditeurs tiers (surtout pour les jeux) pas grand chose n’etait pret pour passer sur la branche NT représentée à l’epoque par win 2000 (qui lui s’était averé etre stable et performant). D’ou win Me, qui n’était qu’un portage de l’interface et des fonctions de 2000 (sur lequel m$ a bien mis l’accent) mais sans le principal point, le noyau NT.

Le 12/12/2013 à 12h 59









renaud07 a écrit :



Tiens ça me fait penser à mon ancien lycée <img data-src=" /> les ordis sous XP bloqués via les GPO + un logiciel développé par l’académie pour finir de restreindre le peu qui ne peut pas être fait via les GPO…





Pareil dans le 13, avec en bonus un bios customisé et un soft bizarre entre le MBR et l’OS. Ca n’a pas empêché nombre de petits malins de contourner le bouzin de diverses manières.





tu peux filer à chaque élève un vrai PC sous Windows/Linux/OSX, sans un minimum de support, de sécurité pour s’assurer que le poste ne sera pas vérolé/détourné, il finira au placard.





C’est exactement ce qui s’est passé après 3 ou 4 années scolaires avec le système précédent: le CG a commencé à DONNER à tout les élèves de 4eme des pc portables “normaux” sans le moindre soft dedans. C’était moins coûteux de refiler des machines neuves chaque année que d’assurer la maintenance hard comme soft de pc en “prêt”. Sauf que va assurer des cours avec des pc complètement héteroclytes, ou machin aura Ms office 2000, un autre ooo, le 3eme un ofice xp mal cracké, le cancre du fond aura planté son système… En gros inutilisable en cours.











Mais a vouloir distribuer des sortes de minitels aux jeunes des écoles au lieu d’un ordinateur non limité, ne risque t’on pas de s’apercevoir dans 15 ans qu’on aura tué dans l’oeuf tout nos petits génies potentiels en programmation ?





Rien n’interdit de proposer d’un éditeur de texte avancé ou un IDE sous ChromeOs, à la différence d’un minitel qui n’a aucune capacité matérielle. Le plus dur est surtout de trouver un équilibre entre l’homogénéité du parc nécessaire aux cours et les possibilités d’utilisation “personnelle”. Ca aucun os ne peut le faire à lui seul, bien que certains soient plus adaptés que d’autres.





Le 11/12/2013 à 23h 10







Bidulbuk a écrit :



À cause de l’hébergement à distance, des web-app, de l’échosystème. C’est très limité comme ordinateur. Un Androbook serait déjà plus intéressant (pour moi).







dPour une utilisation en millieu scolaire c’est au contraire un gros avantage. Plus on gére de choses “coté serveur”, moins on a à se soucier de la sécurité ou de la configuration coté client, par ex pour une utilisation en cours.



Je me souviens trés bien du bordel qu’etait la première génération de portables prêtés aux collégiens des bouches du rhone: une usine à gaz pour tenter de “sécuriser” le système, et des admins qui passaient leur temps à traquer les failles.

Vu le bordel déployé, je n’ose pas imaginer le cout de l’ensemble.



Avec un un Chromebook et si l’os est adapté aux usages scolaires, il est bien plus facile d’éviter nombre de problemes du genre en ne laissant qu’un accés minimal à l’utilisateur, du moins sur le temps scolaire


Le 09/12/2013 à 13h 28







Network a écrit :



Cela dit, ce n’est pas parcequ’un constructeur présente sa console comme non-retrocompatible qu’il faut le croire.



La PS3 (hors modele 60 GB) est bien capable de lancer les jeux de ps2 (via emulateur), n’en déplaise à Sony.







Sauf que même sur les PS3 60gb pourtant dotées des cpu et gpu de la ps2, il y avait malgré tout des soucis avec certains jeux. C’etait encore pire avec l’emulation software, d’ou le peu de succés et l’abandon de ce systeme. Pareil pour la 360, l’emulation xbox etait assez catastrophique.



Et ceci en sachant que le bond en avant entre la 6eme et 7eme gen de consoles était considérable comparé à la gen actuelle: la ps2 avait un cpu mono core à 300mhz, les ps3 et x360 tournent à 3.2ghz sur 3 cores, à comparer au 1.75 ghz et 8 cores de la xbox one. Vu que sony comme Ms ont échoué à proposer une rétrocompatibilité viable sur des machines 10x plus performantes, comment peut t’on imaginer faire de meme avec aussi peu de différence en terme de calcul brut



Le 06/12/2013 à 19h 15



il ne serait pas illégitime qu’à l’avenir, les opérateurs disposent d’une couverture minimale (par exemple 50% de la population) avant de pouvoir communiquer sur une offre nationale. »





Bof, je doute que ca pose un gros problème aux FAI, il ne parleront plus d’“offre nationale” et rajouteront la petite astérisque “4G uniquement dans les zones couvertes”, ce qui n’empêchera pas les vendeurs de fourguer de la 4g à tout va. Non, ce qu’il faudrait ça serait plutôt restreindre purement la communication autour des offres 4G, fibre… tant qu’un seuil minimal de couverture n’est pas atteint. Par ex interdiction de mettre en avant la 4G dans les pub tv ou encore pas de campagnes d’affichage dans les départements n’ayant pas de couverture



Peut être que ca mettra fin à l’énorme entubade commerciale de la 4G et dans une moindre mesure de la fibre



Croyez moi, voir une affiche promettant de la fibre à 1gb dans un bled ou 34 des habitants ne dépassent pas les 6mb ca donne des envies de vandalisme assez dures à réprimer. Au début des années 2000 les fai avaient encore la décence de ne pas promouvoir au niveau national les offres cable alors que 95% des abonnés subissaient le 56k. La com se faisait uniquement au niveau local dans les villes cablées, et c’etait LARGEMENT suffisant.

Le 05/12/2013 à 23h 45







matroska a écrit :



Le truc c’est qu’actuellement en France ce qu’ils souhaitent c’est que le film reste le plus longtemps possible en salle pour faire un maximum de bénéfices…

<img data-src=" />







Sauf que de nos jours bien rares sont les films qui restent à l’affiche plus de un ou 2 mois. Prends les films sortis il y a 3 mois et tu verra que l’immense majorité n’est plus projeté que dans de petites salles de province, voire plus du tout. Seul les très gros blockbusters restent longtemps à l’affiche, car eux seuls restent rentables sur le long terme. Pour le reste la tendance dans le milieu est plutôt à une forte rotation pour remplir les salles.



La chronologie des médias était utile par le passé, lorsque les cinéma de quartier souvent bien modestes diffusaient un film plusieurs mois après sa sortie. Entre les années 60 à 90, la tv puis la vidéo étaient effectivement une menace pour les cinémas, ainsi que pour les loueurs de vidéo à partir des 80’s.



De nos jours, les cinés de quartier et les loueurs ont quasiment disparu, les multiplexes sont loin d’etre à plaindre, et il sort tellement de films qu’il n’est pas possible de tous les diffuser. Sans parler de la Tv gratuite ou payante qui recule face à la VOD ou du fait que l’expérience prouve que dans les pays n’ayant pas de règlementation, la profession reste fidèle à un modèle éprouvé. Donc, la chronologie des médias n’a plus lieu d’être et pourrait largement être remplacée par des accords interprofessionnels.


Le 04/12/2013 à 15h 13



L’Etat qui fixerait le prix des livres ? Et pourquoi pas celui des films, tant qu’on y est ?





Il y a une “petite” différence entre un produit culturel tel qu’un film et les manuels scolaires: le fait que le second soit utilisé pour l’éducation, majoritairement assurée par l’état. Il me semble donc logique que ce dernier ait son mot à dire. D’autant plus qu’il est quasiment l’unique client des editeurs de livres scolaires.





c’est à l’état de fixé le prix des manuels (largement réduit comparé à celui du papier d’ailleur) -&gt; appel d’offre -&gt; un editeur y répond





Le souci est que dans la pratique l’achat des manuels est à la charge des communes et des départements, or ces entités n’ont pas forcément le poids qu’il faudrait pour négocier à armes égales avec les gros éditeurs.

D’où l’importance d’instaurer un strict cadre législatif pour les contenus utilisés dans l’enseignement (et pas uniquement les livres). Un peu comme la sécu fixe le prix des médicaments qu’elle rembourse, ce qui n’empêche pas certains abus d’ailleurs.

Surtout qu’il ne me semble pas impossible de mettre en place un système équitable pour les éditeurs, la collectivité et les familles





et il faut aussi inclure dans le contrat que pour tout manuel papier acheté, un pdf doit être disponible.



Oui, et surtout, interdiction des DRM sur les ebooks et contenus multimédia utilisés dans l’enseignement public.



On peut aisément imaginer un système ou les établissement achèteraient le droit d’utiliser un manuel durant x années, et en retour, l’éditeur soit tenu à certains engagements, notamment un droit de regard de l’état sur les contrats signés avec les établissements. Dans un tel cadre, le piratage deviendrait négligeable pour l’éditeur, assuré de toucher chaque année un revenu proportionnel aux nombres d’élèves inscrits chez ses clients. Rappelez moi la proportion d’étudiants en candidat libre ou d’élèves hors établissement scolaire…

Le 28/11/2013 à 21h 05







le duc rouge a écrit :



Les micro-paiements ont surtout au final remplacé les Cheat-codes … <img data-src=" />







+10 000, d’un coté le système était assez comparable: Les dev intégraient des cheatcodes dans leurs jeux, officiellement pour faciliter les tests, mais ca permettait surtout aux éditeurs de magazines de vendre du papier avec les “trucs et astuces”.

Il y avait aussi les game genie et Action replay, l’idée c’etait payer 300 balles pour oter tout le challenge d’un jeu qui résiste. (Bon ok à l’époque 8/16bits c’etait parfois trés justifiable). Comme quoi faire du fric sur le dos des joueurs aprés l’achat n’est pas nouveaux.



Enfin ça restait vraiment gentillet comparé à ce truc, je ne suis pas prêt de me remettre aux jeux récents si ce genre de choses se généralise. Surtout que e voit vraiment pas l’intérêt de pousser au grinding à outrance. En gros on refait la meme erreur que dans les80’s ou l’on rendait difficile à outrance un jeu qui sinon serait jugé trop court. Décidement c’est fou comme certains décideurs ont la mémoire courte, surtout dans le secteur high tech.





Le 12/11/2013 à 21h 19

Franchement j’ai du mal à saisir l’interet d’un tel produit, surtout le coup de la 3G. Pourquoi avoir un appareil avec sa propre carte sim et son abo dedié allors que tout le monde a un smartphone de nos jours. Autant un compact equipé bluetooth ou wifi je peut en comprendre l’utilité, mais la c’est le flop assuré



Juste en passant, la plupart des APN peuvent se connecter avec un smartphone android via l’USB host. Un simple cable à 5€ pour partager rapidement les photos d’un vrai appareil (du compact jusqu’au 1D), ca doit etre trop simple pour les marketeux.


Le 28/10/2013 à 12h 21



J’irai dans le sens inverse de la news.



Il faut la version légale pour jouer dans de bonnes conditions :





  • Bugs qui apparaissent à cause du crack

  • Connexion aux serveurs officiels impossible





    Ce raisonnement est valable pour des jeux dotés d’une protection “raisonnable”, mais dans le cas de certaines protections complètement délirantes, c’est plus le DRM qui apporte des bugs et des problèmes qu’autre chose. Perso des bugs dus au crack j’en ai moins vu que des bugs dus au drm sur des originaux.







    Le piratage pour les petites bourses c’est un mal nécessaire. Petit porte-monnaie deviendra grand et achètera des jeux pour ces enfants et lui même plus tard.





    Voila, tout est résumé. Aucune protection n’est pas une bonne chose car il faut être réaliste, l’honnêteté totale n’est pas une valeur très en vogue, mais il ne faut pas tomber dans l’excès inverse. Comme partout ailleurs il faut un juste milieu. Et ce juste milieu c’est une protection qui complique la vie du pirate, et par conséquent exclure la Mme Michu.



    Si les joueurs peu fortunés ne peuvent rien pirater, ben ils vont forcément sortir complètement du circuit, et il n’est pas du tout garanti qu’ils y reviennent le jour ou leur moyens leur permettront de se payer des jeux originaux. Verrouiller à outrance quitte a contraindre l’acheteur est aussi une mauvaise idée, car ça n’arrêtera pas le pirate tout en dégoûtant l’acheteur.



    Par contre, pour qu’un pirate puisse devenir acheteur, il faut créer de la valeur ajouté, ca peut passer par le confort d’utilisation (et donc pas par les drm abusifs), par du contenu additionnel ou le multi, mais sûrement pas par des merdes style connexion obligatoire ou protecs débiles

Le 28/10/2013 à 12h 05



J’irai dans le sens inverse de la news.



Il faut la version légale pour jouer dans de bonnes conditions :





  • Bugs qui apparaissent à cause du crack

  • Connexion aux serveurs officiels impossible





    Ce raisonnement est valable pour des jeux dotés d’une protection “raisonnable”, mais dans le cas de certaines protections complètement délirantes, c’est plus le DRM qui apporte des bugs et des problèmes qu’autre chose. Perso des bugs dus au crack j’en ai moins vu que des bugs dus au drm sur des originaux.

Le 26/10/2013 à 14h 41



Il faudrait qu’ils commencent à revoir leur barème, chez iFixit.



On veut des trucs légers, fins, jolis ; le fait que le matériel soit difficilement démontable en est une conséquence logique…





Qu’un ultrabook soit moins facilement upgradable / réparable est une chose. Qu’apple utilise des stratagèmes pour en rendre l’accès encore plus difficile en est une autre.



Un ultrabook avec des vis standard, dont la batterie ne serait pas collée à l’extreme, dont les ports jack ou usb seraient remplacables sans souder sur la CM, ou encore l’emploi d’un ssd standard obtiendra logiquement un meilleur score

Le 07/10/2013 à 07h 27



Ils vont réellement dépenser des millions juste pour surveiller une histoire de propagande pour gay ???



Naaaaaaaaaaan ………. sérieux ???

Hé bé ya des priorités chez certains qui me feront toujours peur





Ben oui, la priorité des russes est effectivement de faire taire toute forme d’opposition lors de ses jeux, et pour ca le FSB ne regarde pas à la dépense. tout comme la finalisation des infrastructures est bien plus importante que le respect du droit du travail et des normes de securité.





La, la Russie, a l’occasion d’un evenement isole, va faire la meme chose, et ca gene les britanniques ….?



Relis mieux la news: L’info a été révélée par un journal anglais (qui par ailleurs s’est deja attiré les foudres des autorités dans l’affaire snowden) , cela ne veut pas dire que le gouvernement britannique condamne l’attitude de Moscou. Vu la situation sur la scène internationale, je doute qu’un gouvernement se risque à une condamnation officielle.



D’ailleurs, je me demande dans quelle mesure cette “info” n’est pas qu’un coup de bluff du FSB pour étouffer dans l’œuf toute velléité de contestation venant des athlètes ou des visiteurs étrangers. En claironnant à tout va que “big brother is watching you”, les russes s’assurent que personne ne s’amusera à organiser une action ou un discours choc, étant donné que si ils veulent avoir un impact suffisant, les “organisateurs” se retrouveront obligés de prévenir les journalistes avant. Les agents du FSB sont peut etre des brutes mais pas des idiots, ils savent bien que la peur d’être espionné est plus efficace que la meilleure des surveillances.


Le 04/10/2013 à 09h 41







chaps a écrit :



Point Godwin en #4, impressionant <img data-src=" /> !



Sinon cette interdiction est tout simplement inaplicable, inutile de s’étendre sur le sujet.









chaps a écrit :



Peut-être parce que la comparaison avec le régime Nazi est (presque) toujours inutile et inadéquate.



Franchement, explique moi la pertinence de citer le 3ème reich dans une news parlant de l’interdiction des portables pour les pietons se déplaçant dans la rue <img data-src=" /> !







Déjà, l’auteur fait plus probablement référence à la Corée du nord qu’au nazisme (le pas de l’oie est aussi pratiqué dans les régimes communistes, tout comme “cher leader” est le titre de la dynastie des Kim.



Quant à la pertinence de citer un régime autocratique en comparaison d’une telle proposition de loi, c’est pourtant pas bien compliqué. Ce genre d’interdictions globales au nom de la “sécurité” relève plus d’une dictature que d’un système démocratique.


Le 01/10/2013 à 18h 06

Par contre, je pense perso que ces “annonces” ne sont pas, mais alors pas du tout bonnes pour la neutralité du net. Il faut être réaliste, des débits aussi énormes pour les particuliers (meme 100mb est limite) sont inatteignables sur le net. En gros on aura 1gb entre la box et le nra, mais sûrement nettement moins sur le net.



Si les FAI commencent à communiquer sur des débits purement théoriques que le net ne peut pas encaisser, c’est certainement pour vendre de la TV, ou tout autre services basé sur du multicast.

Le 01/10/2013 à 17h 57

Du pur effet d’annonce qui a de quoi mettre en rage ceux qui comme moi se traînent avec un débit de merde (du genre 5mb par vent calme) et qui ne voient rien venir.



Le VDSL et la fibre c’est du bien pour jouer à kikalaplugrosse dans les beaux quartiers, mais en attendant combien d’abonnés vont continuer à se coltiner des débits largement insuffisants pour les usages actuels. Je ne parlerait pas de l’état catastrophique des lignes dans certaines communes,



En fait on est en train de revenir lentement mais sûrement à la situation de début 2000, avec d’un coté une poignée de “chanceux” équipés en adsl et de l’autre la majorité des utilisateurs bloqués en 56K. A l’époque les FAI s’en foutaient vu qu’ils se gavaient sur les hors forfait.

La c’est un peu différent, la manne est moins importante pour les FAI, mais je pense qu’un client en adsl “bout de ligne” coue bien moins cher en bp que celui en fibre.

Le 28/08/2013 à 15h 48



Mwaif ces services de revente de téléphones/tablettes/ordinateurs avec une estimation du prix tirée d’un chapeau c’est pas mon dada. Je suis étonné que ça fonctionne, ça doit être parce qu’ils paraissent simples au consommateur.





Tout comme Cash express (et autres du meme genre), la cible de ce genre de service n’est pas le geek au courant des prix du marché mais:



1: La Mme Michu peu aux faits des usages et des prix en matiere de high tech.

Seule elle peut gober qu’un smartphone encore vendu 500€ neuf puisse voir sa valeur tomber à 150€



2: Celui qui ne veut, ne peut pas pas ou qui a peur de vendre lui meme son produit. Dans ce cas la il paye fort cher sa fleme de gerer lui meme sa vente. Mais en général ces gens la n’ont pas le plus besoin d’argent.



3: A l’inverse, les persones en surendetement, qui ont besoin de cash rapidement. En general lorsque l’on a les huissiers au cul on n’a pas trop le loisir de vendre sur lbc.


Le 23/08/2013 à 17h 49







linkin623 a écrit :



Vachement plus long et chiant que la demande de retrait d’un ayant droit.







Donc effectivement, dans la pratique aucun recours pour le quidam qui se fait retirer son lien, sa vidéo voire son compte YT. Je connaît plusieurs musiciens amateurs qui galèrent avec YT dés qu’ils jouent certains titres, la plupart du temps suite à des signalements du genre.


Le 23/08/2013 à 17h 17



ça commence bien, ils ne vérifient pas VRAIMENT si les fichiers soit-disant illégaux sont bien ceux des clients…





Ben pourquoi faire. Quel est la sanction encourue pour une demande de retrait erronée et / ou injustifiée? Aucune. Et aucune compensation pour l’utilisateur qui subirait un préjudice. En l’absence de tout controle et de toute sanction en cas d’abus, pourquoi se compliquer la vie. On est loin des contraintes imposées à la HADOPI ou autres.





Mais avec du boulot, nous pensons très certainement pouvoir retirer sur la durée 90 % des liens pirates de la Toile ».





Cette phrase me fait clairement penser au principe d’un “bouclier” anti missiles et à son defaut majeur: aucun des deux ne sont efficaces à 100% et ils suffit de les saturer pour passer au travers.



Une défense antimissile n’a pas une capacité infinie, donc il y aura toujours des ogives qui passeront. Si 90% des tirs sont interceptés, il suffit à l’ennemi d’envoyer 100 ogives pour être sur que 10 atteindront leur but.



Exactement pareil sur le net, avec le gros avantage qu’un upload coûte infiniment moins cher qu’un missile. Ce n’est plus un jeu du chat et de la souris mais du chat contre une nuée de moustiques.



Enfin le seul point positif est que la multiplications de “cowboys” du genre va à terme contribuer à une baisse du DDL ultra centralisé, certainement au profil de solution plus décentralisées à tout les niveaux. Qui sait, d’ici quelques années les darknets (ou un ersatz de darknet) vont peut etre exploser.

Le 13/08/2013 à 17h 35



Ryanair c’est pour ceux qui vivent à 100 à l’heure, pas pour les mijorés qui veulent du gros standing et qui payent en lingots d’or.





Perdu, ceux qui vivent “à 100 à l’heure” (cf les cadres, hommes d’affaire voire simples vrp) n’ont pas que ça à foutre que de se rendre dans des aéroports excentrés, de perdre un temps infini à l’embarquement, de subir des suppléments à répétition et j’en passe. Je ne connaît aucune boite qui ferait voyager ses cadres sur ryanair. Et il ne s’agit pas de standing, juste que le low cost n’est pas compatible avec la flexibilité requise par les pros.

Le 12/08/2013 à 09h 13



20 Go de datas sur une VHS ? C’est du même ordre de grandeur qu’un Bluray simple couche !





Hé oui, et sur un DAT, ca peut aller jusque 160go. Sauf que le gros inconvénient des sauvegardes sur bande est que l’accés se faisant de manière séquentielle et non directe le temps d’accès est juste énorme, les déplacements de la bande entraient une usure non négligeable et celon les supports le débit est bien faible. En gros un truc inutilisable au quotidien





Sinon en ce qui concerne la demande en matière de stockage, je pense qu’il est en train de se creuser un fossé entre les particuliers d’un coté (ainsi que les poste utilisateur en entreprise) et les serveurs de l’autre. Dans le premier cas, un utilisateur lambda n’a pas forcément besoin d’une capacité énorme, peu de Michu ont besoin de plus de 1 ou 2 TO. Sauf que si Mme michu n’a pas besoin de plus de 1To ou des 16go de son iphone, c’est en grande partie car tout ce dont il a besoin, elle peut y accéder en ligne, via un stokage cloud, mais aussi youtube, deezer, ou tout autre service. Pour moi ce changement apporté par la connexion permanente explique la stagnation des capacités. Pour les SSD la tendance est clairement à la montée en vitesse et pas à la capacité, pour les mêmes raisons.