Ca marche très bien avec les vieils Archos à disque dur. Ce n’est pas un problème.
Le
14/01/2014 à
08h
54
Perso je trouve ça pas mal, pour par exemple transporter des films pour les enfants dans une voiture. Et si l’autonomie est limite sur un long trajet, on peut toujours le brancher sur l’allume-cigare.
Par contre faut jouer du fer à souder pour les flasher ?
Non, tout se fait par soft. Par contre si tu briques ton engin il faut l’ouvrir et relier certaines pattes de puces entre elles à la main (du moins sur le WRT54G).
S’ils utilisent Windows XP et ne veulent pas en changer c’est probablement qu’ils utilisent des applicatifs qui ne fonctionneraient pas sous d’autres OS, donc si ça fonctionne tel quel personne ne les oblige à changer d’OS il me semble…
Plus probablement des machines disposant 256-512 Mo de RAM, le manque de connaissances pour réinstaller un système plus récent.
En tous cas je viens de vérifier la politique Ubuntu. Si XP avait été un produit Ubuntu, même Long Term Support, le support n’aurait pas excédé janvier 2012.
Malgré sa puissance supérieure à la XB1 (qui est d’autant plus visible que les choix matériels sont semblables), son prix inférieur, l’absence de polémique à l’E3 et qu’elle ait 5 fois plus de précommandes que la XB1 ?
Je crois que tu as compris de travers…
La PS4 risque d’être absente des rayons à cause de la rupture de stock, pas parce qu’elle se vendra mal !
Le
11/10/2013 à
14h
07
Xiongxiong_zen a écrit :
C’est triste de devoir, un an après la sortie de sa machine, compter sur un remake pour faire décoller les ventes. Cette console va se faire sortir des rayons, ou en tout cas des mises en avant, lorsque les PS4 et Xbox One seront sorties.
Perso je parie plus sur une disparition rapide de la PS4 des rayons (pas pour la même raison…).
Je pensais que faire des téléphones incurvés les rendraient plus confortables dans la poche avant d’un jean. Mais là visiblement ce n’est pas le but. Je retiens néanmoins l’argument de lincruste_2 sur le risque plus faible d’iNpact, qui est intéressant.
Sauf que l’on a déjà constaté à plus d’une reprise que les clients Apple étaient très différents des autres clients en terme d’achat, et la en plus du tout en un 27”, c’est orienté gamer, une niche dans une niche quoi … car, à ma connaissance, Apple ne fait pas de config gamer dans ce genre.
Justement, les perfs en gaming eût été la façon de se différencier d’Apple. Si la cible est le gamer-chicos-friqué, c’est raté à cause du design. Une personne capable d’accepter un tel design est capable d’accepter une tour.
Le
23/08/2013 à
08h
04
John Shaft a écrit :
Je comprends pas trop l’intérêt du produit : des perfs de mobiles dans un truc pas fait pour être transportable " />
Normalement un joueur a de la place pour une vraie tour, qu’il paiera de surcroît moins cher pour des perfs supérieurs
Il y a une niche pour des clients qui ne veulent surtout pas une tour, car cela défigure une pièce. Mais dans ce cas ces gens veulent un écran classe, pas un truc rouge taillé à la hache. Apple l’a bien compris, MSI non.
le temps passent vite je pensais à des carte sorties encore avant " />
En 1999, la première Geforce valait plus de 300 € en SDR et 400 en DDR…
Ce qui est vraiment en augmentation, ce sont les prix premiums (déjà les 600+ € de la 8800 GTX avaient choqué à l’époque, maintenant 1000 € paraissent classiques).
Le
21/08/2013 à
07h
31
Reparateur a écrit :
par contre il semble clair qu’il y a entente sur les prix et la vitesse de renouvellement
il y a 10 ans une carte haut de gamme c’était 200€ maintenant c’est 400€
alors la gamme s’étale de 50€ à 800€ mais bon … (il y a 15 ans une carte ultra haut de gamme de la mort genre 3dfx 2 ça devais couter 250 € lol)
Il y a 10 ans, le haut de gamme étaient chez les verts la FX5900 Ultra à 519 € et chez les rouges la 9800 pro à 400+ €.
Le
21/08/2013 à
07h
13
tsubasaleguedin a écrit :
En meme temps vu le peu d”evolution global … je tourne toujours a la 9600GT de 2007 …
Tu parles de cette fameuse carte qui est sortie en 2008 ? " />
Le fait de rajouter une année à un produit l’identifie à un produit concurrent ? C’est pas exagéré la quand même ?
Je ne suis pas allé voir le contenu de ces sites pour voir si c’est la vraie suite OpenOffice qui est derrière mais juger de la pertinence du retrait d’un lien du fait de la présence de l’année 2010 dans son nom, ça me dérange pour ma part.
Tout à fait, l’ajout d’un nombre peut faire partie d’une marque. Si la fondation OpenOffice avait sorti un ‘Open Office 2010’, il se seraient fait attaquer par MS, à juste titre à mon avis, car la confusion me semble facile à établir.
Le
16/08/2013 à
08h
35
statoon54 a écrit :
En même temps quand on regarde bien les liens , on voit bien Open-OFFICE 2010 ….. Honnêtement je suis pas sur que ce sont bien des versions de OpenOffice dont il s’agit .
On sait très bien que ses liens sont simplement maquillés vers des versions pirates d’office .
A vrai dire , le retrait de ces liens est tout à fait honnête et logique.
Tout à fait d’accord.
Si je vois un lien ‘Open Office 2010’, je m’attends autant à la suite de MS qu’à la suite libre (ou a un virus).
A quand le 20nm, c’est la seule question à poser à AMD et Envidia…
NVidia avait l’air déçus du 20nm de TSMC ce printemps : gains perfs faibles, gains TDP faibles, prix au transistor ne baissant pas. Espérons qu’il soit plus au point maintenant.
A part ça TSMC clame qu’ils commenceront à graver le 10 nm en 2015 pour une prod en volume en 2016. Ça donnerait 20 nm en 2014, 16⁄14? nm en 2015 et 10 nm en 2016. On peut toujours rêver à une accélération des die-shrinks…
Voici mon explication pour le SDP (qui ne concerne que l’extra-mobilité) :
Supposons un proc qui fait 7 watts de SDP et 10 watts de TDP, que l’on voudrait mettre dans un ultrabook.
Les 7 watts correspondent à un max pour une utilisation normale (même à 100% du CPU), les 10 watts à des cas extrêmes inutiles genre Prime95/OCCT.
Soit je mets un système refroidissement capable d’encaisser 10W, et tout va bien quelle que soit mon utilisation, mais mon ultrabook est épais (gros radiateur).
Soit je mets un système capable d’encaisser 7 watts, et tout va bien en utilisation normale. Par contre, si j’essaie de le faire chauffer pour le faire chauffer (Prime95 & co), il va faire du throttle et baisser sa fréquence. Mais mon portable sera fin (petit radiateur).
Au final, en temps que constructeur, c’est donc le SDP qui m’intéresse, pas le TDP.
Et donc, il faudrait l’élargir jusqu’à quel ratio pour qu’il corresponde au champ de vision (le tien) ?
Tu trouves que ça, ou ça, ça ressemble à du 16⁄9 ?
Mon écran desktop est en 16:10. Quand je passe sur mon portable en 16:9, ce qui me gêne est bien davantage le ratio que le manque de pixels.
Sans doute as-tu raison, ce n’est pas une question de vision binoculaire (environ 4⁄3 sur tes liens). Mais alors peut-être est-ce la plus grande facilité des yeux à balayer horizontalement plutôt que verticalement. Sinon, comment expliquer que l’on fait toujours du dual-screen horizontal et non vertical (mis à part le problème de pied) ?
Mon ordi chez moi est en 5:4, au taf en 16:9 (1600x900). C’est le nombre de lignes qui me gêne au taf, pas le ratio (mais je pense que chaque expérience est unique).
Le
18/07/2013 à
12h
17
OlivierJ a écrit :
Sérieusement, le 16:9 ne devrait pas exister, et même le 16:10 en informatique, je ne vois pas l’intérêt. Vive le 4:3, plus adapté au développement, à la lecture et au traitement photo.
Sur les petits écrans, je suis d’accord.
Mais plus sa taille augmente, plus il envahit ton champ de vision, et ce n’est pas plus mal qu’il s’élargisse.
Le
18/07/2013 à
09h
39
Avec l’augmentation de la résolution, le débat 16:10 / 16:9 prend une autre tournure. Ce qu’on reproche au 16:9, c’est son manque de lignes. Editer un doc ou même lire une page web en 1080 lignes est toujours moins confortable qu’en 1200. Néanmoins si le nombre de lignes (et la taille de l’écran) augmentent drastiquement comme sur ce moniteur, ce n’est plus un problème. A partir de là, vu que notre champ de vision est plus horizontal que vertical, 16:9 est meilleur (à surface et nombre de pixels égaux, bien entendu).
dire que j’ai encore ma P6T avec 2*3 canaux de DRAM " /> j’en voie plus de tout des triples channel donc en fait c’était pas mieux ? on m’aurais menti " /> bon en tout cas mon pc a 4 ans et il tourne toujours super bien " />
On en est au quad-channel sur socket 2011.
En gros, le triple channel commence à avoir un effet à partir de 6 coeurs + HT, sur certaines apps.
C’est la rumeur qui a couru un temps on ne sait pas trop pour quelle raison. Mais non, ce n’est pas prévu. Le BGA va certes gagner du terrain (il est déjà largement utilisé contrairement à ce que semblent croire certains), notamment pour toute des machines à format spécifique, mais il ne remplacera pas toute la gamme.
HFr vient d’en rajouter une couche dans leur dossier :
L’année prochaine cependant, le “Tick” Broadwell sera probablement réservé au BGA, et plus précisément aux processeurs basse consommation qui auront le plus à profiter de l’arrivée du 14nm.
par contre je peux acheter un sandy bridge maintenant ou attendre pour haswell mais je ne sais pas quel est l’intérêt de haswell ..
L’intérêt de Haswell, c’est de faire baisser le prix des cartes mères Sandy (bonnes soldes en perspective) et des procs d’occase. Donc oui, il faut attendre " />
Les TV ne font plus 60hz maintenant. En général c’est 100Hz minimum. On trouve même des plasmas à 600hz !
Les entrées sont toujours limitées à 60Hz, donc cela ne change rien. Un film en 3D active 120Hz/1080p est en fait envoyé par le HDMI en 24Hz x2, la TV se chargeant de calculer des images intermédiaires.
Sur les salons, les premières TV prototypes OLED datent de 2005 (Samsung). Les premières SED de 2006 (Canon/Toshiba). L’engouement pour les TV SED provenait du fait que ces TV étaient plus grandes (21” vs 55”), mais il est faux de dire qu’on ne parlait pas d’OLED à cette époque.
Le
20/05/2013 à
13h
09
Si on prend l’exemple d’un téléphone aux côtés arrondis (ex : Nokia 800), un écran légèrement courbé sur les bords gauche et droite permettrait de gagner an surface d’affichage sans augmenter la taille du téléphone.
Le
20/05/2013 à
11h
34
goodwhitegod a écrit :
Simple, c’est la techno qui proposait tous les avantages du CRT et du LCD.
Pitch très petit, latence ultra faible, contraste et luminosité important, etc. dans un encombrement contenu (ce point par rapport au CRT de l’époque).
Le TOP !
Le pitch n’est pas le problème de l’OLED (cf. Samsung S4)
Latence OLED ultra faible aussi (1 µs)
Contraste OLED infini
Luminosité : C’était la principale faiblesse des écrans SED prototypes à l’époque.
Encombrement : l’OLED reste 10x plus fin
Néanmoins tout à l’heure j’ai écrit quelque chose d’inexact : Canon comptait bien ‘imprimer’ les grilles d’émetteurs sur ses écrans SED.
Le
20/05/2013 à
08h
18
goodwhitegod a écrit :
C’est pire avec les écrans SED qui seraient la meilleur technologie d’écran que nous aurions pu avoir pour nos PC…
Quel est l’avantage du (feu) SED par rapport à l’OLED ? Mis à part la promesse d’une mise sur le marché moins tardive que l’OLED (il faut se méfier de ces promesses…), je ne vois pas. Peut-être une meilleure fidélité des couleurs ? En tous cas pas le prix à terme : à l’heure où on crée des imprimantes à écran OLED, créer un procédé bon marché créant un canon à électron par sous-pixel me paraît difficile.
Les alimentations risque de couper pour cause d’économie d’énergie " />
D’un autre côté, le mode C6 étant désactivable, on pourra toujours s’en sortir avec une alim non compatible. Et on peut difficilement en vouloir à Intel de faire des processeurs toujours moins gourmands…
Comme d’hab tout le discours marketing tourne autour de la bande passante et ne dit rien de la latence, au moins aussi importante. Pourtant…
* Aujourd’hui les meilleures bandes passantes excèdent les besoins des CPU et n’apportent plus aucune gain en perfs. A contrario réduire la latence a un effet important.
* Des CPU plus puissants nécessiteront davantage de bande passante mais il n’y a pas de quoi s’exciter sur ces nouvelles bandes passantes. D’autant qu’à chaque nouvelle génération de mémoire la latence remonte à des niveaux médiocres et ne redescend qu’à la fin de la génération.
TL;DR : ne vous excitez pas sur les mémoires haut de gamme, regardez les benches pour savoir à quelle fréquence votre CPU cesse de gagner en puissance, puis privilégiez la plus faible latence possible à ce niveau. Et n’hésitez pas à perdre un peu en fréquence si vous gagnez en latence.
Ouaip, meilleure bande passante mais latences plus élevées. Bien pour le GPU, pas bien pour le CPU.
“si l’on pouvait débattre entre privilégier fréquence ou timings à l’époque de la DDR2, aujourd’hui la question est réglée : la fréquence prime sur le reste dans quasiment tous les cas.”
C’est vrai que l’augmentation de la vitesse de la mémoire au delà d’un certain niveau n’apporte pas beaucoup de perfs aujourd’hui. Cependant les hexa-cores Intel aiment le triple-channel, ce qui montre qu’un surplus de bande passante peut être utile. Et comme mon petit doigt me dit que les core i7 Skylake (1ère gen DDR4 grand public) ont des chances d’être en hexacore, de la RAM dual channel plus rapide sera utile.
188 commentaires
Un malware exploite une faille Java corrigée en juin dernier
29/01/2014
Le 29/01/2014 à 13h 03
Y a-t-il encore un intérêt pour un particulier de laisser l’intégration dans un navigateur ? Quels sites ‘honnêtes’ réclament encore Java ?
Des HDD de 500 Go dans les tablettes : la fausse bonne idée de Seagate
14/01/2014
Le 14/01/2014 à 09h 42
Le 14/01/2014 à 08h 54
Perso je trouve ça pas mal, pour par exemple transporter des films pour les enfants dans une voiture. Et si l’autonomie est limite sur un long trajet, on peut toujours le brancher sur l’allume-cigare.
Routeurs et répéteurs Wi-Fi 802.11ac chez Buffalo, D-Link, Netgear et Linksys
10/01/2014
Le 10/01/2014 à 15h 51
La Chine demande à demi-mots que le support de Windows XP soit étendu
05/12/2013
Le 05/12/2013 à 12h 36
Mega évolue : version iOS, synchronisation et messagerie instantanée OTR
08/11/2013
Le 08/11/2013 à 12h 11
Kaveri pourrait être annoncé en décembre, disponible en février
28/10/2013
Le 28/10/2013 à 17h 16
Wii U : les idées recues sont plus problématiques que son prix, selon Nintendo
11/10/2013
Le 13/10/2013 à 09h 57
Le 11/10/2013 à 14h 07
Galaxy Round : que faut-il penser du smartphone incurvé de Samsung ?
09/10/2013
Le 09/10/2013 à 12h 28
Je pensais que faire des téléphones incurvés les rendraient plus confortables dans la poche avant d’un jean. Mais là visiblement ce n’est pas le but. Je retiens néanmoins l’argument de lincruste_2 sur le risque plus faible d’iNpact, qui est intéressant.
Archos renouvelle ses tablettes Platinum, à partir de 149,99 euros
04/10/2013
Le 04/10/2013 à 08h 35
Le retour de la taxe sur la publicité en ligne
30/09/2013
Le 30/09/2013 à 14h 22
NVIDIA propose Tegra TAB, une tablette de 7″ en marque blanche
09/09/2013
Le 09/09/2013 à 16h 44
Plextor M6 : des SSD avec des puces de NAND Toshiba « Advanced 19 nm »
09/09/2013
Le 09/09/2013 à 15h 56
Le 09/09/2013 à 14h 29
MSI AG2712A : un PC tout-en-un dédié aux joueurs à 2 299 euros
23/08/2013
Le 23/08/2013 à 08h 23
Le 23/08/2013 à 08h 04
Le Game Bundle : un Humble Bundle français, mais avec un prix fixe
21/08/2013
Le 21/08/2013 à 15h 57
NVIDIA domine un marché des cartes graphiques moribond
21/08/2013
Le 21/08/2013 à 07h 44
Le 21/08/2013 à 07h 31
Le 21/08/2013 à 07h 13
LGA 1150 chez ASUS : du port parallèle sur H81 à Thunderbolt 2 sur Z87
20/08/2013
Le 20/08/2013 à 14h 28
Pour prouver une faille sur Facebook, il pirate le compte de Mark Zuckerberg
19/08/2013
Le 19/08/2013 à 14h 44
Il faudrait que Facebook ait sa page HacKMeIfYouCan…
Quand Google déréférence pour Microsoft des liens vers Open Office
16/08/2013
Le 16/08/2013 à 08h 51
Le 16/08/2013 à 08h 35
Cooler Master Silencio 352 : un boîtier compact et discret pour moins de 55 €
14/08/2013
Le 14/08/2013 à 16h 00
Radeon HD 7990 : à partir de 617,99 € avec huit jeux, en attendant Hawaii
08/08/2013
Le 08/08/2013 à 15h 43
Free Mobile aurait tout le mal du monde à écouler ses smartphones
07/08/2013
Le 07/08/2013 à 15h 14
Est-ce pour cela qu’ils ont proposé le ZTE 160 à 5 euros FdP inclus il y a quelques jours ?
Haswell : Intel confirme le modèle passif à 4,5 W de SDP
24/07/2013
Le 24/07/2013 à 13h 41
Voici mon explication pour le SDP (qui ne concerne que l’extra-mobilité) :
Supposons un proc qui fait 7 watts de SDP et 10 watts de TDP, que l’on voudrait mettre dans un ultrabook.
Les 7 watts correspondent à un max pour une utilisation normale (même à 100% du CPU), les 10 watts à des cas extrêmes inutiles genre Prime95/OCCT.
Soit je mets un système refroidissement capable d’encaisser 10W, et tout va bien quelle que soit mon utilisation, mais mon ultrabook est épais (gros radiateur).
Soit je mets un système capable d’encaisser 7 watts, et tout va bien en utilisation normale. Par contre, si j’essaie de le faire chauffer pour le faire chauffer (Prime95 & co), il va faire du throttle et baisser sa fréquence. Mais mon portable sera fin (petit radiateur).
Au final, en temps que constructeur, c’est donc le SDP qui m’intéresse, pas le TDP.
PQ321Q d’Asus : le 3840 x 2160 à 60 Hz, ce n’est pas si simple dans la pratique
18/07/2013
Le 18/07/2013 à 14h 02
Le 18/07/2013 à 12h 17
Le 18/07/2013 à 09h 39
Avec l’augmentation de la résolution, le débat 16:10 / 16:9 prend une autre tournure. Ce qu’on reproche au 16:9, c’est son manque de lignes. Editer un doc ou même lire une page web en 1080 lignes est toujours moins confortable qu’en 1200. Néanmoins si le nombre de lignes (et la taille de l’écran) augmentent drastiquement comme sur ce moniteur, ce n’est plus un problème. A partir de là, vu que notre champ de vision est plus horizontal que vertical, 16:9 est meilleur (à surface et nombre de pixels égaux, bien entendu).
June, 5:4 inside.
Des CD et vinyles achetés sur Amazon.fr disponibles en MP3 gratuitement
25/06/2013
Le 25/06/2013 à 13h 51
J’ai acheté des CDs vierges sur Amazon, j’ai effectivement un MP3 de 80 mins de silence disponible sur mon compte. Bien joué Amazon.
Free : la Femto-cell est disponible dans l’espace Mon compte
20/06/2013
Le 20/06/2013 à 12h 52
Est-ce que ces Femtocells seront compatibles 4G quand ce sera déployé ?
Haswell : les cartes mères ASUS et Gigabyte pour les Xeon E3 1200 v3
06/06/2013
Le 06/06/2013 à 09h 26
[MàJ] [Récap’] Le détail des processeurs Haswell du Pentium au Core i7
02/09/2013
Le 05/06/2013 à 09h 29
Haswell : les Core i5 et i7 4000 sont disponibles, à partir de 177,95 €
01/06/2013
Le 03/06/2013 à 07h 09
Gigabyte Z87X-UD3H / UD4H : deux cartes mères parées pour Haswell
29/05/2013
Le 29/05/2013 à 08h 44
Revue de presse : le SSD Vertex 450 d’OCZ tient-il ses promesses ?
24/05/2013
Le 24/05/2013 à 12h 30
Et pour ceux qui sont allergiques à l’Anglais, il y a le test de Clubic.
Microsoft annonce la XBox One : tout ce qu’il faut savoir
21/05/2013
Le 21/05/2013 à 19h 22
LG : un écran OLED flexible de 5 pouces pour les smartphones
20/05/2013
Le 20/05/2013 à 13h 27
Le 20/05/2013 à 13h 09
Si on prend l’exemple d’un téléphone aux côtés arrondis (ex : Nokia 800), un écran légèrement courbé sur les bords gauche et droite permettrait de gagner an surface d’affichage sans augmenter la taille du téléphone.
Le 20/05/2013 à 11h 34
Le 20/05/2013 à 08h 18
5G : Samsung commence les tests, des débits de plusieurs Gb/s d’ici 2020
13/05/2013
Le 13/05/2013 à 16h 01
Haswell : lancement le 4 juin
26/04/2013
Le 28/04/2013 à 18h 14
[Dossier PCi] Ce qu’il faut savoir du Galaxy S4, quelles alternatives ?
26/04/2013
Le 26/04/2013 à 15h 52
Mes critères pour un portable :
Donc le S4 c’est FAIL/FAIL/FAIL/FAIL/FAIL/FAIL/FAIL.
Alors qu’un Nokia à moins de 25 euros répond à tous ces critères.
Donc j’ai voté NON " />
Insolite : une infographie retrace l’histoire des contrôleurs de jeu
18/04/2013
Le 18/04/2013 à 16h 30
Le 18/04/2013 à 15h 43
Selon Intel, la DDR4 arrivera plus tard, malgré ses avantages
10/04/2013
Le 10/04/2013 à 11h 46