votre avatar

june

est avec nous depuis le 11 février 2003 ❤️

188 commentaires

Le 29/01/2014 à 13h 03

Y a-t-il encore un intérêt pour un particulier de laisser l’intégration dans un navigateur ? Quels sites ‘honnêtes’ réclament encore Java ?

Le 14/01/2014 à 09h 42







Vindev_HELL84 a écrit :



voiture, secousse, hdd classique heu…. mouais XD





Ca marche très bien avec les vieils Archos à disque dur. Ce n’est pas un problème.


Le 14/01/2014 à 08h 54

Perso je trouve ça pas mal, pour par exemple transporter des films pour les enfants dans une voiture. Et si l’autonomie est limite sur un long trajet, on peut toujours le brancher sur l’allume-cigare.

Le 10/01/2014 à 15h 51







EMegamanu a écrit :



Par contre faut jouer du fer à souder pour les flasher ?





Non, tout se fait par soft. Par contre si tu briques ton engin il faut l’ouvrir et relier certaines pattes de puces entre elles à la main (du moins sur le WRT54G).


Le 05/12/2013 à 12h 36







gavroche69 a écrit :



Mais en quoi on leur force la main ?



S’ils utilisent Windows XP et ne veulent pas en changer c’est probablement qu’ils utilisent des applicatifs qui ne fonctionneraient pas sous d’autres OS, donc si ça fonctionne tel quel personne ne les oblige à changer d’OS il me semble…





Plus probablement des machines disposant 256-512 Mo de RAM, le manque de connaissances pour réinstaller un système plus récent.



En tous cas je viens de vérifier la politique Ubuntu. Si XP avait été un produit Ubuntu, même Long Term Support, le support n’aurait pas excédé janvier 2012.


Le 08/11/2013 à 12h 11







Lnely a écrit :



J’accroche pas, c’est cher je trouve je prefere rester sur Skydrive, les 7go gratuit me suffisent clairement





Hein ? C’est pas 50 Go gratuits sur Mega ?


Le 28/10/2013 à 17h 16







ArchangeBlandin a écrit :



C’est toujours pas des nouveaux FX…

Je le sens mal ce coup là… Ils vont surement bientôt annoncer que les prochains FX ne seront pas en socket AM3+… Misère.

Parce que le proco à 220W, je le fais tout seul quand je déconne avec les tensions de mon proco…





Cela fait longtemps qu’ils ont annoncé qu’aucune nouvelle archi ne sortirait sur AM3+…


Le 13/10/2013 à 09h 57







Hexawolf a écrit :



Malgré sa puissance supérieure à la XB1 (qui est d’autant plus visible que les choix matériels sont semblables), son prix inférieur, l’absence de polémique à l’E3 et qu’elle ait 5 fois plus de précommandes que la XB1 ?





Je crois que tu as compris de travers…

La PS4 risque d’être absente des rayons à cause de la rupture de stock, pas parce qu’elle se vendra mal !


Le 11/10/2013 à 14h 07







Xiongxiong_zen a écrit :



C’est triste de devoir, un an après la sortie de sa machine, compter sur un remake pour faire décoller les ventes. Cette console va se faire sortir des rayons, ou en tout cas des mises en avant, lorsque les PS4 et Xbox One seront sorties.





Perso je parie plus sur une disparition rapide de la PS4 des rayons (pas pour la même raison…).


Le 09/10/2013 à 12h 28

Je pensais que faire des téléphones incurvés les rendraient plus confortables dans la poche avant d’un jean. Mais là visiblement ce n’est pas le but. Je retiens néanmoins l’argument de lincruste_2 sur le risque plus faible d’iNpact, qui est intéressant.

Le 04/10/2013 à 08h 35







DUNplus a écrit :



Je comprend pas pourquoi ils persiste a mettre du 4:3 sur les moins de 10”….





C’est quand même vachement mieux que 16:9 ou 16:10 pour la navigation web…


Le 30/09/2013 à 14h 22







trash54 a écrit :



@Marc : pas sympa l’image dans l’actu, en regardant celle-ci je viens de sentir 15 cheveux blanc et 5 rides de plus <img data-src=" />



<img data-src=" />





Et maintenant j’ai le jingle dans la tête ! <img data-src=" />


Le 09/09/2013 à 16h 44







arkansis a écrit :



Pourquoi une si faible définition par rapport au Tegra4 capable de gérer bien mieux ?



Et pourquoi pas la vendre sous la marque nvidia ? Ils craignent un manque de visibilité de la marque ?





NVidia ne veut pas s’aliéner les autres constructeurs en leur faisant directement concurrence.


Le 09/09/2013 à 15h 56







patos a écrit :



Pour l’instant, hormis un SSD SAS double canal, c’est mort, ça plafonne à 6Gbpps le SATA, soit 750600Mo/s





C’est un codage 10b/8b.

<img data-src=" /> bis


Le 09/09/2013 à 14h 29







Nithril a écrit :



3Gb/s, ca fait quand même du 375300MB/s





C’est un codage 10b/8b.

<img data-src=" />


Le 23/08/2013 à 08h 23







Lafisk a écrit :



Sauf que l’on a déjà constaté à plus d’une reprise que les clients Apple étaient très différents des autres clients en terme d’achat, et la en plus du tout en un 27”, c’est orienté gamer, une niche dans une niche quoi … car, à ma connaissance, Apple ne fait pas de config gamer dans ce genre.





Justement, les perfs en gaming eût été la façon de se différencier d’Apple. Si la cible est le gamer-chicos-friqué, c’est raté à cause du design. Une personne capable d’accepter un tel design est capable d’accepter une tour.


Le 23/08/2013 à 08h 04







John Shaft a écrit :



Je comprends pas trop l’intérêt du produit : des perfs de mobiles dans un truc pas fait pour être transportable <img data-src=" />



Normalement un joueur a de la place pour une vraie tour, qu’il paiera de surcroît moins cher pour des perfs supérieurs







Il y a une niche pour des clients qui ne veulent surtout pas une tour, car cela défigure une pièce. Mais dans ce cas ces gens veulent un écran classe, pas un truc rouge taillé à la hache. Apple l’a bien compris, MSI non.


Le 21/08/2013 à 15h 57







badboycracker a écrit :



encore un bundle Fr mort né. On comprend vraiment rien dans ce pays…..





Pourquoi ? Perso le pack casu a fait mon bonheur… Je ne dois pas être le seul.


Le 21/08/2013 à 07h 44







Reparateur a écrit :



le temps passent vite je pensais à des carte sorties encore avant <img data-src=" />





En 1999, la première Geforce valait plus de 300 € en SDR et 400 en DDR…



Ce qui est vraiment en augmentation, ce sont les prix premiums (déjà les 600+ € de la 8800 GTX avaient choqué à l’époque, maintenant 1000 € paraissent classiques).


Le 21/08/2013 à 07h 31







Reparateur a écrit :



par contre il semble clair qu’il y a entente sur les prix et la vitesse de renouvellement



il y a 10 ans une carte haut de gamme c’était 200€ maintenant c’est 400€

alors la gamme s’étale de 50€ à 800€ mais bon … (il y a 15 ans une carte ultra haut de gamme de la mort genre 3dfx 2 ça devais couter 250 € lol)





Il y a 10 ans, le haut de gamme étaient chez les verts la FX5900 Ultra à 519 € et chez les rouges la 9800 pro à 400+ €.


Le 21/08/2013 à 07h 13







tsubasaleguedin a écrit :



En meme temps vu le peu d”evolution global … je tourne toujours a la 9600GT de 2007 …





Tu parles de cette fameuse carte qui est sortie en 2008 ? <img data-src=" />


Le 20/08/2013 à 14h 28







Ti Gars du Nord a écrit :



Si je comprend bien

le H81 est inférieur au H87 mais supérieur au B85 ?





En pratique, le H81 est inférieur au B85 (moins d’USB3, moins de SATA, 2 barrettes de RAM max).


Le 19/08/2013 à 14h 44

Il faudrait que Facebook ait sa page HacKMeIfYouCan…

Le 16/08/2013 à 08h 51







0rsa a écrit :



Le fait de rajouter une année à un produit l’identifie à un produit concurrent ? C’est pas exagéré la quand même ?



Je ne suis pas allé voir le contenu de ces sites pour voir si c’est la vraie suite OpenOffice qui est derrière mais juger de la pertinence du retrait d’un lien du fait de la présence de l’année 2010 dans son nom, ça me dérange pour ma part.





Tout à fait, l’ajout d’un nombre peut faire partie d’une marque. Si la fondation OpenOffice avait sorti un ‘Open Office 2010’, il se seraient fait attaquer par MS, à juste titre à mon avis, car la confusion me semble facile à établir.


Le 16/08/2013 à 08h 35







statoon54 a écrit :



En même temps quand on regarde bien les liens , on voit bien Open-OFFICE 2010 ….. Honnêtement je suis pas sur que ce sont bien des versions de OpenOffice dont il s’agit .



On sait très bien que ses liens sont simplement maquillés vers des versions pirates d’office .



A vrai dire , le retrait de ces liens est tout à fait honnête et logique.





Tout à fait d’accord.



Si je vois un lien ‘Open Office 2010’, je m’attends autant à la suite de MS qu’à la suite libre (ou a un virus).

Pour moi c’est une non-news.


Le 14/08/2013 à 16h 00







Anartux a écrit :



En fait, c’est la “caisse” du N 200 vendu lui seulement 39 euros chez LDLC. Un peu d’isolant et un façade différente (pour 15 euros de plus).





Avec un USB 3 de plus et un lecteur SD quand même.


Le 08/08/2013 à 15h 43







Horrza a écrit :



A quand le 20nm, c’est la seule question à poser à AMD et Envidia…





NVidia avait l’air déçus du 20nm de TSMC ce printemps : gains perfs faibles, gains TDP faibles, prix au transistor ne baissant pas. Espérons qu’il soit plus au point maintenant.

A part ça TSMC clame qu’ils commenceront à graver le 10 nm en 2015 pour une prod en volume en 2016. Ça donnerait 20 nm en 2014, 1614? nm en 2015 et 10 nm en 2016. On peut toujours rêver à une accélération des die-shrinks…


Le 07/08/2013 à 15h 14

Est-ce pour cela qu’ils ont proposé le ZTE 160 à 5 euros FdP inclus il y a quelques jours ?

Le 24/07/2013 à 13h 41

Voici mon explication pour le SDP (qui ne concerne que l’extra-mobilité) :

Supposons un proc qui fait 7 watts de SDP et 10 watts de TDP, que l’on voudrait mettre dans un ultrabook.

Les 7 watts correspondent à un max pour une utilisation normale (même à 100% du CPU), les 10 watts à des cas extrêmes inutiles genre Prime95/OCCT.

Soit je mets un système refroidissement capable d’encaisser 10W, et tout va bien quelle que soit mon utilisation, mais mon ultrabook est épais (gros radiateur).

Soit je mets un système capable d’encaisser 7 watts, et tout va bien en utilisation normale. Par contre, si j’essaie de le faire chauffer pour le faire chauffer (Prime95 & co), il va faire du throttle et baisser sa fréquence. Mais mon portable sera fin (petit radiateur).



Au final, en temps que constructeur, c’est donc le SDP qui m’intéresse, pas le TDP.

Le 18/07/2013 à 14h 02







vampire7 a écrit :



Et donc, il faudrait l’élargir jusqu’à quel ratio pour qu’il corresponde au champ de vision (le tien) ?

Tu trouves que ça, ou ça, ça ressemble à du 169 ?

Mon écran desktop est en 16:10. Quand je passe sur mon portable en 16:9, ce qui me gêne est bien davantage le ratio que le manque de pixels.





Sans doute as-tu raison, ce n’est pas une question de vision binoculaire (environ 43 sur tes liens). Mais alors peut-être est-ce la plus grande facilité des yeux à balayer horizontalement plutôt que verticalement. Sinon, comment expliquer que l’on fait toujours du dual-screen horizontal et non vertical (mis à part le problème de pied) ?

Mon ordi chez moi est en 5:4, au taf en 16:9 (1600x900). C’est le nombre de lignes qui me gêne au taf, pas le ratio (mais je pense que chaque expérience est unique).


Le 18/07/2013 à 12h 17







OlivierJ a écrit :



Sérieusement, le 16:9 ne devrait pas exister, et même le 16:10 en informatique, je ne vois pas l’intérêt. Vive le 4:3, plus adapté au développement, à la lecture et au traitement photo.





Sur les petits écrans, je suis d’accord.

Mais plus sa taille augmente, plus il envahit ton champ de vision, et ce n’est pas plus mal qu’il s’élargisse.


Le 18/07/2013 à 09h 39

Avec l’augmentation de la résolution, le débat 16:10 / 16:9 prend une autre tournure. Ce qu’on reproche au 16:9, c’est son manque de lignes. Editer un doc ou même lire une page web en 1080 lignes est toujours moins confortable qu’en 1200. Néanmoins si le nombre de lignes (et la taille de l’écran) augmentent drastiquement comme sur ce moniteur, ce n’est plus un problème. A partir de là, vu que notre champ de vision est plus horizontal que vertical, 16:9 est meilleur (à surface et nombre de pixels égaux, bien entendu).



June, 5:4 inside.

Le 25/06/2013 à 13h 51

J’ai acheté des CDs vierges sur Amazon, j’ai effectivement un MP3 de 80 mins de silence disponible sur mon compte. Bien joué Amazon.

Le 20/06/2013 à 12h 52

Est-ce que ces Femtocells seront compatibles 4G quand ce sera déployé ?

Le 06/06/2013 à 09h 26







Stargateur a écrit :



dire que j’ai encore ma P6T avec 2*3 canaux de DRAM <img data-src=" /> j’en voie plus de tout des triples channel donc en fait c’était pas mieux ? on m’aurais menti <img data-src=" /> bon en tout cas mon pc a 4 ans et il tourne toujours super bien <img data-src=" />





On en est au quad-channel sur socket 2011.

En gros, le triple channel commence à avoir un effet à partir de 6 coeurs + HT, sur certaines apps.


Le 05/06/2013 à 09h 29







Zekk a écrit :



Bwarf on en est déjà à la 4eme gen alors que j’ai toujours un I7-860… qui fonctionne du feu de dieu <img data-src=" />

La seule chose dommageable est qu’il ne gère pas le PCI express 3.0, sinon je changerai bien ma CG (470GTX).





Tu peux mettre une carte PCI-E 3.0 sur ta configuration. Tu n’auras pas de problème de performance. Je te conseille la lecture de cet article.


Le 03/06/2013 à 07h 09







David_L a écrit :



C’est la rumeur qui a couru un temps on ne sait pas trop pour quelle raison. Mais non, ce n’est pas prévu. Le BGA va certes gagner du terrain (il est déjà largement utilisé contrairement à ce que semblent croire certains), notamment pour toute des machines à format spécifique, mais il ne remplacera pas toute la gamme.





HFr vient d’en rajouter une couche dans leur dossier :



L’année prochaine cependant, le “Tick” Broadwell sera probablement réservé au BGA, et plus précisément aux processeurs basse consommation qui auront le plus à profiter de l’arrivée du 14nm.



Si le dieu Marc le dit…


Le 29/05/2013 à 08h 44







oursgris a écrit :



je me suis mal exprimé

j’ai un core quad

par contre je peux acheter un sandy bridge maintenant ou attendre pour haswell mais je ne sais pas quel est l’intérêt de haswell ..





L’intérêt de Haswell, c’est de faire baisser le prix des cartes mères Sandy (bonnes soldes en perspective) et des procs d’occase. Donc oui, il faut attendre <img data-src=" />


Le 24/05/2013 à 12h 30

Et pour ceux qui sont allergiques à l’Anglais, il y a le test de Clubic.

Le 21/05/2013 à 19h 22







linconnu a écrit :



Les TV ne font plus 60hz maintenant. En général c’est 100Hz minimum. On trouve même des plasmas à 600hz !





Les entrées sont toujours limitées à 60Hz, donc cela ne change rien. Un film en 3D active 120Hz/1080p est en fait envoyé par le HDMI en 24Hz x2, la TV se chargeant de calculer des images intermédiaires.


Le 20/05/2013 à 13h 27







goodwhitegod a écrit :



Il n’y avait pas d’OLED quand on parlait du SED…





Sur les salons, les premières TV prototypes OLED datent de 2005 (Samsung). Les premières SED de 2006 (Canon/Toshiba). L’engouement pour les TV SED provenait du fait que ces TV étaient plus grandes (21” vs 55”), mais il est faux de dire qu’on ne parlait pas d’OLED à cette époque.


Le 20/05/2013 à 13h 09

Si on prend l’exemple d’un téléphone aux côtés arrondis (ex : Nokia 800), un écran légèrement courbé sur les bords gauche et droite permettrait de gagner an surface d’affichage sans augmenter la taille du téléphone.

Le 20/05/2013 à 11h 34







goodwhitegod a écrit :



Simple, c’est la techno qui proposait tous les avantages du CRT et du LCD.



Pitch très petit, latence ultra faible, contraste et luminosité important, etc. dans un encombrement contenu (ce point par rapport au CRT de l’époque).



Le TOP !









  • Le pitch n’est pas le problème de l’OLED (cf. Samsung S4)

  • Latence OLED ultra faible aussi (1 µs)

  • Contraste OLED infini

  • Luminosité : C’était la principale faiblesse des écrans SED prototypes à l’époque.

  • Encombrement : l’OLED reste 10x plus fin





    Néanmoins tout à l’heure j’ai écrit quelque chose d’inexact : Canon comptait bien ‘imprimer’ les grilles d’émetteurs sur ses écrans SED.


Le 20/05/2013 à 08h 18







goodwhitegod a écrit :



C’est pire avec les écrans SED qui seraient la meilleur technologie d’écran que nous aurions pu avoir pour nos PC…





Quel est l’avantage du (feu) SED par rapport à l’OLED ? Mis à part la promesse d’une mise sur le marché moins tardive que l’OLED (il faut se méfier de ces promesses…), je ne vois pas. Peut-être une meilleure fidélité des couleurs ? En tous cas pas le prix à terme : à l’heure où on crée des imprimantes à écran OLED, créer un procédé bon marché créant un canon à électron par sous-pixel me paraît difficile.


Le 13/05/2013 à 16h 01







killer63 a écrit :



de la 5G en 2020 au japon et en corée du sud, ca ne fait aucun doute



par contre en france, on peut bien rajouter 810 ans en plus <img data-src=" />





Je ne pense pas. Vendre des plages de fréquence a toujours été une bonne pompe à fric pour tout gouvernement. Il n’y aura donc aucun retard.


Le 28/04/2013 à 18h 14







refuznik a écrit :



Hardware.fr pointe par contre un truc assez comique :



http://www.hardware.fr/news/13091/haswell-incompatible-alimentations-compatibili…



Les alimentations risque de couper pour cause d’économie d’énergie <img data-src=" />





D’un autre côté, le mode C6 étant désactivable, on pourra toujours s’en sortir avec une alim non compatible. Et on peut difficilement en vouloir à Intel de faire des processeurs toujours moins gourmands…


Le 26/04/2013 à 15h 52

Mes critères pour un portable :




  • indestructible

  • batterie tenant plus d’une semaine

  • tout petit

  • pas cher

  • permet de profiter du forfait Free/2€ sans être bridé/brimé

  • ne doit pas être supplanté par la version qui sortira dans 1 an (dans la même gamme), car je le garde au moins 5 ans.

  • doit rester un outil et non un truc que l’on sort tout le temps (et duquel on devient esclave sans s’en apercevoir).

    Donc le S4 c’est FAIL/FAIL/FAIL/FAIL/FAIL/FAIL/FAIL.

    Alors qu’un Nokia à moins de 25 euros répond à tous ces critères.



    Donc j’ai voté NON <img data-src=" />

Le 18/04/2013 à 16h 30







tAran a écrit :



Non mais What TF !! <img data-src=" />



Site : Geekologie (avec le mot Geek dedans)



Et ils ont même pas cités les deux plus grands joysticks de l’atari et de l’amiga : les Speedking et Navigator



… ou alors il n’y a que de pauvres copies.. <img data-src=" />





Edith : #semigrilled par DarKCallistO, refuznik, …





<img data-src=" />

Encore que dans le même style, pour avoir eu les 3 je préfère la Phasor One, moins connue mais avec une prise en main encore meilleure.


Le 18/04/2013 à 15h 43







steinfield a écrit :



Qui arrivera à trouver l’oubli?





Ou alors, la canne à pêche Dreamcast…


Le 10/04/2013 à 11h 46







HarmattanBlow a écrit :



Comme d’hab tout le discours marketing tourne autour de la bande passante et ne dit rien de la latence, au moins aussi importante. Pourtant…

* Aujourd’hui les meilleures bandes passantes excèdent les besoins des CPU et n’apportent plus aucune gain en perfs. A contrario réduire la latence a un effet important.

* Des CPU plus puissants nécessiteront davantage de bande passante mais il n’y a pas de quoi s’exciter sur ces nouvelles bandes passantes. D’autant qu’à chaque nouvelle génération de mémoire la latence remonte à des niveaux médiocres et ne redescend qu’à la fin de la génération.



TL;DR : ne vous excitez pas sur les mémoires haut de gamme, regardez les benches pour savoir à quelle fréquence votre CPU cesse de gagner en puissance, puis privilégiez la plus faible latence possible à ce niveau. Et n’hésitez pas à perdre un peu en fréquence si vous gagnez en latence.





Ouaip, meilleure bande passante mais latences plus élevées. Bien pour le GPU, pas bien pour le CPU.







Je te conseille cet excellent article d’HFr.



“si l’on pouvait débattre entre privilégier fréquence ou timings à l’époque de la DDR2, aujourd’hui la question est réglée : la fréquence prime sur le reste dans quasiment tous les cas.”



C’est vrai que l’augmentation de la vitesse de la mémoire au delà d’un certain niveau n’apporte pas beaucoup de perfs aujourd’hui. Cependant les hexa-cores Intel aiment le triple-channel, ce qui montre qu’un surplus de bande passante peut être utile. Et comme mon petit doigt me dit que les core i7 Skylake (1ère gen DDR4 grand public) ont des chances d’être en hexacore, de la RAM dual channel plus rapide sera utile.