votre avatar

june

est avec nous depuis le 11 février 2003 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

188 commentaires

Un malware exploite une faille Java corrigée en juin dernier

Le 29/01/2014 à 13h 03

Y a-t-il encore un intérêt pour un particulier de laisser l’intégration dans un navigateur ? Quels sites ‘honnêtes’ réclament encore Java ?


Des HDD de 500 Go dans les tablettes : la fausse bonne idée de Seagate

Le 14/01/2014 à 09h 42






Vindev_HELL84 a écrit :

voiture, secousse, hdd classique heu…. mouais XD


Ca marche très bien avec les vieils Archos à disque dur. Ce n’est pas un problème.



Le 14/01/2014 à 08h 54

Perso je trouve ça pas mal, pour par exemple transporter des films pour les enfants dans une voiture. Et si l’autonomie est limite sur un long trajet, on peut toujours le brancher sur l’allume-cigare.


Routeurs et répéteurs Wi-Fi 802.11ac chez Buffalo, D-Link, Netgear et Linksys

Le 10/01/2014 à 15h 51






EMegamanu a écrit :

Par contre faut jouer du fer à souder pour les flasher ?


Non, tout se fait par soft. Par contre si tu briques ton engin il faut l’ouvrir et relier certaines pattes de puces entre elles à la main (du moins sur le WRT54G).



La Chine demande à demi-mots que le support de Windows XP soit étendu

Le 05/12/2013 à 12h 36






gavroche69 a écrit :

Mais en quoi on leur force la main ?

S’ils utilisent Windows XP et ne veulent pas en changer c’est probablement qu’ils utilisent des applicatifs qui ne fonctionneraient pas sous d’autres OS, donc si ça fonctionne tel quel personne ne les oblige à changer d’OS il me semble…


Plus probablement des machines disposant 256-512 Mo de RAM, le manque de connaissances pour réinstaller un système plus récent.

En tous cas je viens de vérifier la politique Ubuntu. Si XP avait été un produit Ubuntu, même Long Term Support, le support n’aurait pas excédé janvier 2012.



Mega évolue : version iOS, synchronisation et messagerie instantanée OTR

Le 08/11/2013 à 12h 11






Lnely a écrit :

J’accroche pas, c’est cher je trouve je prefere rester sur Skydrive, les 7go gratuit me suffisent clairement


Hein ? C’est pas 50 Go gratuits sur Mega ?



Kaveri pourrait être annoncé en décembre, disponible en février

Le 28/10/2013 à 17h 16






ArchangeBlandin a écrit :

C’est toujours pas des nouveaux FX…
Je le sens mal ce coup là… Ils vont surement bientôt annoncer que les prochains FX ne seront pas en socket AM3+… Misère.
Parce que le proco à 220W, je le fais tout seul quand je déconne avec les tensions de mon proco…


Cela fait longtemps qu’ils ont annoncé qu’aucune nouvelle archi ne sortirait sur AM3+…



Wii U : les idées recues sont plus problématiques que son prix, selon Nintendo

Le 13/10/2013 à 09h 57






Hexawolf a écrit :

Malgré sa puissance supérieure à la XB1 (qui est d’autant plus visible que les choix matériels sont semblables), son prix inférieur, l’absence de polémique à l’E3 et qu’elle ait 5 fois plus de précommandes que la XB1 ?


Je crois que tu as compris de travers…
La PS4 risque d’être absente des rayons à cause de la rupture de stock, pas parce qu’elle se vendra mal !



Le 11/10/2013 à 14h 07






Xiongxiong_zen a écrit :

C’est triste de devoir, un an après la sortie de sa machine, compter sur un remake pour faire décoller les ventes. Cette console va se faire sortir des rayons, ou en tout cas des mises en avant, lorsque les PS4 et Xbox One seront sorties.


Perso je parie plus sur une disparition rapide de la PS4 des rayons (pas pour la même raison…).



Galaxy Round : que faut-il penser du smartphone incurvé de Samsung ?

Le 09/10/2013 à 12h 28

Je pensais que faire des téléphones incurvés les rendraient plus confortables dans la poche avant d’un jean. Mais là visiblement ce n’est pas le but. Je retiens néanmoins l’argument de lincruste_2 sur le risque plus faible d’iNpact, qui est intéressant.


Archos renouvelle ses tablettes Platinum, à partir de 149,99 euros

Le 04/10/2013 à 08h 35






DUNplus a écrit :

Je comprend pas pourquoi ils persiste a mettre du 4:3 sur les moins de 10”….


C’est quand même vachement mieux que 16:9 ou 16:10 pour la navigation web…



Le retour de la taxe sur la publicité en ligne

Le 30/09/2013 à 14h 22






trash54 a écrit :

@Marc : pas sympa l’image dans l’actu, en regardant celle-ci je viens de sentir 15 cheveux blanc et 5 rides de plus <img data-src=" />

<img data-src=" />


Et maintenant j’ai le jingle dans la tête ! <img data-src=" />



NVIDIA propose Tegra TAB, une tablette de 7

Le 09/09/2013 à 16h 44






arkansis a écrit :

Pourquoi une si faible définition par rapport au Tegra4 capable de gérer bien mieux ?

Et pourquoi pas la vendre sous la marque nvidia ? Ils craignent un manque de visibilité de la marque ?


NVidia ne veut pas s’aliéner les autres constructeurs en leur faisant directement concurrence.



Plextor M6 : des SSD avec des puces de NAND Toshiba « Advanced 19 nm »

Le 09/09/2013 à 15h 56






patos a écrit :

Pour l’instant, hormis un SSD SAS double canal, c’est mort, ça plafonne à 6Gbpps le SATA, soit 750600Mo/s


C’est un codage 10b/8b.
<img data-src=" /> bis



Le 09/09/2013 à 14h 29






Nithril a écrit :

3Gb/s, ca fait quand même du 375300MB/s


C’est un codage 10b/8b.
<img data-src=" />



MSI AG2712A : un PC tout-en-un dédié aux joueurs à 2 299 euros

Le 23/08/2013 à 08h 23






Lafisk a écrit :

Sauf que l’on a déjà constaté à plus d’une reprise que les clients Apple étaient très différents des autres clients en terme d’achat, et la en plus du tout en un 27”, c’est orienté gamer, une niche dans une niche quoi … car, à ma connaissance, Apple ne fait pas de config gamer dans ce genre.


Justement, les perfs en gaming eût été la façon de se différencier d’Apple. Si la cible est le gamer-chicos-friqué, c’est raté à cause du design. Une personne capable d’accepter un tel design est capable d’accepter une tour.



Le 23/08/2013 à 08h 04






John Shaft a écrit :

Je comprends pas trop l’intérêt du produit : des perfs de mobiles dans un truc pas fait pour être transportable <img data-src=" />

Normalement un joueur a de la place pour une vraie tour, qu’il paiera de surcroît moins cher pour des perfs supérieurs



Il y a une niche pour des clients qui ne veulent surtout pas une tour, car cela défigure une pièce. Mais dans ce cas ces gens veulent un écran classe, pas un truc rouge taillé à la hache. Apple l’a bien compris, MSI non.



Le Game Bundle : un Humble Bundle français, mais avec un prix fixe

Le 21/08/2013 à 15h 57






badboycracker a écrit :

encore un bundle Fr mort né. On comprend vraiment rien dans ce pays…..


Pourquoi ? Perso le pack casu a fait mon bonheur… Je ne dois pas être le seul.



NVIDIA domine un marché des cartes graphiques moribond

Le 21/08/2013 à 07h 44






Reparateur a écrit :

le temps passent vite je pensais à des carte sorties encore avant <img data-src=" />


En 1999, la première Geforce valait plus de 300 € en SDR et 400 en DDR…

Ce qui est vraiment en augmentation, ce sont les prix premiums (déjà les 600+ € de la 8800 GTX avaient choqué à l’époque, maintenant 1000 € paraissent classiques).



Le 21/08/2013 à 07h 31






Reparateur a écrit :

par contre il semble clair qu’il y a entente sur les prix et la vitesse de renouvellement

il y a 10 ans une carte haut de gamme c’était 200€ maintenant c’est 400€
alors la gamme s’étale de 50€ à 800€ mais bon … (il y a 15 ans une carte ultra haut de gamme de la mort genre 3dfx 2 ça devais couter 250 € lol)


Il y a 10 ans, le haut de gamme étaient chez les verts la FX5900 Ultra à 519 € et chez les rouges la 9800 pro à 400+ €.



Le 21/08/2013 à 07h 13






tsubasaleguedin a écrit :

En meme temps vu le peu d”evolution global … je tourne toujours a la 9600GT de 2007 …


Tu parles de cette fameuse carte qui est sortie en 2008 ? <img data-src=" />



LGA 1150 chez ASUS : du port parallèle sur H81 à Thunderbolt 2 sur Z87

Le 20/08/2013 à 14h 28






Ti Gars du Nord a écrit :

Si je comprend bien
le H81 est inférieur au H87 mais supérieur au B85 ?


En pratique, le H81 est inférieur au B85 (moins d’USB3, moins de SATA, 2 barrettes de RAM max).



Pour prouver une faille sur Facebook, il pirate le compte de Mark Zuckerberg

Le 19/08/2013 à 14h 44

Il faudrait que Facebook ait sa page HacKMeIfYouCan…


Quand Google déréférence pour Microsoft des liens vers Open Office

Le 16/08/2013 à 08h 51






0rsa a écrit :

Le fait de rajouter une année à un produit l’identifie à un produit concurrent ? C’est pas exagéré la quand même ?

Je ne suis pas allé voir le contenu de ces sites pour voir si c’est la vraie suite OpenOffice qui est derrière mais juger de la pertinence du retrait d’un lien du fait de la présence de l’année 2010 dans son nom, ça me dérange pour ma part.


Tout à fait, l’ajout d’un nombre peut faire partie d’une marque. Si la fondation OpenOffice avait sorti un ‘Open Office 2010’, il se seraient fait attaquer par MS, à juste titre à mon avis, car la confusion me semble facile à établir.



Le 16/08/2013 à 08h 35






statoon54 a écrit :

En même temps quand on regarde bien les liens , on voit bien Open-OFFICE 2010 ….. Honnêtement je suis pas sur que ce sont bien des versions de OpenOffice dont il s’agit .

On sait très bien que ses liens sont simplement maquillés vers des versions pirates d’office .

A vrai dire , le retrait de ces liens est tout à fait honnête et logique.


Tout à fait d’accord.

Si je vois un lien ‘Open Office 2010’, je m’attends autant à la suite de MS qu’à la suite libre (ou a un virus).
Pour moi c’est une non-news.



Cooler Master Silencio 352 : un boîtier compact et discret pour moins de 55 €

Le 14/08/2013 à 16h 00






Anartux a écrit :

En fait, c’est la “caisse” du N 200 vendu lui seulement 39 euros chez LDLC. Un peu d’isolant et un façade différente (pour 15 euros de plus).


Avec un USB 3 de plus et un lecteur SD quand même.



Radeon HD 7990 : à partir de 617,99 € avec huit jeux, en attendant Hawaii

Le 08/08/2013 à 15h 43






Horrza a écrit :

A quand le 20nm, c’est la seule question à poser à AMD et Envidia…


NVidia avait l’air déçus du 20nm de TSMC ce printemps : gains perfs faibles, gains TDP faibles, prix au transistor ne baissant pas. Espérons qu’il soit plus au point maintenant.
A part ça TSMC clame qu’ils commenceront à graver le 10 nm en 2015 pour une prod en volume en 2016. Ça donnerait 20 nm en 2014, 1614? nm en 2015 et 10 nm en 2016. On peut toujours rêver à une accélération des die-shrinks…



Free Mobile aurait tout le mal du monde à écouler ses smartphones

Le 07/08/2013 à 15h 14

Est-ce pour cela qu’ils ont proposé le ZTE 160 à 5 euros FdP inclus il y a quelques jours ?


Haswell : Intel confirme le modèle passif à 4,5 W de SDP

Le 24/07/2013 à 13h 41

Voici mon explication pour le SDP (qui ne concerne que l’extra-mobilité) :
Supposons un proc qui fait 7 watts de SDP et 10 watts de TDP, que l’on voudrait mettre dans un ultrabook.
Les 7 watts correspondent à un max pour une utilisation normale (même à 100% du CPU), les 10 watts à des cas extrêmes inutiles genre Prime95/OCCT.
Soit je mets un système refroidissement capable d’encaisser 10W, et tout va bien quelle que soit mon utilisation, mais mon ultrabook est épais (gros radiateur).
Soit je mets un système capable d’encaisser 7 watts, et tout va bien en utilisation normale. Par contre, si j’essaie de le faire chauffer pour le faire chauffer (Prime95 & co), il va faire du throttle et baisser sa fréquence. Mais mon portable sera fin (petit radiateur).

Au final, en temps que constructeur, c’est donc le SDP qui m’intéresse, pas le TDP.


PQ321Q d'Asus : le 3840 x 2160 à 60 Hz, ce n'est pas si simple dans la pratique

Le 18/07/2013 à 14h 02






vampire7 a écrit :

Et donc, il faudrait l’élargir jusqu’à quel ratio pour qu’il corresponde au champ de vision (le tien) ?
Tu trouves que ça, ou ça, ça ressemble à du 169 ?
Mon écran desktop est en 16:10. Quand je passe sur mon portable en 16:9, ce qui me gêne est bien davantage le ratio que le manque de pixels.


Sans doute as-tu raison, ce n’est pas une question de vision binoculaire (environ 43 sur tes liens). Mais alors peut-être est-ce la plus grande facilité des yeux à balayer horizontalement plutôt que verticalement. Sinon, comment expliquer que l’on fait toujours du dual-screen horizontal et non vertical (mis à part le problème de pied) ?
Mon ordi chez moi est en 5:4, au taf en 16:9 (1600x900). C’est le nombre de lignes qui me gêne au taf, pas le ratio (mais je pense que chaque expérience est unique).



Le 18/07/2013 à 12h 17






OlivierJ a écrit :

Sérieusement, le 16:9 ne devrait pas exister, et même le 16:10 en informatique, je ne vois pas l’intérêt. Vive le 4:3, plus adapté au développement, à la lecture et au traitement photo.


Sur les petits écrans, je suis d’accord.
Mais plus sa taille augmente, plus il envahit ton champ de vision, et ce n’est pas plus mal qu’il s’élargisse.



Le 18/07/2013 à 09h 39

Avec l’augmentation de la résolution, le débat 16:10 / 16:9 prend une autre tournure. Ce qu’on reproche au 16:9, c’est son manque de lignes. Editer un doc ou même lire une page web en 1080 lignes est toujours moins confortable qu’en 1200. Néanmoins si le nombre de lignes (et la taille de l’écran) augmentent drastiquement comme sur ce moniteur, ce n’est plus un problème. A partir de là, vu que notre champ de vision est plus horizontal que vertical, 16:9 est meilleur (à surface et nombre de pixels égaux, bien entendu).

June, 5:4 inside.


Des CD et vinyles achetés sur Amazon.fr disponibles en MP3 gratuitement

Le 25/06/2013 à 13h 51

J’ai acheté des CDs vierges sur Amazon, j’ai effectivement un MP3 de 80 mins de silence disponible sur mon compte. Bien joué Amazon.


Free : la Femto-cell est disponible dans l'espace Mon compte

Le 20/06/2013 à 12h 52

Est-ce que ces Femtocells seront compatibles 4G quand ce sera déployé ?


Haswell : les cartes mères ASUS et Gigabyte pour les Xeon E3 1200 v3

Le 06/06/2013 à 09h 26






Stargateur a écrit :

dire que j’ai encore ma P6T avec 2*3 canaux de DRAM <img data-src=" /> j’en voie plus de tout des triples channel donc en fait c’était pas mieux ? on m’aurais menti <img data-src=" /> bon en tout cas mon pc a 4 ans et il tourne toujours super bien <img data-src=" />


On en est au quad-channel sur socket 2011.
En gros, le triple channel commence à avoir un effet à partir de 6 coeurs + HT, sur certaines apps.



[MàJ] [Récap'] Le détail des processeurs Haswell du Pentium au Core i7

Le 05/06/2013 à 09h 29






Zekk a écrit :

Bwarf on en est déjà à la 4eme gen alors que j’ai toujours un I7-860… qui fonctionne du feu de dieu <img data-src=" />
La seule chose dommageable est qu’il ne gère pas le PCI express 3.0, sinon je changerai bien ma CG (470GTX).


Tu peux mettre une carte PCI-E 3.0 sur ta configuration. Tu n’auras pas de problème de performance. Je te conseille la lecture de cet article.



Haswell : les Core i5 et i7 4000 sont disponibles, à partir de 177,95 €

Le 03/06/2013 à 07h 09






David_L a écrit :

C’est la rumeur qui a couru un temps on ne sait pas trop pour quelle raison. Mais non, ce n’est pas prévu. Le BGA va certes gagner du terrain (il est déjà largement utilisé contrairement à ce que semblent croire certains), notamment pour toute des machines à format spécifique, mais il ne remplacera pas toute la gamme.


HFr vient d’en rajouter une couche dans leur dossier :

L’année prochaine cependant, le “Tick” Broadwell sera probablement réservé au BGA, et plus précisément aux processeurs basse consommation qui auront le plus à profiter de l’arrivée du 14nm.

Si le dieu Marc le dit…



Gigabyte Z87X-UD3H / UD4H : deux cartes mères parées pour Haswell

Le 29/05/2013 à 08h 44






oursgris a écrit :

je me suis mal exprimé
j’ai un core quad
par contre je peux acheter un sandy bridge maintenant ou attendre pour haswell mais je ne sais pas quel est l’intérêt de haswell ..


L’intérêt de Haswell, c’est de faire baisser le prix des cartes mères Sandy (bonnes soldes en perspective) et des procs d’occase. Donc oui, il faut attendre <img data-src=" />



Revue de presse : le SSD Vertex 450 d'OCZ tient-il ses promesses ?

Le 24/05/2013 à 12h 30

Et pour ceux qui sont allergiques à l’Anglais, il y a le test de Clubic.


Microsoft annonce la XBox One : tout ce qu'il faut savoir

Le 21/05/2013 à 19h 22






linconnu a écrit :

Les TV ne font plus 60hz maintenant. En général c’est 100Hz minimum. On trouve même des plasmas à 600hz !


Les entrées sont toujours limitées à 60Hz, donc cela ne change rien. Un film en 3D active 120Hz/1080p est en fait envoyé par le HDMI en 24Hz x2, la TV se chargeant de calculer des images intermédiaires.



LG : un écran OLED flexible de 5 pouces pour les smartphones

Le 20/05/2013 à 13h 27






goodwhitegod a écrit :

Il n’y avait pas d’OLED quand on parlait du SED…


Sur les salons, les premières TV prototypes OLED datent de 2005 (Samsung). Les premières SED de 2006 (Canon/Toshiba). L’engouement pour les TV SED provenait du fait que ces TV étaient plus grandes (21” vs 55”), mais il est faux de dire qu’on ne parlait pas d’OLED à cette époque.



Le 20/05/2013 à 13h 09

Si on prend l’exemple d’un téléphone aux côtés arrondis (ex : Nokia 800), un écran légèrement courbé sur les bords gauche et droite permettrait de gagner an surface d’affichage sans augmenter la taille du téléphone.


Le 20/05/2013 à 11h 34






goodwhitegod a écrit :

Simple, c’est la techno qui proposait tous les avantages du CRT et du LCD.

Pitch très petit, latence ultra faible, contraste et luminosité important, etc. dans un encombrement contenu (ce point par rapport au CRT de l’époque).

Le TOP !






  • Le pitch n’est pas le problème de l’OLED (cf. Samsung S4)

  • Latence OLED ultra faible aussi (1 µs)

  • Contraste OLED infini

  • Luminosité : C’était la principale faiblesse des écrans SED prototypes à l’époque.

  • Encombrement : l’OLED reste 10x plus fin


    Néanmoins tout à l’heure j’ai écrit quelque chose d’inexact : Canon comptait bien ‘imprimer’ les grilles d’émetteurs sur ses écrans SED.



Le 20/05/2013 à 08h 18






goodwhitegod a écrit :

C’est pire avec les écrans SED qui seraient la meilleur technologie d’écran que nous aurions pu avoir pour nos PC…


Quel est l’avantage du (feu) SED par rapport à l’OLED ? Mis à part la promesse d’une mise sur le marché moins tardive que l’OLED (il faut se méfier de ces promesses…), je ne vois pas. Peut-être une meilleure fidélité des couleurs ? En tous cas pas le prix à terme : à l’heure où on crée des imprimantes à écran OLED, créer un procédé bon marché créant un canon à électron par sous-pixel me paraît difficile.



5G : Samsung commence les tests, des débits de plusieurs Gb/s d'ici 2020

Le 13/05/2013 à 16h 01






killer63 a écrit :

de la 5G en 2020 au japon et en corée du sud, ca ne fait aucun doute

par contre en france, on peut bien rajouter 810 ans en plus <img data-src=" />


Je ne pense pas. Vendre des plages de fréquence a toujours été une bonne pompe à fric pour tout gouvernement. Il n’y aura donc aucun retard.



Haswell : lancement le 4 juin

Le 28/04/2013 à 18h 14






refuznik a écrit :

Hardware.fr pointe par contre un truc assez comique :

http://www.hardware.fr/news/13091/haswell-incompatible-alimentations-compatibili…

Les alimentations risque de couper pour cause d’économie d’énergie <img data-src=" />


D’un autre côté, le mode C6 étant désactivable, on pourra toujours s’en sortir avec une alim non compatible. Et on peut difficilement en vouloir à Intel de faire des processeurs toujours moins gourmands…



[Dossier PCi] Ce qu'il faut savoir du Galaxy S4, quelles alternatives ?

Le 26/04/2013 à 15h 52

Mes critères pour un portable :




  • indestructible

  • batterie tenant plus d’une semaine

  • tout petit

  • pas cher

  • permet de profiter du forfait Free/2€ sans être bridé/brimé

  • ne doit pas être supplanté par la version qui sortira dans 1 an (dans la même gamme), car je le garde au moins 5 ans.

  • doit rester un outil et non un truc que l’on sort tout le temps (et duquel on devient esclave sans s’en apercevoir).
    Donc le S4 c’est FAIL/FAIL/FAIL/FAIL/FAIL/FAIL/FAIL.
    Alors qu’un Nokia à moins de 25 euros répond à tous ces critères.

    Donc j’ai voté NON <img data-src=" />


Insolite : une infographie retrace l'histoire des contrôleurs de jeu

Le 18/04/2013 à 16h 30






tAran a écrit :

Non mais What TF !! <img data-src=" />

Site : Geekologie (avec le mot Geek dedans)

Et ils ont même pas cités les deux plus grands joysticks de l’atari et de l’amiga : les Speedking et Navigator

… ou alors il n’y a que de pauvres copies.. <img data-src=" />


Edith : #semigrilled par DarKCallistO, refuznik, …


<img data-src=" />
Encore que dans le même style, pour avoir eu les 3 je préfère la Phasor One, moins connue mais avec une prise en main encore meilleure.



Le 18/04/2013 à 15h 43






steinfield a écrit :

Qui arrivera à trouver l’oubli?


Ou alors, la canne à pêche Dreamcast…



Selon Intel, la DDR4 arrivera plus tard, malgré ses avantages

Le 10/04/2013 à 11h 46






HarmattanBlow a écrit :

Comme d’hab tout le discours marketing tourne autour de la bande passante et ne dit rien de la latence, au moins aussi importante. Pourtant…
* Aujourd’hui les meilleures bandes passantes excèdent les besoins des CPU et n’apportent plus aucune gain en perfs. A contrario réduire la latence a un effet important.
* Des CPU plus puissants nécessiteront davantage de bande passante mais il n’y a pas de quoi s’exciter sur ces nouvelles bandes passantes. D’autant qu’à chaque nouvelle génération de mémoire la latence remonte à des niveaux médiocres et ne redescend qu’à la fin de la génération.

TL;DR : ne vous excitez pas sur les mémoires haut de gamme, regardez les benches pour savoir à quelle fréquence votre CPU cesse de gagner en puissance, puis privilégiez la plus faible latence possible à ce niveau. Et n’hésitez pas à perdre un peu en fréquence si vous gagnez en latence.


Ouaip, meilleure bande passante mais latences plus élevées. Bien pour le GPU, pas bien pour le CPU.



Je te conseille cet excellent article d’HFr.

“si l’on pouvait débattre entre privilégier fréquence ou timings à l’époque de la DDR2, aujourd’hui la question est réglée : la fréquence prime sur le reste dans quasiment tous les cas.”

C’est vrai que l’augmentation de la vitesse de la mémoire au delà d’un certain niveau n’apporte pas beaucoup de perfs aujourd’hui. Cependant les hexa-cores Intel aiment le triple-channel, ce qui montre qu’un surplus de bande passante peut être utile. Et comme mon petit doigt me dit que les core i7 Skylake (1ère gen DDR4 grand public) ont des chances d’être en hexacore, de la RAM dual channel plus rapide sera utile.