Selon Intel, la DDR4 arrivera plus tard, malgré ses avantages

Selon Intel, la DDR4 arrivera plus tard, malgré ses avantages

AMD aura-t-il une carte à jouer ?

Avatar de l'auteur

David Legrand

Publié dansSciences et espace

10/04/2013
49
Selon Intel, la DDR4 arrivera plus tard, malgré ses avantages

Intel tient en ce moment son Developer Forum à Pékin. L'occasion d'évoquer le futur de ses plateformes, et notamment la DDR4 qui remplacera l'actuelle DDR3. Mais si le constructeur est conscient des avantages de celle-ci, il ne dit pas quand il compte y passer.

Le marché de la mémoire ne connait plus de grande innovation depuis un moment. L'arrivée de la DDR3 date de quelques années maintenant et l'on a seulement droit à une légère montée en fréquence ou à une baisse de la consommation plutôt bienvenue pour certains produits tels que les Ultrabook, par exemple.

 

Mais la DDR4 est déjà dans tous les esprits, dont ceux d'Intel. Dans une présentation publiée à l'occasion de l'IDF de Pékin, la société évoque ainsi les avantages de cette dernière : 

 

Intel DDR4 Plans Intel DDR4 Plans

 

Comme souvent, il est question de consommation toujours plus faible (tension de 1,2 V dans un premier temps) et d'un gain potentiel de près de 50 % en bande passante avec une fréquence qui peut atteindre les 3200 MHz. Elle permettra aussi à terme le « 3D stacking », sur un maximum de 8 die et apporte une nouvelle organisation : des « banks group » qui peuvent être sélectionnés et utilisés séparément, ainsi qu'un nombre de « banks » qui passe de 8 à 16 au maximum.

 

Mais son introduction en 2013 ne semble pas à l'ordre du jour du côté de Santa Clara. La feuille de route présentée évoque en effet surtout une montée en densité d'ici la fin de l'année, sans gain supplémentaire du côté de la fréquence. Aux dernières nouvelles, il faudrait attendre 2014 et la génération suivante de CPU pour voir arriver un tel support.

 

Intel DDR4 Plans Intel DDR4 Plans

 

Pour rappel, la DDR4 devrait normalement commencer à faire son apparition dans le courant de l'année, alors que le JEDEC a validé et publié ses caractéristiques en 2012. Si Intel ne semble pas pressé d'y passer pour le moment, peut-être est-ce que ce sera le cas d'AMD qui est connu pour tenter de passer au plus vite à ce genre de nouveautés afin de tenter de se démarquer. La réponse dans les mois qui viennent.

49
Avatar de l'auteur

Écrit par David Legrand

Tiens, en parlant de ça :

Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

652e édition des LIDD : Liens Intelligents Du Dimanche

Et bonne nuit les petits

00:04 Next 8
dessin de Flock

#Flock distribue des mandales tous azimuts

13:40 Flock 14
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #11 et résumé de la semaine

11:47 Next 40

Sommaire de l'article

Introduction

Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

652e édition des LIDD : Liens Intelligents Du Dimanche

Next 8
dessin de Flock

#Flock distribue des mandales tous azimuts

Flock 14
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #11 et résumé de la semaine

Next 40
Carte graphique AMD GeForce

Cartes graphiques : 30 ans d’évolution des GPU

Hard 23

Google lance son opération de communications Gemini pour rivaliser avec OpenAI

IA 6
Ecran bleu de Windows

Linux : le composant systemd se dote d’un écran bleu de la mort

Soft 41
Une petite fille en train d'apprendre à programmer et hacker logiciels et appareils électroniques

Un roman graphique explique les logiciels libres aux enfants

SoftSociété 21
Nouveautés pour Messenger

Meta lance (enfin) le chiffrement de bout en bout de Messenger, entre autres

Socials 5

#LeBrief : cloud européen, OSIRIS-REx a frôlée la catastrophe, CPU AMD Ryzen 8040

Windows en 2024 : beaucoup d’IA, mais pas forcément un « 12 »

Soft 21
Einstein avec des qubits en arrière plan

Informatique quantique, qubits : avez-vous les bases ?

HardScience 9
Notifications iPhone

Surveillance des notifications : un sénateur américain demande la fin du secret

DroitSécu 17

En ligne, les promos foireuses restent d’actualité

DroitWeb 19

#LeBrief : modalité des amendes RGPD, cyberattaque agricole, hallucinations d’Amazon Q, 25 ans d’ISS

Logo Twitch

Citant des « coûts prohibitifs », Twitch quitte la Corée du Sud

ÉcoWeb 29
Formation aux cryptomonnaies par Binance à Pôle Emploi

Binance fait son marketing pendant des formations sur la blockchain destinées aux chômeurs

Éco 10
Consommation électrique du CERN

L’empreinte écologique CERN en 2022 : 1 215 GWh, 184 173 teqCO₂, 3 234 Ml…

Science 8
station électrique pour voitures

Voitures électriques : dans la jungle, terrible jungle, des bornes de recharge publiques

Société 78

#LeBrief : intelligence artificielle à tous les étages, fichier biométrique EURODAC

KDE Plasma 6

KDE Plasma 6 a sa première bêta, le tour des nouveautés

Soft 13
Un homme noir regarde la caméra. Sur son visage, des traits blancs suggèrent un traitement algorithmique.

AI Act et reconnaissance faciale : la France interpelée par 45 eurodéputés

DroitSociété 4
Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

SécuSociété 3
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

DroitWeb 25
Bombes

Israël – Hamas : comment l’IA intensifie les attaques contre Gaza

IA 22

#LeBrief : bande-annonce GTA VI, guerre électronique, Spotify licencie massivement

Poing Dev

Le poing Dev – Round 7

Next 105
Logo de Gaia-X sour la forme d’un arbre, avec la légende : infrastructure de données en forme de réseau

Gaia-X « vit toujours » et « arrive à des étapes très concrètes »

WebSécu 7

Trois consoles portables en quelques semaines

Hard 37
Une tasse estampillée "Keep calm and carry on teaching"

Cyberrésilience : les compromis (provisoires) du trilogue européen

DroitSécu 3

#LeBrief : fuite de tests ADN 23andMe, le milliard pour Android Messages, il y a 30 ans Hubble voyait clair

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Commentaires (49)


DarKCallistO
Le 10/04/2013 à 10h08

En même temps,cela représentera un cout de fabrication supplémentaire pour le changement de contrôleur mémoire in die,donc forcement Intel se mouille pas trop


gounzor
Le 10/04/2013 à 10h09

Hopla !

Donc voilà ils font ce qu’ils veulent maintenant de toute façon, vu qu’ils ont le monopole total avec l’abandon de la recherche Haut de gamme d’amd.

Donc si ils disent “on veux pas investir, nos cpu actuels se vendent bien et y a pas mieux”, qui va investir avant eux de toute façon ?


WereWindle
Le 10/04/2013 à 10h19

et là c’est la DRAM…






gounzor a écrit :

Hopla !

Donc voilà ils font ce qu’ils veulent maintenant de toute façon, vu qu’ils ont le monopole total avec l’abandon de la recherche Haut de gamme d’amd.

Donc si ils disent “on veux pas investir, nos cpu actuels se vendent bien et y a pas mieux”, qui va investir avant eux de toute façon ?


j’avoue que l’argument “nos cpu sont biens alors on fait pas de RAM”… le cpu actuels ne pourraient pas la gérer / en tirer parti ?



Reparateur
Le 10/04/2013 à 10h20

ça serais pas mal que AMD y passe histoire de redorer un peut leur CPU (qui commence à sortir la tête de l’eau avec les soft opti qui commence à arriver)

de toute façon je reste en configue AMD surtout avec les nouvelle console full AMD ça vas devenir de plus en plus rentable


texnexx
Le 10/04/2013 à 10h26

A quoi sert la DDR4, alors que lorsqu’on regarde le calendrier et se place juste quelques mois en avance face a la DDR HMC et ses 320Go/s ?


DarKCallistO
Le 10/04/2013 à 10h32






WereWindle a écrit :

et là c’est la DRAM…


j’avoue que l’argument “nos cpu sont biens alors on fait pas de RAM”… le cpu actuels ne pourraient pas la gérer / en tirer parti ?



Non,le contrôleur mémoire DDR3 est intégré au CPU,la DDR4 c’est une révolution,faut tout racheté. <img data-src=" />



WereWindle
Le 10/04/2013 à 10h33






DarKCallistO a écrit :

Non,le contrôleur mémoire DDR3 est intégré au CPU,la DDR4 c’est une révolution,faut tout racheté. <img data-src=" />


ok j’avais occulté cela <img data-src=" />



TheBigSchtroumpf
Le 10/04/2013 à 10h42






gounzor a écrit :

Hopla !

Donc voilà ils font ce qu’ils veulent maintenant de toute façon, vu qu’ils ont le monopole total avec l’abandon de la recherche Haut de gamme d’amd.

Donc si ils disent “on veux pas investir, nos cpu actuels se vendent bien et y a pas mieux”, qui va investir avant eux de toute façon ?



Yep c’est sur que sans concurrence sur les CPU hauts de gamme, intel doit metre tout son budget R&D sur le mobile, ou ils ont la par contre beaucoup à perdre! Du coup pas sur ça progresse à une vitesse fole…

Pour info (j’y connais rien) y’a pas déjà de la DDR5? Au moins sur des cartes graphiques? Donc pourquoi le 5 avant le 4?



Clapitti
Le 10/04/2013 à 10h47

GDDR5 <img data-src=" />


David_L Abonné
Le 10/04/2013 à 10h51






texnexx a écrit :

A quoi sert la DDR4, alors que lorsqu’on regarde le calendrier et se place juste quelques mois en avance face a la DDR HMC et ses 320Go/s ?


Le HMC ça reste du stacking :) Après il faudra voir quand est-ce que ça arrivera IRL, et si ça touchera (ou non) le grand public



Chloroplaste
Le 10/04/2013 à 10h52

Remarque d’un beotien:
On parle de DDR4 comme de quelque chose de nouveau sur la marché.
Mais il n’est pas question que Sony intègre de la DDR5 sur sa PS4 ? <img data-src=" />


loser Abonné
Le 10/04/2013 à 10h53






gounzor a écrit :

Hopla !
l’abandon de la recherche Haut de gamme d’amd.



c’était pas un poisson d’avril ça ?



hop45
Le 10/04/2013 à 10h55






WereWindle a écrit :

et là c’est la DRAM…



710 <img data-src=" />



texnexx
Le 10/04/2013 à 10h59

Apparement les produits HMC sont prévus pour la fin de l’année 2013 !


CryoGen Abonné
Le 10/04/2013 à 10h59






Chloroplaste a écrit :

Remarque d’un beotien:
On parle de DDR4 comme de quelque chose de nouveau sur la marché.
Mais il n’est pas question que Sony intègre de la DDR5 sur sa PS4 ? <img data-src=" />


GDDR5 plutôt pour la PS4 non ?



Clapitti
Le 10/04/2013 à 11h00






Chloroplaste a écrit :

Remarque d’un beotien:
On parle de DDR4 comme de quelque chose de nouveau sur la marché.
Mais il n’est pas question que Sony intègre de la DDR5 sur sa PS4 ? <img data-src=" />



GDDR5.



WereWindle
Le 10/04/2013 à 11h05






Chloroplaste a écrit :

Remarque d’un beotien:
On parle de DDR4 comme de quelque chose de nouveau sur la marché.
Mais il n’est pas question que Sony intègre de la DDR5 sur sa PS4 ? <img data-src=" />




zogG a écrit :

GDDR5.


voila, ce n’est pas de la DRAM mais des mémoires spécifiques pour les GPU



HarmattanBlow
Le 10/04/2013 à 11h09

Comme d’hab tout le discours marketing tourne autour de la bande passante et ne dit rien de la latence, au moins aussi importante. Pourtant…
* Aujourd’hui les meilleures bandes passantes excèdent les besoins des CPU et n’apportent plus aucune gain en perfs. A contrario réduire la latence a un effet important.
* Des CPU plus puissants nécessiteront davantage de bande passante mais il n’y a pas de quoi s’exciter sur ces nouvelles bandes passantes. D’autant qu’à chaque nouvelle génération de mémoire la latence remonte à des niveaux médiocres et ne redescend qu’à la fin de la génération.

TL;DR : ne vous excitez pas sur les mémoires haut de gamme, regardez les benches pour savoir à quelle fréquence votre CPU cesse de gagner en puissance, puis privilégiez la plus faible latence possible à ce niveau. Et n’hésitez pas à perdre un peu en fréquence si vous gagnez en latence.






WereWindle a écrit :

voila, ce n’est pas de la DRAM mais des mémoires spécifiques pour les GPU


Ouaip, meilleure bande passante mais latences plus élevées. Bien pour le GPU, pas bien pour le CPU.



CryoGen Abonné
Le 10/04/2013 à 11h16






Chloroplaste a écrit :

Remarque d’un beotien:
On parle de DDR4 comme de quelque chose de nouveau sur la marché.
Mais il n’est pas question que Sony intègre de la DDR5 sur sa PS4 ? <img data-src=" />





CryoGen a écrit :

GDDR5 plutôt pour la PS4 non ?



Et complément d’info, d’après wikipedia la GDDR5 est basée sur la DDR3 ;) .



WereWindle
Le 10/04/2013 à 11h17






CryoGen a écrit :

Et complément d’info, d’après wikipedia la GDDR5 est basée sur la DDR3 ;) .


encore un coup de Nvidia et de ses renommages de gamme sauvages <img data-src=" />



Chloroplaste
Le 10/04/2013 à 11h18

Oki doki j’avais zappé cette notion de “Graphic” qui explique donc toute la nuances entre GDDR5 et DDR5 même si cela reste trompeur selon moi.
Car faire de la GDDR5 basée sur de la DDR3 en gardant un nom pareil, alors qu’à côté la DDR4 arrive et elle innove bien plus…


Commentaire_supprime
Le 10/04/2013 à 11h21

Ce que je retiens de la DDR4, c’est qu’elle boufferas moins de jus au final que la génération précédente, à perfs potentiellement plus élevées.

Comme dit plus haut, ce n’est pas forcément les perfs brutes qui sont intéressantes avec ce type de mémoire.


Goldensniper
Le 10/04/2013 à 11h23

Heuu y doit y avoir une erreur.. 3200Mb/s ? 3,2Gb/sec ? L’évolution de la RAM aurait une vitesse de 3 cartes réseaux Gigabit ? et benh..


DarKCallistO
Le 10/04/2013 à 11h33






Goldensniper a écrit :

Heuu y doit y avoir une erreur.. 3200Mb/s ? 3,2Gb/sec ? L’évolution de la RAM aurait une vitesse de 3 cartes réseaux Gigabit ? et benh..



Oublie pas les temps d’accès et la latence dans ton raisonnement <img data-src=" />



Shwaiz
Le 10/04/2013 à 11h33

Un fréquence en mbit/s, ça faisait longtemps que je l’avait pas vue celle là…


sniperdc
Le 10/04/2013 à 11h40

A mon avis il faut attendre 2 ans après la sortie de la DDR4 pour en voir les réels performances


raoudoudou
Le 10/04/2013 à 11h42






Goldensniper a écrit :

Heuu y doit y avoir une erreur.. 3200Mb/s ? 3,2Gb/sec ? L’évolution de la RAM aurait une vitesse de 3 cartes réseaux Gigabit ? et benh..



Bon ben déjà, faut pas mélanger fréquence et bande passante. Ensuite, le bit/s, c’est 18 d’octet par seconde, donc tu peux commencer par diviser par 8 le taux de transfert de ta carte Gbit/s pour avoir les octets. C’est de suite moins impressionnant hein <img data-src=" />



raoudoudou
Le 10/04/2013 à 11h43






sniperdc a écrit :

A mon avis il faut attendre 2 ans après la sortie de la DDR4 pour en voir les réels performances



Faudra surtout avoir un peu plus de cœurs (plus de 8) pour profiter des banques supplémentaires.



anonyme_edadaecc91c3bb908a8e0ab43a984c71
Le 10/04/2013 à 11h45






Commentaire_supprime a écrit :

Ce que je retiens de la DDR4, c’est qu’elle boufferas moins de jus au final que la génération précédente, à perfs potentiellement plus élevées.

Comme dit plus haut, ce n’est pas forcément les perfs brutes qui sont intéressantes avec ce type de mémoire.



C’est aussi ce que j’ai retenu, on est à 3-4 W pour un kit de DDR3 de base en idle. Avec les conso des CPU qui ne cessent de baisser un gain de 2 W ce n’est pas négligeable.



kirire
Le 10/04/2013 à 11h46






Chloroplaste a écrit :

Oki doki j’avais zappé cette notion de “Graphic” qui explique donc toute la nuances entre GDDR5 et DDR5 même si cela reste trompeur selon moi.
Car faire de la GDDR5 basée sur de la DDR3 en gardant un nom pareil, alors qu’à côté la DDR4 arrive et elle innove bien plus…


heu… peut-être parce que les deux n’ont rien à voir… S’ils en sont à la génération 5, bha c’est GDDR 5, si de l’autre côté ils en sont à la génération 3, bha c’est la DDR 3.
Et puis entre les deux c’est pas les mêmes débits, latence et la même consommation électrique et tout et tout. Bref ils accomplica la même fonction, mais c’est pas la même chose.



june
Le 10/04/2013 à 11h46






HarmattanBlow a écrit :

Comme d’hab tout le discours marketing tourne autour de la bande passante et ne dit rien de la latence, au moins aussi importante. Pourtant…
* Aujourd’hui les meilleures bandes passantes excèdent les besoins des CPU et n’apportent plus aucune gain en perfs. A contrario réduire la latence a un effet important.
* Des CPU plus puissants nécessiteront davantage de bande passante mais il n’y a pas de quoi s’exciter sur ces nouvelles bandes passantes. D’autant qu’à chaque nouvelle génération de mémoire la latence remonte à des niveaux médiocres et ne redescend qu’à la fin de la génération.

TL;DR : ne vous excitez pas sur les mémoires haut de gamme, regardez les benches pour savoir à quelle fréquence votre CPU cesse de gagner en puissance, puis privilégiez la plus faible latence possible à ce niveau. Et n’hésitez pas à perdre un peu en fréquence si vous gagnez en latence.


Ouaip, meilleure bande passante mais latences plus élevées. Bien pour le GPU, pas bien pour le CPU.



Je te conseille cet excellent article d’HFr.

“si l’on pouvait débattre entre privilégier fréquence ou timings à l’époque de la DDR2, aujourd’hui la question est réglée : la fréquence prime sur le reste dans quasiment tous les cas.”

C’est vrai que l’augmentation de la vitesse de la mémoire au delà d’un certain niveau n’apporte pas beaucoup de perfs aujourd’hui. Cependant les hexa-cores Intel aiment le triple-channel, ce qui montre qu’un surplus de bande passante peut être utile. Et comme mon petit doigt me dit que les core i7 Skylake (1ère gen DDR4 grand public) ont des chances d’être en hexacore, de la RAM dual channel plus rapide sera utile.



Commentaire_supprime
Le 10/04/2013 à 11h49






kirire a écrit :

heu… peut-être parce que les deux n’ont rien à voir… S’ils en sont à la génération 5, bha c’est GDDR 5, si de l’autre côté ils en sont à la génération 3, bha c’est la DDR 3.



De toute façon, il n’y a qu’une seule vraie DDR !

<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />



MainmainWeRX
Le 10/04/2013 à 11h51






Commentaire_supprime a écrit :

De toute façon, il n’y a qu’une seule vraie DDR !

<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />



<img data-src=" />



Ar-no Abonné
Le 10/04/2013 à 11h58






Commentaire_supprime a écrit :

De toute façon, il n’y a qu’une seule vraie DDR !

<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />



Pour pas confondre, je me disais que je mettais la RAM en haut à droite sur la CM =&gt; Allemagne de l’est <img data-src=" />



Alameda
Le 10/04/2013 à 12h04






Ar-no a écrit :

Pour pas confondre, je me disais que je mettais la RAM en haut à droite sur la CM =&gt; Allemagne de l’est <img data-src=" />


Pas mal, par contre le truc mnémotechnique te fait clairement passé pour un g33k, -20 en charisme et un malus de -2 à tous tes jets de persuasions <img data-src=" />



RaYz
Le 10/04/2013 à 12h07






Ar-no a écrit :

Pour pas confondre, je me disais que je mettais la RAM en haut à droite sur la CM =&gt; Allemagne de l’est <img data-src=" />


<img data-src=" />



sniperdc
Le 10/04/2013 à 12h08






raoudoudou a écrit :

Faudra surtout avoir un peu plus de cœurs (plus de 8) pour profiter des banques supplémentaires.



De ce côté là peut être qu’Intel n’est pas encore prêt ?

A moins que courant 2014 il nous sorte un CPU 12 coeurs 24 Threads <img data-src=" />



-DTL-
Le 10/04/2013 à 12h20

Je pense qu’Intel traine des pieds car aujourd’hui la DDR4 représenterait un surcout important par rapport au gain espéré.

Du temps des contrôleurs mémoire dans le northbridge c’était plus simple de faire une transition qu’aujourd’hui.


Pochi
Le 10/04/2013 à 12h29

Et on a une idée du gain “réel” de la DDR4 par rapport à de la DDR3 ?


YohAsAkUrA
Le 10/04/2013 à 12h37






WereWindle a écrit :

encore un coup de Nvidia et de ses renommages de gamme sauvages <img data-src=" />




dis moi.. c’était un <img data-src=" /> délibéré?



chris_lo
Le 10/04/2013 à 12h54






CryoGen a écrit :

Et complément d’info, d’après wikipedia la GDDR5 est basée sur la DDR3 ;) .



et avant elle la GDDR3 était basée sur la DDR2

pas évident ces dénominations <img data-src=" />



WereWindle
Le 10/04/2013 à 13h44






YohAsAkUrA a écrit :

dis moi.. c’était un <img data-src=" /> délibéré?


ça va de soi (enfin apparemment pas mais il me semblait à moi)



yvan Abonné
Le 10/04/2013 à 13h45






Pochi a écrit :

Et on a une idée du gain “réel” de la DDR4 par rapport à de la DDR3 ?


Sans contrôleurs et sans ram de dispo pour des tests je dirais non spontanément <img data-src=" />



YohAsAkUrA
Le 10/04/2013 à 16h32






WereWindle a écrit :

ça va de soi (enfin apparemment pas mais il me semblait à moi)



arffff merci j’ai eu un doute ^^

nan parce que certains sortent de telles choses de manière tellement sérieuse en ce moment :)

la sur le coup c’est pas comme si entre la GDDR5 et la DDR3 y’avait juste un fossé technique :)



Sebdraluorg
Le 10/04/2013 à 18h34






raoudoudou a écrit :

Faudra surtout avoir un peu plus de cœurs (plus de 8) pour profiter des banques supplémentaires.


Euh, tu es certain de ce que tu racontes là ?

Donc si je suis ton raisonnement, le CPU attends d’avoir au moins la taille de la vitesse du bus par seconde pour transférer des datas ?
Si tu as une bande passante de 4 Go/s d’un coté et une de 40Go/s de l’autre, il faudra le même temps pour transferer 200 Mo ?



Sebdraluorg
Le 10/04/2013 à 19h17






raoudoudou a écrit :

Faudra surtout avoir un peu plus de cœurs (plus de 8) pour profiter des banques supplémentaires.





Sebdraluorg a écrit :

Euh, tu es certain de ce que tu racontes là ?

Donc si je suis ton raisonnement, le CPU attends d’avoir au moins la taille de la vitesse du bus par seconde pour transférer des datas ?
Si tu as une bande passante de 4 Go/s d’un coté et une de 40Go/s de l’autre, il faudra le même temps pour transferer 200 Mo ?


Arf autant pour moi, j’ai lu “pour profiter de la bande supplémentaire” <img data-src=" />

A ma décharge, il est tellement fréquent de lire ce genre d’argument…



HarmattanBlow
Le 10/04/2013 à 20h24






june a écrit :

Je te conseille cet excellent article d’HFr.


Je te remercie mais je reste sur ma position. En effet :




  1. Leur test a été mené avec les deux plus gros CPU de l’époque, chacun coûtant un rein, les seuls à même de donner un intérêt à de grosses bandes passantes. Pas vraiment la config du joueur moyen. Qui plus est depuis les fréquences mémoire ont vu beaucoup plus de progrès que les CPU et les plus rapides n’apportent aucun gain aux CPU les plus répandus, incapables d’en profiter.


  2. Malgré ça, ils ont au moins trouvé une exception où diminuer la bande passante pour gagner en latence se révélait fructueux, preuve que tout se joue à pas grand chose. Et si tu regardes leurs mesures tu verras qu’ils observaient déjà, sur certains tests, une saturation de la bande passante alors que la latence offre une progression régulière et continue.


  3. Je n’ai pas dit “latence &gt; BP” ou autre. En substance j’ai invité les personnes à s’informer de la fréquence à laquelle *leur* CPU sature, à atteindre cette fréquence, puis seulement à privilégier la latence.



raoudoudou
Le 11/04/2013 à 08h16






Sebdraluorg a écrit :

Arf autant pour moi, j’ai lu “pour profiter de la bande supplémentaire” <img data-src=" />
A ma décharge, il est tellement fréquent de lire ce genre d’argument…



Oui, en bande passante, on est toujours limité sur des bouts de code très optimisés (genre compression à la volée qui ne fait que de la comparaison mémoire et où l’on réduit souvent la fenêtre de recherche à la taille du cache interne ou externe) <img data-src=" />



Florent_ATo
Le 11/04/2013 à 23h41






Commentaire_supprime a écrit :

De toute façon, il n’y a qu’une seule vraie DDR !

<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />



Tu plaisantes ! Voila la seule et unique DDR :http://bit.ly/Mav0C

J’ai l’impression que Haswell est une tentative de Intel à rattraper son retard face aux facteur perf/$ des architectures ARM. C’est pas plus mal ceci étant. Mais faudra-t-il attendre skylake pour bénéficier d’une nouvelle micro architecture véritablement orientée nouveautés ?