Connexion
Abonnez-vous

Selon Intel, la DDR4 arrivera plus tard, malgré ses avantages

AMD aura-t-il une carte à jouer ?

Selon Intel, la DDR4 arrivera plus tard, malgré ses avantages

Le 10 avril 2013 à 09h58

Intel tient en ce moment son Developer Forum à Pékin. L'occasion d'évoquer le futur de ses plateformes, et notamment la DDR4 qui remplacera l'actuelle DDR3. Mais si le constructeur est conscient des avantages de celle-ci, il ne dit pas quand il compte y passer.

Le marché de la mémoire ne connait plus de grande innovation depuis un moment. L'arrivée de la DDR3 date de quelques années maintenant et l'on a seulement droit à une légère montée en fréquence ou à une baisse de la consommation plutôt bienvenue pour certains produits tels que les Ultrabook, par exemple.

 

Mais la DDR4 est déjà dans tous les esprits, dont ceux d'Intel. Dans une présentation publiée à l'occasion de l'IDF de Pékin, la société évoque ainsi les avantages de cette dernière : 

 

Intel DDR4 Plans Intel DDR4 Plans

 

Comme souvent, il est question de consommation toujours plus faible (tension de 1,2 V dans un premier temps) et d'un gain potentiel de près de 50 % en bande passante avec une fréquence qui peut atteindre les 3200 MHz. Elle permettra aussi à terme le « 3D stacking », sur un maximum de 8 die et apporte une nouvelle organisation : des « banks group » qui peuvent être sélectionnés et utilisés séparément, ainsi qu'un nombre de « banks » qui passe de 8 à 16 au maximum.

 

Mais son introduction en 2013 ne semble pas à l'ordre du jour du côté de Santa Clara. La feuille de route présentée évoque en effet surtout une montée en densité d'ici la fin de l'année, sans gain supplémentaire du côté de la fréquence. Aux dernières nouvelles, il faudrait attendre 2014 et la génération suivante de CPU pour voir arriver un tel support.

 

Intel DDR4 Plans Intel DDR4 Plans

 

Pour rappel, la DDR4 devrait normalement commencer à faire son apparition dans le courant de l'année, alors que le JEDEC a validé et publié ses caractéristiques en 2012. Si Intel ne semble pas pressé d'y passer pour le moment, peut-être est-ce que ce sera le cas d'AMD qui est connu pour tenter de passer au plus vite à ce genre de nouveautés afin de tenter de se démarquer. La réponse dans les mois qui viennent.

Commentaires (49)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

En même temps,cela représentera un cout de fabrication supplémentaire pour le changement de contrôleur mémoire in die,donc forcement Intel se mouille pas trop

votre avatar

Hopla !



Donc voilà ils font ce qu’ils veulent maintenant de toute façon, vu qu’ils ont le monopole total avec l’abandon de la recherche Haut de gamme d’amd.



Donc si ils disent “on veux pas investir, nos cpu actuels se vendent bien et y a pas mieux”, qui va investir avant eux de toute façon ?

votre avatar

et là c’est la DRAM…









gounzor a écrit :



Hopla !



Donc voilà ils font ce qu’ils veulent maintenant de toute façon, vu qu’ils ont le monopole total avec l’abandon de la recherche Haut de gamme d’amd.



Donc si ils disent “on veux pas investir, nos cpu actuels se vendent bien et y a pas mieux”, qui va investir avant eux de toute façon ?





j’avoue que l’argument “nos cpu sont biens alors on fait pas de RAM”… le cpu actuels ne pourraient pas la gérer / en tirer parti ?


votre avatar

ça serais pas mal que AMD y passe histoire de redorer un peut leur CPU (qui commence à sortir la tête de l’eau avec les soft opti qui commence à arriver)



de toute façon je reste en configue AMD surtout avec les nouvelle console full AMD ça vas devenir de plus en plus rentable

votre avatar

A quoi sert la DDR4, alors que lorsqu’on regarde le calendrier et se place juste quelques mois en avance face a la DDR HMC et ses 320Go/s ?

votre avatar







WereWindle a écrit :



et là c’est la DRAM…





j’avoue que l’argument “nos cpu sont biens alors on fait pas de RAM”… le cpu actuels ne pourraient pas la gérer / en tirer parti ?







Non,le contrôleur mémoire DDR3 est intégré au CPU,la DDR4 c’est une révolution,faut tout racheté. <img data-src=" />


votre avatar







DarKCallistO a écrit :



Non,le contrôleur mémoire DDR3 est intégré au CPU,la DDR4 c’est une révolution,faut tout racheté. <img data-src=" />





ok j’avais occulté cela <img data-src=" />


votre avatar







gounzor a écrit :



Hopla !



Donc voilà ils font ce qu’ils veulent maintenant de toute façon, vu qu’ils ont le monopole total avec l’abandon de la recherche Haut de gamme d’amd.



Donc si ils disent “on veux pas investir, nos cpu actuels se vendent bien et y a pas mieux”, qui va investir avant eux de toute façon ?







Yep c’est sur que sans concurrence sur les CPU hauts de gamme, intel doit metre tout son budget R&D sur le mobile, ou ils ont la par contre beaucoup à perdre! Du coup pas sur ça progresse à une vitesse fole…



Pour info (j’y connais rien) y’a pas déjà de la DDR5? Au moins sur des cartes graphiques? Donc pourquoi le 5 avant le 4?


votre avatar

GDDR5 <img data-src=" />

votre avatar







texnexx a écrit :



A quoi sert la DDR4, alors que lorsqu’on regarde le calendrier et se place juste quelques mois en avance face a la DDR HMC et ses 320Go/s ?





Le HMC ça reste du stacking :) Après il faudra voir quand est-ce que ça arrivera IRL, et si ça touchera (ou non) le grand public


votre avatar

Remarque d’un beotien:

On parle de DDR4 comme de quelque chose de nouveau sur la marché.

Mais il n’est pas question que Sony intègre de la DDR5 sur sa PS4 ? <img data-src=" />

votre avatar







gounzor a écrit :



Hopla !

l’abandon de la recherche Haut de gamme d’amd.







c’était pas un poisson d’avril ça ?


votre avatar







WereWindle a écrit :



et là c’est la DRAM…







710 <img data-src=" />


votre avatar

Apparement les produits HMC sont prévus pour la fin de l’année 2013 !

votre avatar







Chloroplaste a écrit :



Remarque d’un beotien:

On parle de DDR4 comme de quelque chose de nouveau sur la marché.

Mais il n’est pas question que Sony intègre de la DDR5 sur sa PS4 ? <img data-src=" />





GDDR5 plutôt pour la PS4 non ?


votre avatar







Chloroplaste a écrit :



Remarque d’un beotien:

On parle de DDR4 comme de quelque chose de nouveau sur la marché.

Mais il n’est pas question que Sony intègre de la DDR5 sur sa PS4 ? <img data-src=" />







GDDR5.


votre avatar







Chloroplaste a écrit :



Remarque d’un beotien:

On parle de DDR4 comme de quelque chose de nouveau sur la marché.

Mais il n’est pas question que Sony intègre de la DDR5 sur sa PS4 ? <img data-src=" />









zogG a écrit :



GDDR5.





voila, ce n’est pas de la DRAM mais des mémoires spécifiques pour les GPU


votre avatar

Comme d’hab tout le discours marketing tourne autour de la bande passante et ne dit rien de la latence, au moins aussi importante. Pourtant…

* Aujourd’hui les meilleures bandes passantes excèdent les besoins des CPU et n’apportent plus aucune gain en perfs. A contrario réduire la latence a un effet important.

* Des CPU plus puissants nécessiteront davantage de bande passante mais il n’y a pas de quoi s’exciter sur ces nouvelles bandes passantes. D’autant qu’à chaque nouvelle génération de mémoire la latence remonte à des niveaux médiocres et ne redescend qu’à la fin de la génération.



TL;DR : ne vous excitez pas sur les mémoires haut de gamme, regardez les benches pour savoir à quelle fréquence votre CPU cesse de gagner en puissance, puis privilégiez la plus faible latence possible à ce niveau. Et n’hésitez pas à perdre un peu en fréquence si vous gagnez en latence.









WereWindle a écrit :



voila, ce n’est pas de la DRAM mais des mémoires spécifiques pour les GPU





Ouaip, meilleure bande passante mais latences plus élevées. Bien pour le GPU, pas bien pour le CPU.


votre avatar







Chloroplaste a écrit :



Remarque d’un beotien:

On parle de DDR4 comme de quelque chose de nouveau sur la marché.

Mais il n’est pas question que Sony intègre de la DDR5 sur sa PS4 ? <img data-src=" />











CryoGen a écrit :



GDDR5 plutôt pour la PS4 non ?







Et complément d’info, d’après wikipedia la GDDR5 est basée sur la DDR3 ;) .


votre avatar







CryoGen a écrit :



Et complément d’info, d’après wikipedia la GDDR5 est basée sur la DDR3 ;) .





encore un coup de Nvidia et de ses renommages de gamme sauvages <img data-src=" />


votre avatar

Oki doki j’avais zappé cette notion de “Graphic” qui explique donc toute la nuances entre GDDR5 et DDR5 même si cela reste trompeur selon moi.

Car faire de la GDDR5 basée sur de la DDR3 en gardant un nom pareil, alors qu’à côté la DDR4 arrive et elle innove bien plus…

votre avatar

Ce que je retiens de la DDR4, c’est qu’elle boufferas moins de jus au final que la génération précédente, à perfs potentiellement plus élevées.



Comme dit plus haut, ce n’est pas forcément les perfs brutes qui sont intéressantes avec ce type de mémoire.

votre avatar

Heuu y doit y avoir une erreur.. 3200Mb/s ? 3,2Gb/sec ? L’évolution de la RAM aurait une vitesse de 3 cartes réseaux Gigabit ? et benh..

votre avatar







Goldensniper a écrit :



Heuu y doit y avoir une erreur.. 3200Mb/s ? 3,2Gb/sec ? L’évolution de la RAM aurait une vitesse de 3 cartes réseaux Gigabit ? et benh..







Oublie pas les temps d’accès et la latence dans ton raisonnement <img data-src=" />


votre avatar

Un fréquence en mbit/s, ça faisait longtemps que je l’avait pas vue celle là…

votre avatar

A mon avis il faut attendre 2 ans après la sortie de la DDR4 pour en voir les réels performances

votre avatar







Goldensniper a écrit :



Heuu y doit y avoir une erreur.. 3200Mb/s ? 3,2Gb/sec ? L’évolution de la RAM aurait une vitesse de 3 cartes réseaux Gigabit ? et benh..







Bon ben déjà, faut pas mélanger fréquence et bande passante. Ensuite, le bit/s, c’est 18 d’octet par seconde, donc tu peux commencer par diviser par 8 le taux de transfert de ta carte Gbit/s pour avoir les octets. C’est de suite moins impressionnant hein <img data-src=" />


votre avatar







sniperdc a écrit :



A mon avis il faut attendre 2 ans après la sortie de la DDR4 pour en voir les réels performances







Faudra surtout avoir un peu plus de cœurs (plus de 8) pour profiter des banques supplémentaires.


votre avatar







Commentaire_supprime a écrit :



Ce que je retiens de la DDR4, c’est qu’elle boufferas moins de jus au final que la génération précédente, à perfs potentiellement plus élevées.



Comme dit plus haut, ce n’est pas forcément les perfs brutes qui sont intéressantes avec ce type de mémoire.







C’est aussi ce que j’ai retenu, on est à 3-4 W pour un kit de DDR3 de base en idle. Avec les conso des CPU qui ne cessent de baisser un gain de 2 W ce n’est pas négligeable.


votre avatar







Chloroplaste a écrit :



Oki doki j’avais zappé cette notion de “Graphic” qui explique donc toute la nuances entre GDDR5 et DDR5 même si cela reste trompeur selon moi.

Car faire de la GDDR5 basée sur de la DDR3 en gardant un nom pareil, alors qu’à côté la DDR4 arrive et elle innove bien plus…





heu… peut-être parce que les deux n’ont rien à voir… S’ils en sont à la génération 5, bha c’est GDDR 5, si de l’autre côté ils en sont à la génération 3, bha c’est la DDR 3.

Et puis entre les deux c’est pas les mêmes débits, latence et la même consommation électrique et tout et tout. Bref ils accomplica la même fonction, mais c’est pas la même chose.


votre avatar







HarmattanBlow a écrit :



Comme d’hab tout le discours marketing tourne autour de la bande passante et ne dit rien de la latence, au moins aussi importante. Pourtant…

* Aujourd’hui les meilleures bandes passantes excèdent les besoins des CPU et n’apportent plus aucune gain en perfs. A contrario réduire la latence a un effet important.

* Des CPU plus puissants nécessiteront davantage de bande passante mais il n’y a pas de quoi s’exciter sur ces nouvelles bandes passantes. D’autant qu’à chaque nouvelle génération de mémoire la latence remonte à des niveaux médiocres et ne redescend qu’à la fin de la génération.



TL;DR : ne vous excitez pas sur les mémoires haut de gamme, regardez les benches pour savoir à quelle fréquence votre CPU cesse de gagner en puissance, puis privilégiez la plus faible latence possible à ce niveau. Et n’hésitez pas à perdre un peu en fréquence si vous gagnez en latence.





Ouaip, meilleure bande passante mais latences plus élevées. Bien pour le GPU, pas bien pour le CPU.







Je te conseille cet excellent article d’HFr.



“si l’on pouvait débattre entre privilégier fréquence ou timings à l’époque de la DDR2, aujourd’hui la question est réglée : la fréquence prime sur le reste dans quasiment tous les cas.”



C’est vrai que l’augmentation de la vitesse de la mémoire au delà d’un certain niveau n’apporte pas beaucoup de perfs aujourd’hui. Cependant les hexa-cores Intel aiment le triple-channel, ce qui montre qu’un surplus de bande passante peut être utile. Et comme mon petit doigt me dit que les core i7 Skylake (1ère gen DDR4 grand public) ont des chances d’être en hexacore, de la RAM dual channel plus rapide sera utile.


votre avatar







kirire a écrit :



heu… peut-être parce que les deux n’ont rien à voir… S’ils en sont à la génération 5, bha c’est GDDR 5, si de l’autre côté ils en sont à la génération 3, bha c’est la DDR 3.







De toute façon, il n’y a qu’une seule vraie DDR !



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />


votre avatar







Commentaire_supprime a écrit :



De toute façon, il n’y a qu’une seule vraie DDR !



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />







<img data-src=" />


votre avatar







Commentaire_supprime a écrit :



De toute façon, il n’y a qu’une seule vraie DDR !



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />







Pour pas confondre, je me disais que je mettais la RAM en haut à droite sur la CM =&gt; Allemagne de l’est <img data-src=" />


votre avatar







Ar-no a écrit :



Pour pas confondre, je me disais que je mettais la RAM en haut à droite sur la CM =&gt; Allemagne de l’est <img data-src=" />





Pas mal, par contre le truc mnémotechnique te fait clairement passé pour un g33k, -20 en charisme et un malus de -2 à tous tes jets de persuasions <img data-src=" />


votre avatar







Ar-no a écrit :



Pour pas confondre, je me disais que je mettais la RAM en haut à droite sur la CM =&gt; Allemagne de l’est <img data-src=" />





<img data-src=" />


votre avatar







raoudoudou a écrit :



Faudra surtout avoir un peu plus de cœurs (plus de 8) pour profiter des banques supplémentaires.







De ce côté là peut être qu’Intel n’est pas encore prêt ?



A moins que courant 2014 il nous sorte un CPU 12 coeurs 24 Threads <img data-src=" />


votre avatar

Je pense qu’Intel traine des pieds car aujourd’hui la DDR4 représenterait un surcout important par rapport au gain espéré.



Du temps des contrôleurs mémoire dans le northbridge c’était plus simple de faire une transition qu’aujourd’hui.

votre avatar

Et on a une idée du gain “réel” de la DDR4 par rapport à de la DDR3 ?

votre avatar







WereWindle a écrit :



encore un coup de Nvidia et de ses renommages de gamme sauvages <img data-src=" />









dis moi.. c’était un <img data-src=" /> délibéré?


votre avatar







CryoGen a écrit :



Et complément d’info, d’après wikipedia la GDDR5 est basée sur la DDR3 ;) .







et avant elle la GDDR3 était basée sur la DDR2



pas évident ces dénominations <img data-src=" />


votre avatar







YohAsAkUrA a écrit :



dis moi.. c’était un <img data-src=" /> délibéré?





ça va de soi (enfin apparemment pas mais il me semblait à moi)


votre avatar







Pochi a écrit :



Et on a une idée du gain “réel” de la DDR4 par rapport à de la DDR3 ?





Sans contrôleurs et sans ram de dispo pour des tests je dirais non spontanément <img data-src=" />


votre avatar







WereWindle a écrit :



ça va de soi (enfin apparemment pas mais il me semblait à moi)







arffff merci j’ai eu un doute ^^



nan parce que certains sortent de telles choses de manière tellement sérieuse en ce moment :)



la sur le coup c’est pas comme si entre la GDDR5 et la DDR3 y’avait juste un fossé technique :)


votre avatar







raoudoudou a écrit :



Faudra surtout avoir un peu plus de cœurs (plus de 8) pour profiter des banques supplémentaires.





Euh, tu es certain de ce que tu racontes là ?



Donc si je suis ton raisonnement, le CPU attends d’avoir au moins la taille de la vitesse du bus par seconde pour transférer des datas ?

Si tu as une bande passante de 4 Go/s d’un coté et une de 40Go/s de l’autre, il faudra le même temps pour transferer 200 Mo ?



votre avatar







raoudoudou a écrit :



Faudra surtout avoir un peu plus de cœurs (plus de 8) pour profiter des banques supplémentaires.











Sebdraluorg a écrit :



Euh, tu es certain de ce que tu racontes là ?



Donc si je suis ton raisonnement, le CPU attends d’avoir au moins la taille de la vitesse du bus par seconde pour transférer des datas ?

Si tu as une bande passante de 4 Go/s d’un coté et une de 40Go/s de l’autre, il faudra le même temps pour transferer 200 Mo ?





Arf autant pour moi, j’ai lu “pour profiter de la bande supplémentaire” <img data-src=" />



A ma décharge, il est tellement fréquent de lire ce genre d’argument…


votre avatar







june a écrit :



Je te conseille cet excellent article d’HFr.





Je te remercie mais je reste sur ma position. En effet :





  1. Leur test a été mené avec les deux plus gros CPU de l’époque, chacun coûtant un rein, les seuls à même de donner un intérêt à de grosses bandes passantes. Pas vraiment la config du joueur moyen. Qui plus est depuis les fréquences mémoire ont vu beaucoup plus de progrès que les CPU et les plus rapides n’apportent aucun gain aux CPU les plus répandus, incapables d’en profiter.



  2. Malgré ça, ils ont au moins trouvé une exception où diminuer la bande passante pour gagner en latence se révélait fructueux, preuve que tout se joue à pas grand chose. Et si tu regardes leurs mesures tu verras qu’ils observaient déjà, sur certains tests, une saturation de la bande passante alors que la latence offre une progression régulière et continue.



  3. Je n’ai pas dit “latence &gt; BP” ou autre. En substance j’ai invité les personnes à s’informer de la fréquence à laquelle leur CPU sature, à atteindre cette fréquence, puis seulement à privilégier la latence.


votre avatar







Sebdraluorg a écrit :



Arf autant pour moi, j’ai lu “pour profiter de la bande supplémentaire” <img data-src=" />

A ma décharge, il est tellement fréquent de lire ce genre d’argument…







Oui, en bande passante, on est toujours limité sur des bouts de code très optimisés (genre compression à la volée qui ne fait que de la comparaison mémoire et où l’on réduit souvent la fenêtre de recherche à la taille du cache interne ou externe) <img data-src=" />


votre avatar







Commentaire_supprime a écrit :



De toute façon, il n’y a qu’une seule vraie DDR !



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />







Tu plaisantes ! Voila la seule et unique DDR :http://bit.ly/Mav0C



J’ai l’impression que Haswell est une tentative de Intel à rattraper son retard face aux facteur perf/$ des architectures ARM. C’est pas plus mal ceci étant. Mais faudra-t-il attendre skylake pour bénéficier d’une nouvelle micro architecture véritablement orientée nouveautés ?


Selon Intel, la DDR4 arrivera plus tard, malgré ses avantages

Fermer