Connexion
Abonnez-vous

[MàJ] Revue de presse : les APU Trinity d’AMD et le socket FM2 se dévoilent

MDM

[MàJ] Revue de presse : les APU Trinity d'AMD et le socket FM2 se dévoilent

Le 02 octobre 2012 à 07h45

AMD devrait officialiser ses nouveaux APU de la génération Trinity début octobre. Ces puces disposeront de coeurs exploitant l'architecture Piledriver (remplaçant de Bulldozer) ainsi qu'une Radeon HD 7000 intégrée. Mais aujourd'hui, il est possible pour la presse de publier des « Previews », pour peu que certains points ne soient pas évoqués.

Avec sa nouvelle gamme de produits, AMD inaugure en effet un nouveau type d'article : le test à la découpe. Ainsi, comme l'expliquent très justement nos confrères de Tech Report qui sont revenus longuement sur le sujet, la marque les autorise à parler dès aujourd'hui de certains points concernant Trinity :

  • Les caractéristiques et l'architecture (qui n'ont pas forcément grand-chose de nouveau)
  • Les relevés de consommation
  • Les performances dans les jeux
  • L'impression générale face aux produits Intel (Core i3 et i5)

Comme vous l'aurez remarqué, il n'est point question des prix (qui ne sont pas encore figés), ou des performances CPU puisqu'il faudra attendre la fin du NDA pour évoquer ce point, AMD indiquant attacher plus d'importance au ressenti global de l'utilisateur qu'à de simples chiffres... qui doivent sans doute faire un peu mal.

 

Il semblerait que le cas du socket FM2, incompatible avec l'actuel FM1 mais qu'on nous promet comme paré pour plusieurs générations, puisse par contre être évoqué.

 

AMD Trinity Line-up

 

Quoi qu'il en soit, cette pratique, qui n'a (heureusement) pas été proposée aux testeurs français à notre connaissance, semble avoir rencontré un certain succès outre-Atlantique puisque plusieurs de nos confrères ont d'ores et déjà publié des dossiers. 

 

Nous attendrons pour notre part d'avoir pu passer un peu plus de temps avec les APU de cette génération (que nous avons récupérés ce mardi), avant de revenir plus en détail sur le sujet.

 

En anglais :

En français :

Commentaires (49)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Comme par hasard pas le droit de parler des perfs CPU et on sait tous pourquoi ….. Piledrivers n’apporte tout simplement pas les gains espérés et si on enlève les pseudos gains apportés par la montée en fréquence …. niveau IPC ce sera le désert je pense bien !



Et ca tout le monde le sait ! <img data-src=" />

votre avatar
votre avatar







chambolle a écrit :



C’est sur qu’en autorisant seulement la compraison avec les autres produits de la marque alors c’est plus tranquille.







Perso je vois du intel, du nvidia, …



Problèmes de vue ?







DarKCallistO a écrit :



J’en est une p’tite idée perso…







Si ces résultats sont avérés on aura du 0% d’augmentation de perf cpu ? oO



EDIT : comparé avec le mauvais modèle ^^


votre avatar



AMD indiquant attacher plus d’importance au ressenti global de l’utilisateur qu’à de simples chiffres…

Même si c’est invoqué pour de mauvaises raisons, je suis assez d’accord avec ça.

Ces avalanches de chiffres dans les tests de CPU sont peut être utiles pour comparer les performances de modèles aux caractéristiques assez proches, mais la différence de ressenti en utilisation quotidienne est assez dérisoire voire nulle en fait.

votre avatar







Gerophil a écrit :



EDIT : comparé avec le mauvais modèle ^^







En même temps,il n’y en a pas d’autres dans la base de données de Geekbench,mais on se situe au niveau d’un Core i5 680,je parle en terme de performance CPU + ram,geekbench ne test rien d’autre,la parti GPU ça reste a voir aussi.


votre avatar







DarKCallistO a écrit :



En même temps,il n’y en a pas d’autres dans la base de données de Geekbench,mais on se situe au niveau d’un Core i5 680,je parle en terme de performance CPU + ram,geekbench ne test rien d’autre,la parti GPU ça reste a voir aussi.







Il me semble qu’il y en a d’autresou je n’ai pas compris ce que tu veux dire ^^


votre avatar







Gerophil a écrit :



Il me semble qu’il y en a d’autresou je n’ai pas compris ce que tu veux dire ^^







Je pensais surtout a ceux présents dans le schéma de présentation,mais j’avais complétement zappée les autres XD, pas une mauvaise idée remarque :3



En espérant que la base de données s’enrichisse,mais je me fait pas trop de doute là dessus :p


votre avatar

Et bientôt, les dossiers de presses en plusieurs partie, avec une base incomplète mais gratuite et toutes les infos intéressantes en DLC ! <img data-src=" />

votre avatar

Je préfère attendre des processeurs qui tiendront la charge en montage 4k et 8k, un des rares arguments pour me faire changer le i5 750.

Car comme dit avant, si amd offre des processeurs pas chers et qui suffisent a 90% de la population, bah les chiffres ne serviront qu’au power users.

votre avatar

de toute façon, je trouve cet APU plusieurs défaut:



IPC 7 à 10% trop lent d’après les testes du TRINITY pour ordinateur portable.



parti GPU finalement pas assez performante, c’est du HD6000 renommé en HD7000 qui n’en a que le nom, et ça brouille le consommateur.



en fait je trouve que la différence de performance par rapport au dernier GPU Intel, pas suffisamment important, surtout qu’intel à la force de répliquer rapidement un HD5000 avec un POWER VR SGX G6400 :en.wikipedia.org Wikipediaqui va tous tué et surtout l’écart de performance du GPU Radeon HD de l’APU et des futures nouveau modèle.



les applications tirant parti du GPU computing aux comptes goûtes.



une parti GPU pas assez performante en GPU computing, plus les latences du aux GPU computing qui du coup cantonne les performances à des calculs très très intensif et répétitives.



peut être que le saint Graal, arrivera au TRINITY 2.0 et à leurs RADEON HD 8660D, qui auront l’architecture des Radeon HD 7850 sans les performances, mais quitte à avoir de vrai performances, autant mettre l’architecture d’une RADEON 8850 directement, juste histoire de compenser les grandes faiblesses de la Partie CPU de l’APU.



de toutes façon les GPU Intel auront tué les GPU d’entrée et de moyenne gamme d’ici 1ans à 2ans.





quid des Performance des APU sous Windows 8!!?


votre avatar

Bouh pas bien, ce fonctionnement est totalement anormal <img data-src=" />



Au fait… pcinpact touche combien pour la couverture et la semaine d’habillage IDF ? <img data-src=" />

votre avatar







Clad omnislash a écrit :



… Car comme dit avant, si amd offre des processeurs pas chers et qui suffisent a 90% de la population, bah les chiffres ne serviront qu’au power users.







Pourtant c’est eux qui sont dans la merde <img data-src=" />


votre avatar



avec Trinity AMD invente le test qui arrange, à la découpe



…je ne dit rien…je ne dit rien….







satandierbis a écrit :



Au fait… pcinpact touche combien pour la couverture et la semaine d’habillage IDF ? <img data-src=" />





Et AMD touche combien sur ce tests…ah bah rien, l’argent part dans le recouvrement de leurs dettes !!



vivement que tout cela finisse et qu’il y ai un concurent fiable…<img data-src=" />


votre avatar
votre avatar

y a ARM, via Samsung et Nvidia et pis Qualcomm, comme remplacement à AMD.



à partir du Cortex A15 et surtout ses suivants qui sortiront à 2.5Ghz en fréquence de base, y aura de quoi faire.

votre avatar

Vivement qu’Intel fasse de même. On autorise les tests des proc mais uniquement sur la partie CPU. Pour la partie GPU on laisse juste s’exprimer “le ressenti utilisateur” <img data-src=" />

votre avatar

En 720p ça passe correctement, pour ceux qui ne sont pas trop gourmands <img data-src=" />



Ca peut donc faire un bon HTPC avec du jeux (ce qu’on essayé de faire les constructeurs de consoles sur cette gen en fait^^).



Après je trouve le rapport perfs/prix pas vraiment hyper avantageux. On verra comment ça évolue!

votre avatar

Je m’ennuie du AMD de l’époque de l’ Athlon 64 qui écrasait de façon bien barbare et sanglante le P4 Prescott :craint

votre avatar







ze_fly a écrit :



Oui et non…Les perfs sont équivalentes et le prix aussi MAIS :





  • conso supérieure pour AMD

  • perfs inssufisantes pour jouer





    Toujours les mêmes comparaisons bidon de la part des testeurs, à savoir que :



  • on dit que le A10 5800 est l’équivalent perf du i3 3220 en se basant sur une moyenne d’applis mono threads et d’autres multithreads. Mais attention en multithreads le A10 avec ses 4 “vrais” coeurs est plus performant que le i3.



  • puis on compare la consommation des 2 cpu avec un bench multithread et là forcement le A10 consomme plus (il est aussi plus performant).



    C’est vraiment de la bidonnerie à 2 balles et tous les testeurs en sont certainement conscients vu comme c’est évident, mais bon… un article technique de 10 pages, le pekin moyen va même pas le lire (alors le comprendre mouarf).



    Ajoute à ça des trucs plus sioux comme le fait que A10 5800 est le plus gros SKU de la gamme (plus grande fréquence = moins bonne conso) ce qui n’est pas le cas du i3 3220 et d’autres trucs comme le choix des logiciels de benchs.







    En fait si AMD était dans la position d’Intel (avec tous leurs brouzoufs) on aurait une jolie sélection de tests multithreads au code merveilleusement bien adapté à leur architecture délicate. Ils n’auraient pas vraiment besoin de forcer leur talent et le A10 5800 sortirait à 3.3ghz et il exploserait en conso le i3 3220 équivalent poussé à 4ghz.



    Le pire c’est que c’est vrai <img data-src=" />


votre avatar

(erreur)

votre avatar







satandierbis a écrit :



Toujours les mêmes comparaisons bidon de la part des testeurs, à savoir que :





  • on dit que le A10 5800 est l’équivalent perf du i3 3220 en se basant sur une moyenne d’applis mono threads et d’autres multithreads. Mais attention en multithreads le A10 avec ses 4 “vrais” coeurs est plus performant que le i3.



  • puis on compare la consommation des 2 cpu avec un bench multithread et là forcement le A10 consomme plus (il est aussi plus performant).



    C’est vraiment de la bidonnerie à 2 balles et tous les testeurs en sont certainement conscients vu comme c’est évident, mais bon… un article technique de 10 pages, le pekin moyen va même pas le lire (alors le comprendre mouarf).



    Ajoute à ça des trucs plus sioux comme le fait que A10 5800 est le plus gros SKU de la gamme (plus grande fréquence = moins bonne conso) ce qui n’est pas le cas du i3 3220 et d’autres trucs comme le choix des logiciels de benchs.







    En fait si AMD était dans la position d’Intel (avec tous leurs brouzoufs) on aurait une jolie sélection de tests multithreads au code merveilleusement bien adapté à leur architecture délicate. Ils n’auraient pas vraiment besoin de forcer leur talent et le A10 5800 sortirait à 3.3ghz et il exploserait en conso le i3 3220 équivalent poussé à 4ghz.



    Le pire c’est que c’est vrai <img data-src=" />









    Je trouve pourtant le test d’HFR très fouillé avec à la fois les comparaisons monothread/multithread et même openCL quand disponible. D’ailleurs ils précisent en onclusions que Virgo tire son épingle du jeu face aux i3 dans les appli fortement multi-threadés justement parce que c’est un 4 coeurs. Pour ce qui est de la conso, il n’en reste pas mois que le rapport perf par watt est moins bon que chez intel (proc 4 coeur ou pas). Mais ça on pouvait s’en douter avec les test de bulldo.



    Bref, il n’en reste pas moins que l’offre AMD se positionne dans u secteur pour le moins délicat, et qui je pense à plus d’intérêt pour les assembleurs que pour le sparticuliers.


votre avatar







satandierbis a écrit :



Toujours les mêmes comparaisons bidon de la part des testeurs, à savoir que :





  • on dit que le A10 5800 est l’équivalent perf du i3 3220 en se basant sur une moyenne d’applis mono threads et d’autres multithreads. Mais attention en multithreads le A10 avec ses 4 “vrais” coeurs est plus performant que le i3.



  • puis on compare la consommation des 2 cpu avec un bench multithread et là forcement le A10 consomme plus (il est aussi plus performant).



    C’est vraiment de la bidonnerie à 2 balles et tous les testeurs en sont certainement conscients vu comme c’est évident, mais bon… un article technique de 10 pages, le pekin moyen va même pas le lire (alors le comprendre mouarf).



    Ajoute à ça des trucs plus sioux comme le fait que A10 5800 est le plus gros SKU de la gamme (plus grande fréquence = moins bonne conso) ce qui n’est pas le cas du i3 3220 et d’autres trucs comme le choix des logiciels de benchs.







    En fait si AMD était dans la position d’Intel (avec tous leurs brouzoufs) on aurait une jolie sélection de tests multithreads au code merveilleusement bien adapté à leur architecture délicate. Ils n’auraient pas vraiment besoin de forcer leur talent et le A10 5800 sortirait à 3.3ghz et il exploserait en conso le i3 3220 équivalent poussé à 4ghz.



    Le pire c’est que c’est vrai <img data-src=" />







    Je crois avoir déjà lu ce genre de com auparavant, c’était peut-être toi ^^



    Je suis d’accord que quand on compare la consommation en mettant prime95 et furmark, on ne rend pas honneur aux procos les plus puissants (autant les comparer avec un ARM !). Par ex, chez HFR, sous F1 2011 le A10 consomme deux fois plus que le i3 3220 mais est aussi 3x plus performant.



    Bref il faudrait faire plutôt la division d’un indice de performance par la consommation max. Il me semble que des sites “écolos” comme Ginjfo, proposent ce genre de comparaisons ;)


votre avatar

AMD: quand on est déjà dans le trou, il faut arrêter de creuser.

Comme quoi, il fait bon quitter AMD ces temps-ci !



A présent, je me moque entièrement de tous les benchs de la terrre ! Je ne veux QUE les benchs CPU pour applis single-thread !

Et si AMD ne bat pas Intel à plates coutures dans ces tests, BYE BYE AMD !!



Ceci après plusieurs années d’attente !

Quelle bande de loosers.

votre avatar







p-seeker23 a écrit :



AMD: quand on est déjà dans le trou, il faut arrêter de creuser.

Comme quoi, il fait bon quitter AMD ces temps-ci !



A présent, je me moque entièrement de tous les benchs de la terrre ! Je ne veux QUE les benchs CPU pour applis single-thread !

Et si AMD ne bat pas Intel à plates coutures dans ces tests, BYE BYE AMD !!



Ceci après plusieurs années d’attente !

Quelle bande de loosers.







Tu n’exécutes que des applis single-thread sur ton pc ? Pas besoin de la partie GPU non plus ?







satandierbis a écrit :



C’est vraiment de la bidonnerie à 2 balles et tous les testeurs en sont certainement conscients vu comme c’est évident, mais bon… un article technique de 10 pages, le pekin moyen va même pas le lire (alors le comprendre mouarf).







http://image.noelshack.com/fichiers/2012/40/1349180413-rapport-fpssurconso-proco…

<img data-src=" />


votre avatar







satandierbis a écrit :



Toujours les mêmes comparaisons bidon de la part des testeurs, à savoir que :





  • on dit que le A10 5800 est l’équivalent perf du i3 3220 en se basant sur une moyenne d’applis mono threads et d’autres multithreads. Mais attention en multithreads le A10 avec ses 4 “vrais” coeurs est plus performant que le i3.



  • puis on compare la consommation des 2 cpu avec un bench multithread et là forcement le A10 consomme plus (il est aussi plus performant).







    Le AMD A10 consomme plus que le Core i5 3330 en charge CPU…



    et n’atteint jamais les perfs du i5 !



    le A10/A8 trinity est il un vrai 4-cores ou un SMT ? (2 modules)









    Gerophil a écrit :



    Je crois avoir déjà lu ce genre de com auparavant, c’était peut-être toi ^^



    Je suis d’accord que quand on compare la consommation en mettant prime95 et furmark, on ne rend pas honneur aux procos les plus puissants (autant les comparer avec un ARM !). Par ex, chez HFR, sous F1 2011 le A10 consomme deux fois plus que le i3 3220 mais est aussi 3x plus performant.



    Bref il faudrait faire plutôt la division d’un indice de performance par la consommation max. Il me semble que des sites “écolos” comme Ginjfo, proposent ce genre de comparaisons ;)







    Le Core i3 + HD 6670 DDR5 consomme moins que le A10 et affiche de meilleures performances…



    HFR font le tour de chaque question en général dans leurs tests !


votre avatar







kypd a écrit :



Le AMD A10 consomme plus que le Core i5 3330 en charge CPU…



et n’atteint jamais les perfs du i5 !



le A10/A8 trinity est il un vrai 4-cores ou un SMT ? (2 modules)







Le i5 n’est pas dans la même gamme de prix non plus. La gamme qui correspond à l’A10 (le meilleur des Trinity) sont les i3 3220 et 25.







kypd a écrit :



Le Core i3 + HD 6670 DDR5 consomme moins que le A10 et affiche de meilleures performances…



HFR font le tour de chaque question en général dans leurs tests !







J’aimerais bien savoir ou tu as trouvé les perfs du core i3 + 6670 DDR5 dans le test de HFR déjà.

Ensuite un i3 + une 6670 c’est 210 € chez materiel.net, le A10 sera à 120 €. Pas la même gamme donc.


votre avatar







Gerophil a écrit :



Le i5 n’est pas dans la même gamme de prix non plus. La gamme qui correspond à l’A10 (le meilleur des Trinity) sont les i3 3220 et 25.







Le i5 c’est 60E de surcout, un A10 avec la carte mère FM2 c’est 45E de surcout…







Gerophil a écrit :



J’aimerais bien savoir ou tu as trouvé les perfs du core i3 + 6670 DDR5 dans le test de HFR déjà.

Ensuite un i3 + une 6670 c’est 210 € chez materiel.net, le A10 sera à 120 €. Pas la même gamme donc.







A partir de cet article je sais que le i3 est plus perf que le A10 en CPU sur F1 2011



http://www.hardware.fr/articles/878-8/cpu-f1-2011-crysis-2-arma-ii.html



A partir de celui là :



http://www.hardware.fr/articles/878-10/gpu-f1-2011-civilization-v-battlefield-3….



Je sais que le HD6670 DDR5 fait mieux que la GPU du A10…



je vois pas comment un Core i3 plus performant sur F1 2011 + un HD 6670 GDDR5 plus performant que le GPU du A10 pourrait par miracle faire une plateforme moins performante…



Et pour le tarif faut comparer à plateforme complète et performances…



Ce qu’on ne peut pas faire trop ici… pour 210E le Core i3 j’y colle un HD7750 (même prix que la HD6670) qui va ajouter un sacré boost de performances !



alors qu’avec les carte mère FM2 pas encore dispo en tarif sacrifié j’en aurais pour 220E à monter un A10… (+15E de mémoire 2133 si je veux pousser un peu les perfs) là ou un i3 complet avec CG me coutera 55e (B75)+120e(i3)+90e(7750), soit 30E de plus pour des performances d’un autre monde en jeux !


votre avatar

Ok pour la comparaison avec tes articles mais tu ne sais pas dans quelles proportions…









kypd a écrit :



alors qu’avec les carte mère FM2 pas encore dispo en tarif sacrifié j’en aurais pour 220E à monter un A10… (+15E de mémoire 2133 si je veux pousser un peu les perfs) là ou un i3 complet avec CG me coutera 55e (B75)+120e(i3)+90e(7750), soit 30E de plus pour des performances d’un autre monde en jeux !







Tu as déjà descartes FM2 à 50€..



60€ et 80 € de plus, tu es peut-être dans un autre monde niveau perf, mais aussi niveau prix.


votre avatar







p-seeker23 a écrit :



AMD: quand on est déjà dans le trou, il faut arrêter de creuser.

Comme quoi, il fait bon quitter AMD ces temps-ci !



A présent, je me moque entièrement de tous les benchs de la terrre ! Je ne veux QUE les benchs CPU pour applis single-thread !

Et si AMD ne bat pas Intel à plates coutures dans ces tests, BYE BYE AMD !!



Ceci après plusieurs années d’attente !

Quelle bande de loosers.





Bravo pour ce commentaire constructif et intelligent ! <img data-src=" />







… Heureusement que les commentaires précédents relèvent le niveau. Notamment ceux qui soulignent la différence de positionnement. Et ceux qui soulignent le très probable favoritisme des benchmarks vis-à-vis des puces Intel, ce dernier ayant largement les moyens “d’aider” les éditeurs… Sans compter les pratiques commerciales anti-concurrentielles qui lui ont valu diverses condamnations et un accord amiable avec AMD (qui aurait mieux fait d’aller jusqu’au bout àma, parce que si Intel a accepté c’est qu’ils devaient avoir les co*les dans l’étau).



EDIT : Bon je quote sinon les INpactiens comprendront pas à qui je fais référence, vu que des coms sont passés entre-temps <img data-src=" />


votre avatar







David_L a écrit :



Je crois qu’on ne pourra jamais rien contre ton incapacité à lire correctement. <img data-src=" />





N’essaie pas de te cacher avec une tentative désespérée d’insulte à mon égard qui n’a pas de sens qui plus est. Si tu crois que personne ne remarque ton petit manège avec la publicité dissimulée au sein même de tes articles, celle dont on ne doit pas parler, tu te trompes lourdement.


votre avatar







kail a écrit :



N’essaie pas de te cacher avec une tentative désespérée d’insulte à mon égard qui n’a pas de sens qui plus est. Si tu crois que personne ne remarque ton petit manège avec la publicité dissimulée au sein même de tes articles, celle dont on ne doit pas parler, tu te trompes lourdement.





<img data-src=" />



De-mas-qued !


votre avatar







Clad omnislash a écrit :



Je préfère attendre des processeurs qui tiendront la charge en montage 4k et 8k, un des rares arguments pour me faire changer le i5 750.

Car comme dit avant, si amd offre des processeurs pas chers et qui suffisent a 90% de la population, bah les chiffres ne serviront qu’au power users.







Mouais.. Le montage en 4k et 8k ça reste un usage ultra spécifique quand même !







loapinouminou a écrit :



y a ARM, via Samsung et Nvidia et pis Qualcomm, comme remplacement à AMD.



à partir du Cortex A15 et surtout ses suivants qui sortiront à 2.5Ghz en fréquence de base, y aura de quoi faire.







Il y aura de quoi faire ? Par rapport à ces procos tu veux dire ? Au dernière nouvelles, sur des tests Javascript, les ARMs n’étaient même pas au niveau des atoms sorti il y a 2 ans …

Après ce n’est pas du tout la même architecture, dur de faire des comparaisons…



Pour le reste de ton discours sur l’utilisation du gpu dans les appli, ça arrive de plus en plus, ca a commencé avec les players vidéos. Ca continue avec la retouche photo et video (cf Adobe) et ça arrivera bientot partout.


votre avatar







gavroche69 a écrit :



Même si c’est invoqué pour de mauvaises raisons, je suis assez d’accord avec ça.

Ces avalanches de chiffres dans les tests de CPU sont peut être utiles pour comparer les performances de modèles aux caractéristiques assez proches, mais la différence de ressenti en utilisation quotidienne est assez dérisoire voire nulle en fait.



J’suis pas d’accord, du moins pour l’évaluation des perf CPU.

Il n’y a rien de plus subjectif et d’approximatif comme approche. Tu peux faire dire une chose et son contraire pour une machine donnée, juste en changeant la manière de présenter les choses. Ou alors tu peux faire ressentir des choses différentes sur 2 machines strictement identiques.

Si l’encodage d’un film prend 30 min sur l’un et 40min sur l’autre, j’ai envie d’avoir les chiffres, par le ressenti d’un utilisateur qui dira “c’était long”, “pas ressenti de différence entre les 2, j’regardais la TV pendant l’encodage, lol”. Ce genre de ressenti, on s’en passe, c’est nul.



Par contre, là où ça peut être utile en complément des chiffres, c’est dans les jeux vidéo. Cela a permis de révéler certains comportement sur les configuration multi-GPU (cf test d’HFR). Mais concernant Trinity, ces ressentis ingame ne vont intéresser que les gamers jouant avec leur IGP et c’est loin d’être la majorité <img data-src=" />


votre avatar







Foudge a écrit :



Mais concernant Trinity, ces ressentis ingame ne vont intéresser que les gamers jouant avec leur IGP et c’est loin d’être la majorité <img data-src=" />







Bah justement, ça pourrait changer, c’est d’ailleurs bien l’objectif de ces APU. Moi quand je vois les perfs de ces derniers IGP sur les jeux comme Skyrim, SC 2 et compagnie, je me dis que c’est la bonne solution pour un ultrabook professionnel mâtiné de jeux le soir chez moi ou durant certains trajets.<img data-src=" />







loapinouminou a écrit :



Des tas de choses qui avaient l’air intéressantes mais incompréhensibles





Aurais-tu l’amabilité de refaire ton post de manière compréhensible par un non-initié ? merci d’avance. <img data-src=" />


votre avatar







Foudge a écrit :



J’suis pas d’accord, du moins pour l’évaluation des perf CPU.

Il n’y a rien de plus subjectif et d’approximatif comme approche. Tu peux faire dire une chose et son contraire pour une machine donnée, juste en changeant la manière de présenter les choses. Ou alors tu peux faire ressentir des choses différentes sur 2 machines strictement identiques.

Si l’encodage d’un film prend 30 min sur l’un et 40min sur l’autre, j’ai envie d’avoir les chiffres, par le ressenti d’un utilisateur qui dira “c’était long”, “pas ressenti de différence entre les 2, j’regardais la TV pendant l’encodage, lol”. Ce genre de ressenti, on s’en passe, c’est nul.



Par contre, là où ça peut être utile en complément des chiffres, c’est dans les jeux vidéo. Cela a permis de révéler certains comportement sur les configuration multi-GPU (cf test d’HFR). Mais concernant Trinity, ces ressentis ingame ne vont intéresser que les gamers jouant avec leur IGP et c’est loin d’être la majorité <img data-src=" />



Je parle de processeurs très proches. Je persiste à penser que quand tu vois des comparatifs avec des listes de mesure qui concernent des CPU à 2,6Ghz puis les mêmes (mais avec une référence différente) à 2,8 - 3 - 3,3 Ghz ça ne sert pas à grand chose. Enfin si, ça permet aux constructeurs de sortir des gammes immenses et aux passionnés d’overclocking de faire des concours… <img data-src=" />

Et je l’ai dit, c’est une mauvaise raison invoquée par AMD.

Mais dans la réalité ce n’est pas si idiot que ça pour beaucoup de gens. <img data-src=" />


votre avatar







mum1989 a écrit :



d’autres test chez toms hardware (en) :

http://www.tomshardware.com/reviews/a10-5800k-a8-5600k-a6-5400k,3224.html

http://www.tomshardware.com/reviews/trinity-gaming-performance,3304.html





Ce test existe depuis quatre mois et a simplement été actualisé.



Du coup c’est le seul qui compare les perfs processeur de ces puces (les comparatifs des versions mobiles donnaient déjà une idée).



Ajoutons au passage la version avec un i3 Sandy Bridge.



Pour ceux qui ne parleraient pas anglais, le test montre que les Trinity sont en moyenne proches des Llano et des i3 niveau CPU. Attention ! La carte maman était un prototype, le fabricant indique que le turbo ne fonctionne pas parfaitement.



Par rapport à Llano, Trinity fait un peu mieux en mono thread et un peu moins bien en multi (normal avec 2 cœurs, le CMT ne permettant que 50~55% des perfs d’un cœur normal cf tests de Buldozer). Peut être devant en moyenne mais rien de bien folichon et ça dépend des programmes évalués.



Face au i3 (ici un 2100 à 3,1Ghz 2cœurs HT, pas le plus haut de gamme mais au même prix que le 3870K au moment du test), la situation s’inverse et le multi thread favorise le A10, les deux puces restent en moyenne dans un mouchoir de poche. Dans ces applis notons un léger mieux pour l’A10 mais une version cadencé plus haut aurait pu modifier l’ordre et face à IB ça risque de ne pas suffire.



Bien sûr, les i5 et i7 seront hors de portée, l’avantage en multi-thread n’existant plus. D’un autre côté, leurs prix sont aussi hors de portée.



Comparer à un FX-8150 (à fréquence, nombre de cœurs identique et sans turbo) ils notent une amélioration d’~15% sur 3dsmax (multi thread) et un encodage itune (mono thread).



Même pas besoin d’aller voir l’impression générale de tests tronqués.



Manque plus qu’un test PCI en fait…

:smileyquidonneenviedebenchdurantdesheures: :jécriscommeunpsycopathesijeveuxdabord:



Édit : ortho


votre avatar







loapinouminou a écrit :







quid des Performance des APU sous Windows 8!!?







<img data-src=" />



<img data-src=" /> Bof ! depuis qu’ils ont viré la transparence des fenêtres en mode Bureau, une simple S3 Trio 64V2 devrait suffire… <img data-src=" />



<img data-src=" /> <img data-src=" />


votre avatar







satandierbis a écrit :



Au fait… pcinpact touche combien pour la couverture et la semaine d’habillage IDF ? <img data-src=" />





Rien, on a toujours fait l’habillage par pure envie de différencier les actus visuellement pendant le salon comme on l’a dit plusieurs fois, ce qu’on devrait d’ailleurs pratiquer sur plusieurs types de contenus du genre à venir ;)



Les habillages sur la page d’accueil, eux, sont des publicités payantes (avec clic et compagnie, et appliquées uniquement sur cette page). Mais si les espaces publicitaires te gênent, l’abonnement Premium est là pour ça ;)


votre avatar







David_L a écrit :



Rien, on a toujours fait l’habillage par pure envie de différencier les actus visuellement pendant le salon comme on l’a dit plusieurs fois, ce qu’on devrait d’ailleurs pratiquer sur plusieurs types de contenus du genre à venir ;)



Les habillages sur la page d’accueil, eux, sont des publicités payantes (avec clic et compagnie, et appliquées uniquement sur cette page). Mais si les espaces publicitaires te gênent, l’abonnement Premium est là pour ça ;)





Quel flegme (non, j’ai pas dit “flemme”) !<img data-src=" />


votre avatar







Gerophil a écrit :



Mouais.. Le montage en 4k et 8k ça reste un usage ultra spécifique quand même !







Bah, les caméscopes/TV et apn/reflex de maintenant sont à la norme 1080p 30 /50 i/s, Je pense que beaucoup de foyer en sont équipés. Bref le 1080p ultra spécifique à sa création, n’a pu lieu d’être, c’est devenu une norme de notre époque, et les processeurs sont adapté à ce format pour lire et monter des vidéos.

Et quand je vois mes vieux montages en mpeg2 480, je reviendrais pas en arrière.

Alors quand tous les camescopes/apn/télés seront 4k, je suis déjà convaincu de l’utilité (quoique 8k serait mieux maintenant) et l’obligation d’évoluer vers un processeur puissant pour ce type de montage . Et je pense pas que je suis le seul à faire des vidéos de sa vie.

Bon il existe aussi des solutions avec la CG. Mais je préfère un bon processeur pour le calcul du futur h265, qui aujourd’hui est ultra spécifique, mais demain, sera complétement banal.


votre avatar







Clad omnislash a écrit :



Bah, les caméscopes/TV et apn/reflex de maintenant sont à la norme 1080p 30 /50 i/s, Je pense que beaucoup de foyer en sont équipés. Bref le 1080p ultra spécifique à sa création, n’a pu lieu d’être, c’est devenu une norme de notre époque, et les processeurs sont adapté à ce format pour lire et monter des vidéos.

Et quand je vois mes vieux montages en mpeg2 480, je reviendrais pas en arrière.

Alors quand tous les camescopes/apn/télés seront 4k, je suis déjà convaincu de l’utilité (quoique 8k serait mieux maintenant) et l’obligation d’évoluer vers un processeur puissant pour ce type de montage . Et je pense pas que je suis le seul à faire des vidéos de sa vie.

Bon il existe aussi des solutions avec la CG. Mais je préfère un bon processeur pour le calcul du futur h265, qui aujourd’hui est ultra spécifique, mais demain, sera complétement banal.







Je ne voudrais pas relancer le débat mais pour le montage : ok le 4k/8k ont un intérêt. Pour le visionnage c’est niet.



Sinon pour le h265 ce n’est pas avec les proco d’aujourd’hui (ni de demain) que tu le calculeras rapidement.

J’ai lu un blog d’un developpeur de x264 disant qu’on peut esperer un gain de 40 % sur la taille du fichier à qualité égale d’après les recommandation d’une grande boite du domaine video (me souvient plus laquelle) mais que les settings de l’encode étaient tellement bourrins qu’il lui fallait 2 semaines pour encoder 30 sec de video sur son i7…


votre avatar







David_L a écrit :



Les habillages sur la page d’accueil, eux, sont des publicités payantes (avec clic et compagnie, et appliquées uniquement sur cette page). Mais si les espaces publicitaires te gênent, l’abonnement Premium est là pour ça ;)





L’abonnement premium est là… Ah oui, pour une presse indépendante c’est ça? Même si on vous donnait tout l’or du monde, vous ne pourriez pas vous empêcher de dire du bien d’Intel et de cracher sur AMD parce que vous gagnez bien plus en le faisant, n’est-ce pas?


votre avatar







kail a écrit :



L’abonnement premium est là… Ah oui, pour une presse indépendante c’est ça? Même si on vous donnait tout l’or du monde, vous ne pourriez pas vous empêcher de dire du bien d’Intel et de cracher sur AMD parce que vous gagnez bien plus en le faisant, n’est-ce pas?





Je crois qu’on ne pourra jamais rien contre ton incapacité à lire correctement. <img data-src=" />


votre avatar

Ceux qui crachent le plus sur AMD c’est leur propre département marketing. Leur façon de nous prendre pour des cons dans leur présentation bullshit met le travail de leur ingénieurs directe à la poubelle pour moi.



Au moins Intel essaye de parler de façon moi stratosphérique… Entre AMD qui nous fait un beau schéma pour nous dire qu’ils vont fusionner comme un puzzle le CPU et le GPU, et Intel qui parle de SOC dans toutes les gammes dès 2013, y a pas photo… SOC au niveau hardware on sait ce que c’est, un puzzle c’est quoi ? Du vent !



J’irais pas investir sur un carte mère AMD moi, même pour du moyen gamme offert à prix compétitif comme présenté ici.

votre avatar

Au final, les perfs CPU du A10 - 5800k se situent au niveau d’un core i3 3220 pour un prix sensiblement équivalent.



Quand on sait ce que le i3 prend une fois qu’on passe en revue le GPU. Cette offre d’AMD est vraiment très bien positionnée ^^



La balle est dans le camp d’Intel.









kail a écrit :



L’abonnement premium est là… Ah oui, pour une presse indépendante c’est ça? Même si on vous donnait tout l’or du monde, vous ne pourriez pas vous empêcher de dire du bien d’Intel et de cracher sur AMD parce que vous gagnez bien plus en le faisant, n’est-ce pas?







<img data-src=" />



votre avatar







Gerophil a écrit :



Au final, les perfs CPU du A10 - 5800k se situent au niveau d’un core i3 3220 pour un prix sensiblement équivalent.



Quand on sait ce que le i3 prend une fois qu’on passe en revue le GPU. Cette offre d’AMD est vraiment très bien positionnée ^^



La balle est dans le camp d’Intel.







Oui et non…Les perfs sont équivalentes et le prix aussi MAIS :





  • conso supérieure pour AMD

  • perfs inssufisantes pour jouer



    Or, si tu ne joue pas, tu n’a que faire de la puissance en plus offerte par le GPU, vis à vis de celui d’Intel. Et qu’on ne viennent pas me parler d’OpenCL malheureusement trop peu repandu pour le moment. Bref, pour moi, à prix équivalent, AMD reste derrière.



    Je tiens à préciser que la dernière config que j’ai monté en septembre c’était du Llano hein, donc je sais de quoi je parle. Et j’ai choisi ça justement parce que pour le coup le rapport perf/prix était tout bonnement excellent (A8 3870K à 90€ et CM Gigabyte UD2H à 45€).



    Bref, le seul argument en faveur d’AMD pourrait être le prix (encore une fois…), associé à la polyvalence de la plateforme, si on n’est pas trop exigeant ni en conso ni en perfs.


votre avatar







ze_fly a écrit :



Oui et non…Les perfs sont équivalentes et le prix aussi MAIS :





  • conso supérieure pour AMD

  • perfs inssufisantes pour jouer







    Ok pour la conso. je remarque qu’en jeu en 720p la plupart passe plutot bien. Pour jouer sur une TV (HTPC) c’est parfait ^^


votre avatar

Avec les caractéristiques du CPU et l’augmentation de l’IPC, on doit pouvoir avoir une idée des perfs CPU. Enfin pour ça, il faut évidemment avoir les vrais chiffres d’augmentation de l’IPC <img data-src=" />

votre avatar

C’est sur qu’en autorisant seulement la compraison avec les autres produits de la marque alors c’est plus tranquille.



Des tas d’articles vont etre ecrit sur l’extrapolation des chiffres en comparnt avec la concurrence.



Lamentable que les journalistes se pretent à ce jeu : bientot AMD leur enverra directement les articles tout écrit (remarque : pour certains journaux en ligne cela serait certainement mieux)

[MàJ] Revue de presse : les APU Trinity d’AMD et le socket FM2 se dévoilent

Fermer