si je me souviens bien c était aussi la grande époque du pc tout assemblé made in TaÏwan , il y avait aussi le fabricant Cyrix en processeurs X86, sur le marché du proc : Intel, Amd et Cyrix et , (je crois aussi, je suis pas sur) un quatrième dont je me rappel plus le nom ( please si quelqu’un s en souviens…)
Nexgen et son Nx586 ?
(quote:58995:skankhunt42 ) 720 à 30 fps c’est loin d’être de bonnes conditions…
Donc “à la bonne époque” on n’avait jamais de bonnes conditions alors, cqfd.
Le
02/08/2021 à
18h
44
(quote:58956:skankhunt42 ) Cyperpunk en ultra + 4k natif ne tourne qu’a 20 fps…
Je ne comprends pas cet argument. Je montre qu’aujourd’hui on peut profiter des jeux récents dans de relativement bonnes conditions (720p à 30 fps) avec du matériel qui 5 ans auparavant était déjà modeste. Une GTX 960 c’est équivalent à une GTX 680 de 2012, 8 ans avant CP77. En 96 avec Quake sur Voodoo, le top de l’époque, ça tournait dans des conditions moins bonnes que ça, et au bout de 5 ans la carte avait déjà depuis longtemps rendu les armes.
Le
02/08/2021 à
07h
29
(quote:58925:skankhunt42 ) En même temps c’est un peu logique que le matériel évolue au fil du temps non ?
Oui, mais les logiciels/jeux aussi. Quelque part on pourrait se dire que ça évolue à la même vitesse. Si par exemple Quake 1 tournat en 512x384 pour atteindre 30 fps sur une Voodoo 1, on aurait pu imaginer que Cyberpunk 2077 ne tourne pas mieux sur une RTX en 2020.
Pour moi ça montre qu’à l’époque, acheter du matériel à la pointe permettait de jouer aux jeux dans des conditions tout juste bonnes. Et ça évoluait tellement vite que ton matériel était très rapidement périmé. Aujourd’hui c’est beaucoup plus facile de jouer aux jeux récents dans d’excellentes conditions, et de pouvoir le faire beaucoup plus longtemps qu’avant.
J’ai encore une GTX 960 2 Go que j’ai acheté il y a 6 ans. Je joue à CP77 et Control avec sur mon PC d’appoint, 720p en low à 30 fps, c’est tout à fait jouable. À l’époque il fallait nettement moins de temps pour devoir supporter du 320x200 à 5~10 fps, quand ça se lançait.
Le
01/08/2021 à
16h
59
@skankhunt42, faut tenir compte des circonstances exceptionnelles actuelles. Remonte juste quelques années en arrière, pour 200€ tu avais une carte moyen de gamme qui tenait tout à fait la route, pour viser du 1080p à 60 fps, pas du 512x384 à 30 fps comme à l’époque ;).
En fait, je ne vois je ne vois pas ce qu’en réalité un 10700k peut apporter de plus que le 10700 à part la possibilité d’overclocker. En effet, même si il y a une différence importante sur la fréquence “Base clock speed”, la fréquence max “All cores turbo” est très proche sur ces deux processeurs.
Leur TDP est très différent, et c’est ça qui conditionne quelle fréquence ils vont pouvoir atteindre en pratique.
Rien que côté technique il y a énormément à gagner tellement l’original exploite mal le matériel moderne. Du coup je m’attends à ce que le remaster tourne mieux que l’original sur une machine récente, tout en étant plus beau.
Je pense que c’est pour que deux produits qui ont le même nom aient les mêmes performances (ou à peu près). Mais rajouter GDDR6 dans le nom de la carte et profiter des perfs en plus ça me parait être une meilleure idée à moi aussi…
Pour moi l’ordre d’intérêt correspond parfaitement à l’ordre chronologiques des jeux. Sur ce point Origin est effectivement moins intéressant que Asylum " />. Et pour City j’ai été épaté, c’est bien la première fois qu’un jeu m’a donné autant de motivation, et ce du début jusqu’à la fin (fin énormissime d’ailleurs !). D’après les critiques le Arkham Knight est encore mieux que les autres, je ne vois pas comment c’est possible…
Remarque, on l’attendait aussi le Maxwell dans les Tegra. Par contre je m’attendais à ce que ça leur permette de faire un GPU puissant mais avec une consommation raisonnable pour une tablette voire un smartphone, mais là, 10 Watts ??? Ils ont pas visé un peu trop haut ?
J’ai déjà une popup qui me dit de temps en temps voulez vous installer la mise à jour, et si je ne clique pas, sur le speed dial ou dans le a propos il dit qu’il installera la nouvelle mise à jour au prochain redémarrage.
Pareil, il me semble bien que chez moi Opera se mettait à jour sans que je ne fasse rien. J’ai d’ailleurs un vieux PC avec un Athlon XP où ça me pose problème justement, à partir de la version 21 il faut les instructions SSE2 donc Opera me spamme une erreur à chaque démarrage à cause de la mise à jour qui plante.
Bah, en overclockant par nous même on peut bien arriver à 300 W de consommation pour le CPU, là au moins c’est garanti. Et qui achètera ça le fera en connaissance de cause.
Et si c’est juste pour qu’AMD puisse dire qu’ils ont un CPU qui se bat contre les meilleurs CPU haut de gamme d’Intel, ça peut valoir le coup…
Pour moi l’OLED serait obligatoire pour une montre. Si elle doit afficher l’heure en permanence, la grande majorité de l’écran peut être éteint, contrairement à un LCD.
Si seule la version mobile de PCI est comptabilisée, je trouve normal le graphique des résolutions. Quand on a du HD on peut très bien prendre la version “desktop” des sites, j’ai pas hésité à changer mon user agent perso…
Je pense quand même que dans les scénarios de charge lourde (suffisant pour que les Cortex A15 passent à l’action), le Snapdragon doit dépenser moins d’énergie. Ca bouffe pas mal un A15, mais j’attends de savoir comment ils se situent par rapport aux Snapdragon.
Pour moi les résultats de la division Windows est aussi très surprenante. Je ne connaissais pas les chiffres des ventes sur tablettes, mais après avoir longtemps entendu que Windows 8 faisait un bide sur PC…
Le GS4 a pas de Mali, et il met pourtant une violente rouste à tout le monde sur Antutu et Quadrant…
C’est vrai, mais dans mon 2ème message je ne parlais pas du GS4 " />
Et Antutu et Quadrant, le GPU n’a pas beaucoup d’influence, pour Quadrant il n’en a même plus aucune depuis pas mal de temps.
Le
03/04/2013 à
14h
39
Zantetsuken a écrit :
Moi j’ai quand même l’impression que les SoC Exynos se font fumer par cette première mouture de 3DMark… Ils sont tous en fort retrait comparé à leur équivalent chez la concurrence…
Ca c’est je pense dû à la faiblesse des GPU ARM, les Mali, et particulièrement le Mali 400 MP4, sont vraiment à la traîne côté traitement géométrique, et dans les tests comme 3DMark, Egypt HD, leurs unités de traitement de pixels se tournent les pouces plus qu’autre chose…
Le
03/04/2013 à
14h
35
3DMark semble aussi plutôt bien apprécier les Adreno (cf Anandtech). Y a plusieurs hypothèses, Futuremark a une bonne expérience avec entre autres les Radeon dont les Adreno en sont un lointain parent (mais ça me semble quand même capilotracté), et le fait que les pilotes ne soient encore pas matures.
Y a pas des chiffres avec le dernier GLBenchmark ?
Et les fréquences de l’Exynos sont officielles ou supposées ? Parmis tout ce que j’ai lu, les A15 peuvent même être limités à 1.2 GHz et les A7 à 1.6 GHz, ce qui me semble bien plus réaliste pour faire rentrer 4 A15 dans un téléphone…
Ce que j’aime surtout chez MSI, et qui se voit pas forcément, c’est qu’ils proposent généralement un bon niveau de fonctionnalité, ne font pas dans la surenchère (pas de branlette sur le nombre de phases, des puces additionnelles que si c’est vraiment nécessaire, …), et proposent des cartes très efficaces notament du côté consomation énergétique pour un prix légèrement inférieur aux concurrentes.
J’attends de voir celles-ci comment elles se situent à ce niveau là.
Mine de rien on se rapproche au fur et à mesure des processeurs décrits par Werber dans “Les fourmis” : un “gros” qui trie les informations et les sous-traite à de plus petits, spécialisés dans certaines taches et consommant moins.
Et ça paraît pas plus mal !
Mmmh… le Cell d’IBM ? " />
Le
22/02/2013 à
15h
12
ldesnogu a écrit :
Alors juste parce que les mouches et moi c’est une longue histoire d’amour : A7 et A15 ont exactement la meme architecture ARM (ARMv7A + LPAE + virtualisation + VFPv4), mais pas la meme micro-architecture :)
Merci pour la précision " />
Alucard63 a écrit :
Si je ne m’abuse ils peuvent aussi fonctionner en même temps si besoin avec l’architecture big.LITTLE…par contre je donne pas cher de la batterie d’un smartphone dans ce cas de figure." />
J’ai vu aussi que les 8 coeurs pouvaient fonctionner en même temps. En pratique, là où je suis sceptique, c’est surtout de voir 4 coeurs A15 tourner à fond en même temps, ce sont de vrais gouffres à énergie (cf les courbes perf/conso). Les 4 coeurs peuvent monter à pas loin de 6 W, ce qui est vraiment énorme pour un téléphone. D’ailleurs, la conso des coeurs A7 est presque négligeable à côté, si ça passe pour 4 coeurs A15, ça passera pour 4 coeurs A15 + 4 coeurs A7…
Le
22/02/2013 à
13h
01
BrainZERO a écrit :
Pour info, le switch de processeur est immédiat car les deux processeurs partagent les mêmes registres, caches, pipelines etc (la mention d’architectures ARM identiques est essentielle au concept de partage dans ce cas). Il est alors possible de partager tout ce qui fait un contexte d’exécution pour un processeur et, selon le besoin, faire en sorte que ce soit l’un ou l’autre qui fasse le boulot. Bef, vous pouvez voir cela comme une virtualisation du processeur ce qui permet de passer de l’un à l’autre de façon transparente.
Euh… non, c’est pas vraiment possible ça. Il n’y a pas de partage de ressources comme les modules d’un AMD FX le font par exemple, les A7 et les A15 sont bel et bien disctincts. Ils n’ont d’ailleurs pas la même architecture (sinon comment expliquer les différences de taille, de perf, de consommation, …), mais implémentent le même jeu d’instructions (donc mêmes batteries de registres, …), et c’est vraiment ça qui facilite la transition de l’un vers l’autre. On peut faire exactement la même chose avec un A7 et un A15, après chaque coeur s’y prend différemment.
Le double buffering n’a aucun lien avec un quelconque drop de framerate. Il sert uniquement a eviter le clignotement de l’image, il y a bien longtemps qu’absolument tout utilise du double buffering (sauf ces rétrogrades de windows, et encore pas partout).
Le phénomène que tu décris la est du a la synchronisation verticale (vblank) qui elle force l’application a attendre que l’ecran soit pret a afficher une image, et qui fait que si le moteur de rendu va moins vite que l’ecran, on peut “perdre du temps” a attendre de pouvoir afficher son image.
Il est cependant surprenant que la vblank soit active pour application de “bench”.
Je voulais dire que l’application aurait dû utiliser le triple buffering, car effectivement le problème est que la synchro verticale est forcément active sur les téléphones.
Mais c’est vrai que la meilleure solution pour un benchmark est de faire un test offscreen…
Le
01/02/2013 à
09h
03
Après avoir joué aussi un peu avec, l’application a aussi un comportement bizarre chez moi (Galaxy SII). Le meilleur score est atteint avec la plus haute qualité, et il semblerait qu’en plus de la limite à 60 fps (qui est normale car tous les téléphones bloquent là), l’application utilise un classique double buffering qui fait que le téléphone tombe souvent à 30 fps s’il ne tient pas les 60, puis à 20, etc. Ca explique vos résultats mais je trouve que c’est un peu limite pour un benchmark.
Je vois pas comment ils peuvent faire des comparaisons entre plusieurs plate forme alors que se sont des technologie différentes utilisées pour chacune d’entre elles (opengl, direct x)
OpenGL et DirectX ne sont que deux moyens pas très différents de faire la même chose. Par contre ce que tu dis est vrai mais dans le sens où l’architecture des “gros” GPU desktop est bien plus complexe que celle des GPU de téléphones. En gros un GPU desktop sera efficace pour traiter une grande variété de cas complexes, mais pour des rendus tous simples ils ne sont pas adaptés. Ça découle du fait que les GPU modernes ont évolué pour traiter des pixels plus complexes, et pas plus de pixels (“more pixels vs better pixels”).
Du coup pour comparer directement les deux c’est pas très représentatif car les GPU desktop seront largement sous exploités…
Il faudra néanmoins qu’Intel travaille avec ses partenaires pour que la présence d’un SoC x86 ne soit pas pour les utilisateurs un indicateur d’un modèle qui aura systématiquement plusieurs versions de retard au niveau du système d’exploitation…
Là dessus ils ne sont pas trop désavantagés encore, ils me semblent qu’ils sont vraiment en retard que par rapport aux Nexus, ils sont en avance même sur beaucoup d’autres…
Je croyais que le Gk 104 était le moyen de gamme déjà.
J’ai pas dit le contraire " />. Le GK104 était le GPU milieu de gamme mais il a du faire le haut de gamme par intérim. Du coup je ne pense pas qu’il y aura un nouveau GPU milieu de gamme car c’était pas prévu… On n’aura droit qu’à des versions castrées du GK104.
Il y aura peut-être un GPU plus petit mais ça sera celui prévu pour le segment “mainstream”, et ça devrait plutôt être un demi GK104. Soit ça, soit un renommage des cartes d’ancienne génération…
Je dis ça mais c’est peut-être que des conneries " />
Le
21/08/2012 à
17h
00
Pourquoi pas un GK104 ? Les specs sont très très proches de la 660 Ti " />.
Et nVidia n’a pas vraiment de GPU moyen de gamme, ils s’en sont servi pour faire autre chose…
35 commentaires
Retour de 3DFX : le compte Twitter « officiel » supprimé
06/08/2021
Le 03/08/2021 à 13h 18
Nexgen et son Nx586 ?
Donc “à la bonne époque” on n’avait jamais de bonnes conditions alors, cqfd.
Le 02/08/2021 à 18h 44
Je ne comprends pas cet argument. Je montre qu’aujourd’hui on peut profiter des jeux récents dans de relativement bonnes conditions (720p à 30 fps) avec du matériel qui 5 ans auparavant était déjà modeste. Une GTX 960 c’est équivalent à une GTX 680 de 2012, 8 ans avant CP77.
En 96 avec Quake sur Voodoo, le top de l’époque, ça tournait dans des conditions moins bonnes que ça, et au bout de 5 ans la carte avait déjà depuis longtemps rendu les armes.
Le 02/08/2021 à 07h 29
Oui, mais les logiciels/jeux aussi. Quelque part on pourrait se dire que ça évolue à la même vitesse. Si par exemple Quake 1 tournat en 512x384 pour atteindre 30 fps sur une Voodoo 1, on aurait pu imaginer que Cyberpunk 2077 ne tourne pas mieux sur une RTX en 2020.
Pour moi ça montre qu’à l’époque, acheter du matériel à la pointe permettait de jouer aux jeux dans des conditions tout juste bonnes. Et ça évoluait tellement vite que ton matériel était très rapidement périmé. Aujourd’hui c’est beaucoup plus facile de jouer aux jeux récents dans d’excellentes conditions, et de pouvoir le faire beaucoup plus longtemps qu’avant.
J’ai encore une GTX 960 2 Go que j’ai acheté il y a 6 ans. Je joue à CP77 et Control avec sur mon PC d’appoint, 720p en low à 30 fps, c’est tout à fait jouable. À l’époque il fallait nettement moins de temps pour devoir supporter du 320x200 à 5~10 fps, quand ça se lançait.
Le 01/08/2021 à 16h 59
@skankhunt42, faut tenir compte des circonstances exceptionnelles actuelles. Remonte juste quelques années en arrière, pour 200€ tu avais une carte moyen de gamme qui tenait tout à fait la route, pour viser du 1080p à 60 fps, pas du 512x384 à 30 fps comme à l’époque ;).
Processeurs Core de 10e génération (Comet Lake-S) : Intel grimpe à 5,3 GHz… mais baisse ses prix
29/04/2020
Le 29/04/2020 à 09h 54
Leur TDP est très différent, et c’est ça qui conditionne quelle fréquence ils vont pouvoir atteindre en pratique.
Crytek annonce Crysis Remastered, avec le ray tracing agnostique de son CryEngine
17/04/2020
Le 20/04/2020 à 07h 25
Rien que côté technique il y a énormément à gagner tellement l’original exploite mal le matériel moderne. Du coup je m’attends à ce que le remaster tourne mieux que l’original sur une machine récente, tout en étant plus beau.
NVIDIA officialise sa GeForce GTX 1650 à base de GDDR6
06/04/2020
Le 06/04/2020 à 08h 17
Je pense que c’est pour que deux produits qui ont le même nom aient les mêmes performances (ou à peu près). Mais rajouter GDDR6 dans le nom de la carte et profiter des perfs en plus ça me parait être une meilleure idée à moi aussi…
Microsoft corrige une faille critique affectant l’ensemble des Windows
21/07/2015
Le 21/07/2015 à 07h 15
Windows XP a droit à une mise à jour ? " />
Revue de presse : Batman Arkham Knight à l’École des Fans
22/06/2015
Le 22/06/2015 à 14h 26
Pour moi l’ordre d’intérêt correspond parfaitement à l’ordre chronologiques des jeux. Sur ce point Origin est effectivement moins intéressant que Asylum " />. Et pour City j’ai été épaté, c’est bien la première fois qu’un jeu m’a donné autant de motivation, et ce du début jusqu’à la fin (fin énormissime d’ailleurs !). D’après les critiques le Arkham Knight est encore mieux que les autres, je ne vois pas comment c’est possible…
NVIDIA dévoile son SoC Tegra X1 : 256 cœurs Maxwell, HDMI 2.0, 10 watts et 20 nm
05/01/2015
Le 05/01/2015 à 09h 07
Remarque, on l’attendait aussi le Maxwell dans les Tegra. Par contre je m’attendais à ce que ça leur permette de faire un GPU puissant mais avec une consommation raisonnable pour une tablette voire un smartphone, mais là, 10 Watts ??? Ils ont pas visé un peu trop haut ?
Bethesda publie un premier teaser pour DOOM
10/06/2014
Le 11/06/2014 à 07h 25
Ils veulent mettre un scénario ?
Dans DOOM ? " />
Opera 22 inaugure ses mises à jour silencieuses sous Windows
04/06/2014
Le 04/06/2014 à 16h 13
Ubisoft : l’optimisation des jeux sur PC profite également aux consoles
25/11/2013
Le 25/11/2013 à 15h 20
Si le concept de l’ubiquité a donné son nom à l’éditeur, il est également parfois présent dans sa communication.
Moi je croyais que UBI c’était Union des Bretions Indépendants " />
Revue de Presse : Batman répond au bat-signal dans Arkham Origins
25/10/2013
Le 25/10/2013 à 11h 48
Bah, si la partie solo est à la hauteur du précédent, il n’en faut pas plus pour me convaincre " />
Betrayer : un FPS à l’époque coloniale créé par d’ex-développeurs de FEAR
06/08/2013
Le 06/08/2013 à 13h 30
Conçu sur l’Unreal Engine 3 d’id Software…
Uh… Canicule ? " />
AMD FX à 5 GHz, Gigabyte semble confirmer
06/06/2013
Le 06/06/2013 à 09h 22
Bah, en overclockant par nous même on peut bien arriver à 300 W de consommation pour le CPU, là au moins c’est garanti. Et qui achètera ça le fera en connaissance de cause.
Et si c’est juste pour qu’AMD puisse dire qu’ils ont un CPU qui se bat contre les meilleurs CPU haut de gamme d’Intel, ça peut valoir le coup…
Rumeurs : la montre intelligente d’Apple armée d’un écran OLED de 1,5″
22/05/2013
Le 22/05/2013 à 07h 55
Pour moi l’OLED serait obligatoire pour une montre. Si elle doit afficher l’heure en permanence, la grande majorité de l’écran peut être éteint, contrairement à un LCD.
Smartphones et tablettes, les usages des lecteurs de PC INpact
15/05/2013
Le 15/05/2013 à 16h 19
Si seule la version mobile de PCI est comptabilisée, je trouve normal le graphique des résolutions. Quand on a du HD on peut très bien prendre la version “desktop” des sites, j’ai pas hésité à changer mon user agent perso…
Galaxy S4 : Exynos 5 Octa ou Snapdragon 600, quel est le meilleur ?
30/04/2013
Le 30/04/2013 à 15h 56
Je pense quand même que dans les scénarios de charge lourde (suffisant pour que les Cortex A15 passent à l’action), le Snapdragon doit dépenser moins d’énergie. Ca bouffe pas mal un A15, mais j’attends de savoir comment ils se situent par rapport aux Snapdragon.
Microsoft affiche d’excellents résultats, dopés par Windows 8 et Office
19/04/2013
Le 19/04/2013 à 13h 00
Pour moi les résultats de la division Windows est aussi très surprenante. Je ne connaissais pas les chiffres des ventes sur tablettes, mais après avoir longtemps entendu que Windows 8 faisait un bide sur PC…
3DMark pour Android : quels scores pour les deux versions du Galaxy S4
03/04/2013
Le 03/04/2013 à 14h 51
Le 03/04/2013 à 14h 39
Le 03/04/2013 à 14h 35
3DMark semble aussi plutôt bien apprécier les Adreno (cf Anandtech). Y a plusieurs hypothèses, Futuremark a une bonne expérience avec entre autres les Radeon dont les Adreno en sont un lointain parent (mais ça me semble quand même capilotracté), et le fait que les pilotes ne soient encore pas matures.
Y a pas des chiffres avec le dernier GLBenchmark ?
Et les fréquences de l’Exynos sont officielles ou supposées ? Parmis tout ce que j’ai lu, les A15 peuvent même être limités à 1.2 GHz et les A7 à 1.6 GHz, ce qui me semble bien plus réaliste pour faire rentrer 4 A15 dans un téléphone…
MSI dévoile quatre cartes mères au socket LGA 1155 pour les joueurs
03/04/2013
Le 03/04/2013 à 11h 40
Ce que j’aime surtout chez MSI, et qui se voit pas forcément, c’est qu’ils proposent généralement un bon niveau de fonctionnalité, ne font pas dans la surenchère (pas de branlette sur le nombre de phases, des puces additionnelles que si c’est vraiment nécessaire, …), et proposent des cartes très efficaces notament du côté consomation énergétique pour un prix légèrement inférieur aux concurrentes.
J’attends de voir celles-ci comment elles se situent à ce niveau là.
Exynos 5 Octa : Samsung dévoile des détails du SoC de son futur Galaxy SIV
22/02/2013
Le 22/02/2013 à 15h 22
Le 22/02/2013 à 15h 12
Le 22/02/2013 à 13h 01
Epic Citadel sous Android : smartphones et tablettes, qui est le meilleur ?
01/02/2013
Le 01/02/2013 à 11h 25
Le 01/02/2013 à 09h 03
Après avoir joué aussi un peu avec, l’application a aussi un comportement bizarre chez moi (Galaxy SII). Le meilleur score est atteint avec la plus haute qualité, et il semblerait qu’en plus de la limite à 60 fps (qui est normale car tous les téléphones bloquent là), l’application utilise un classique double buffering qui fait que le téléphone tombe souvent à 30 fps s’il ne tient pas les 60, puis à 20, etc. Ca explique vos résultats mais je trouve que c’est un peu limite pour un benchmark.
À part ça c’est quand même une belle démo :-)
3DMark pour Android, iOS et Windows RT / 8 : c’est imminent
14/11/2012
Le 14/11/2012 à 18h 10
Bouygues Télécom réclame des milliards d’euros à une ex-abonnée
10/10/2012
Le 10/10/2012 à 12h 07
“La prince, elle dit, Bouygues Télécom, c’est pas cher.”
Les Guignols de l’Info
Intel publie l’image d’Android 4.1.1 (Jelly Bean) pour x86
10/09/2012
Le 11/09/2012 à 06h 12
Il faudra néanmoins qu’Intel travaille avec ses partenaires pour que la présence d’un SoC x86 ne soit pas pour les utilisateurs un indicateur d’un modèle qui aura systématiquement plusieurs versions de retard au niveau du système d’exploitation…
Là dessus ils ne sont pas trop désavantagés encore, ils me semblent qu’ils sont vraiment en retard que par rapport aux Nexus, ils sont en avance même sur beaucoup d’autres…
GeForce GTX 660 : une puce GK106 dotée de 960 CUDA Cores selon MSI
31/08/2012
Le 31/08/2012 à 19h 43
Je ne sais pas qui c’est qui disait que ça ne serait pas une nouvelle puce, mais c’était bien des conneries " />
NVIDIA dévoile une GeForce GTX 660 avec 1152 CUDA Cores
21/08/2012
Le 21/08/2012 à 19h 10
Le 21/08/2012 à 17h 00
Pourquoi pas un GK104 ? Les specs sont très très proches de la 660 Ti " />.
Et nVidia n’a pas vraiment de GPU moyen de gamme, ils s’en sont servi pour faire autre chose…