Carte graphique AMD GeForce

Cartes graphiques : 30 ans d’évolution des GPU

Ha… la bonne époque d’un CF de 4870 X2 !

Avatar de l'auteur
Sébastien Gavois

Publié dans

Hardware

08/12/2023
32

Carte graphique AMD GeForce

AMD et NVIDIA se partagent aujourd’hui la part du lion dans le marché des cartes graphiques dédiées. Il n’en a pas toujours été ainsi : d’autres acteurs importants existaient dans les années 80, 90 et début 2000, avant une forte concentration du secteur. Détour par le passé avant de retracer 30 ans d’évolution des GPU, avec une explosion du nombre de transistors.

On remonte le temps à une époque où la 3D n’existait pas et les ordinateurs s’utilisaient en ligne de commande ; on est bien avant le premier Windows, dans les années 70 et début 80. Contrairement à AMD et Intel, NVIDIA n’existait même pas : la société a été fondée en 1993 (elle a le même CEO depuis 30 ans : Jensen Huang).

L’affichage n’était donc que 2D, avec des cartes au doux nom de CGA (Color Graphics Adapter), EGA (Enhanced Graphics Adapter) et VGA (Video Graphics Array). On est toujours dans les années 80. Au début des années 90, les premières cartes 3D débarquent, puis des cartes prenant en charge la 2D et la 3D, permettant ainsi de n’occuper qu’un seul emplacement sur la carte mère.

Diamond, Matrox, S3… morts sur-le-champ de bataille

Dans les années 90 et 2000, il existait pléthore de fabricants de cartes. Nous pouvons par exemple citer Matrox. La société s’était forgée une solide réputation dans le monde de la 2D, notamment avec sa Millenium. Elle s’est par la suite lancée dans la 3D, mais sans rencontrer le même succès et a fini par jeter l’éponge.

Il y a eu la Mystique en 1996 (suivi de la Mystique 220 en 1997) qui avait des atouts, mais qui n’a pas résisté à la déferlante 3dfx. Le constructeur a continué sur sa lancée à la fin des années 90 avec des déclinaisons G200, G400, G550, etc. de sa Millenium, sans convaincre. S’il a depuis quitté le marché des cartes 3D pour joueurs, Matrox propose toujours des produits pour les professionnels.

À la même période, STMicroelectronics et Videologic/Imagination étaient aussi présents dans le monde de la 3D avec leurs GPU PowerVR, Kyro et Kyro II. La 3D Prophet 4500 de chez Hercules (testée à l’époque par Hardware.fr) exploitait le Kyro II par exemple. Signalons aussi S3 Graphics avec ses Trio, ViRGE et Savage, Diamond avec ses Viper et Monster, etc. Des noms avec probablement un arrière-gout d’outre-tombe pour certains.

Les Voodoo de 3dfx ont marqué leur époque

Un autre fabricant qui avait défrayé la chronique au milieu des années 90 était 3dfx. À l’époque des cartes 3D « Rage » d’ATI et autre « Riva » de NVIDIA, il proposait ses Voodoo 1 et 2. Ces cartes PCI (pas encore Express) ne faisaient que de la 3D et devaient donc être utilisées en complément d’une carte 2D.

Un câble VGA se chargeait d’établir un pont entre la carte graphique 2D vers la Voodoo. On branchait ensuite son écran sur la Voodoo, qui ajoutait le rendu 3D au signal 2D par une simple superposition. Par la suite, 3dfx a proposé la Voodoo Banshee, qui prenait en charge à la fois avec la 2D et 3D. Aujourd’hui, toutes les cartes 3D gèrent également la 2D. Les Voodoo ont connu un rapide succès et une descente presque aussi rapide.

L’autre avantage des Voodoo était la possibilité de fonctionner en SLI (Scan Line Interleave). Oui, il s’agit bien de la technique utilisée ensuite par NVIDIA pour faire fonctionner de concert plusieurs cartes, sauf que SLI signifiait alors Scalable Link Interface.

Le fabricant jouait aussi les apprentis sorciers en multipliant les GPU comme des petits pains pour tenter de séduire les joueurs : deux sur la Voodoo 5 5500 et jusqu’à quatre sur la Voodoo 5 6000… avec des consommations électriques qui défrayaient la chronique à l’époque.

Fin du game : NVIDIA rachète 3dfx, AMD se paye ATI

Mais ce n’était plus suffisant pour lutter contre les cartes des concurrents de l’époque qu’étaient ATI et NVIDIA. En décembre 2000, NVIDIA se paye finalement 3dfx pour 120 millions de dollars. Quoi qu’il en soit, 3dfx a largement marqué la fin des années 90.

À partir de là, les GeForce et Radeon se sont livrées une guerre sans merci. Les Rage et Radeon étaient tout d’abord des marques ATI, mais cette dernière a ensuite été rachetée par AMD en 2006, pour 5,4 milliards de dollars. La marque ATI n’a pas été conservée, mais la dénomination Radeon oui.

Presque 25 ans plus tard, cette guerre continue de plus belle avec les GeForce RTX 40 chez NVIDIA et les Radeon RX 7000 chez AMD. Pour le moment, aucun autre challenger n’a réussi à se hisser au niveau. Intel s’est bien relancé sur ce marché avec ses cartes graphiques Arc, mais sans s’approcher d’AMD et de NVIDIA sur le haut de gamme.

La folle évolution de la densité des transistors 

Avant d’entrer dans le détail de 30 ans d’évolution des cartes AMD et NVIDIA, il est important de préciser un point : nous ne parlons pas des performances dans le cas présent, mais uniquement de l’évolution du nombre de transistors, de la densité par mm² et de la finesse de gravure.
Comme les disques durs et les processeurs, les GPU ont connu une évolution très rapide au fil des années.


Signalons qu’AMD est à la peine depuis des années sur le très haut de gamme, laissant le champ quasiment libre à NVIDIA avec ses GeForce GTX et autres Titan. Sur la dernière génération par exemple, la Radeon RX 7900 XTX joue plutôt dans la cour de la GeForce RTX 4080 que dans celle de la RTX 4090.

Depuis des années, le Texan fait office de challenger et mise principalement sur le rapport performances/prix pour se démarquer. Conséquence directe : des baisses régulières sur les cartes dans les moyen et haut de gamme, là où le caméléon parvient généralement à maintenir le cap jusqu’au lancement d’une nouvelle génération. Dans la majorité des cas, NVIDIA a aussi l’avantage d’avoir une consommation inférieure à performances équivalentes.

Début de la guerre dans le milieu des années 90

Pour en revenir à nos moutons, la course à la 3D a réellement commencé à la fin des années 90 avec la série 3D Rage pour ATI, face aux Riva TNT et GeForce 256 pour NVIDIA. Rouge contre vert, la guerre venait de débuter.

Il n’est pas forcément évident de retrouver la superficie d’un die GPU et le nombre de transistors qu’il contient. En effet, les deux fabricants ne proposent pas d’outils ou de sites dédiés permettant de parcourir l’ensemble des caractéristiques techniques des cartes graphiques depuis les années 90 jusqu’à aujourd’hui. Nous avons donc joué les archéologues dans les actualités des dernières décennies, avec l’aide de la GPU Database de TechPowerUp.

GeForce2 vs Radeon 7200 en 2000

En 2000, les deux concurrents sont au coude à coude. NVIDIA lance sa GeForce2 (GTS, Ti, Pro, Ultra) avec 25 millions de transistors gravés en 150 nm sur un die de 81 mm², soit une densité de 0,3 million de transistors par mm².

ATI (AMD) proposait alors sa Radeon 7200 avec 30 millions de transistors sur un die plus gros de 115 mm² en 180 nm, soit une densité de 0,26 million par mm.

Pour comparaison, à cette même époque, Intel dépassait les 40 millions de transistors sur son Pentium IV en 180 nm, mais avec un die de 217 mm², soit une densité plus faible de 0,18 million de transistors par mm².

Chaque constructeur avance ensuite avec une constante chez les verts et les rouges : la superficie du die augmente avec toujours plus de transistors à l’intérieur. La finesse de gravure augmente elle aussi.

Plus d’un million de transistors par mm² en 2005

En 2005, NVIDIA lance sa GeForce 7800 GT(X), avec 302 millions de transistors gravés en 110 nm, pour une densité s’approchant du million de transistors par mm² (le die mesure 333 mm²). Ce cap sera allégrement dépassé par les GeForce 8800 GTX avec 681 millions de transistors pour un die de 484 mm².

En 2005 également, AMD présentait pour sa part la Radeon X1800 XT/XL avec 321 millions de transistors et une gravure en 90 nm. La superficie du die est de 288 mm², la densité dépasse donc de peu le million de transistors par mm².

Pour comparaison, Intel lançait de son côté les Core 2 Duo et Xeon de la génération Conroe, qui pouvaient contenir jusqu’à 291 millions de transistors et une finesse de 65 nm, mais avec une densité bien plus élevée de 2 millions de transistors par mm².

Les cartes bi-GPU « GX2 » et « X2 »

Dans les années 2000, les deux concurrents ont relancé des cartes graphiques avec deux GPU, un moyen « simple » de doubler les performances, du moins en théorie. Dans la pratique, c’était plus compliqué et les gains n’étaient pas toujours à la hauteur de la hausse de tarif.

NVIDIA a ainsi commercialisé ses premières cartes « Dual » ou « GX2 » avec deux GPU sur un même PCB, dans la lignée des dernières Voodoo. ATI/AMD n’était pas en reste. Il avait, lui aussi, ouvert les hostilités avant l’an 2000 avec sa Rage Fury Maxx intégrant deux GPU. Dans la seconde moitié de 2000, le constructeur a également relancé des cartes bi-GPU avec ses Radeon HD « X2 ».

Ce n’était par contre pas aussi simple qu’on pouvait le penser, comme l’expliquait notre collègue Damien Triolet dans le test de la Radeon HD 4870 X2 : « en pratique, de nombreux obstacles se posent : le routage PCI Express vers chaque GPU, le traçage de 2 bus mémoire distincts, la consommation élevée qui entraîne un étage d’alimentation conséquent ainsi qu’un système de refroidissement adapté ».

Certaines cartes mères proposaient aussi du SLI 3-way et 4-way, avec donc trois ou quatre cartes graphiques sur la même carte mère. On retrouvait la même chose chez AMD sous le nom de CrossFire. Il y a aussi eu des modes de fonctionnement hybride : l’iGPU (GPU intégré à la carte mère ou ou CPU) est utilisé pour la 2D, la carte graphique pour la 3D. But de l’opération : réduire la consommation en 2D en coupant la carte graphique.

Il était même possible d’installer deux GeForce GX2 ou deux Radeon X2 sur une même carte pour les faire fonctionner en SLI ou en CrossFire respectivement, avec donc quatre GPU. Depuis, les fabricants ont calmé leurs ardeurs dans ce domaine.

40 nm et plus de 3 milliards de transistors en 2010

Ni l’un ni l’autre ne parvient réellement à se démarquer en 2010 : les GeForce GTX 480/580 disposent certes d’un peu plus de transistors que la Radeon HD 6970 (3 milliards contre 2,6 milliards), mais rien d’alarmant pour autant, d’autant que les deux cartes sont en 40 nm.

Cependant, AMD dépassait largement NVIDIA sur la densité avec 6,8 millions de transistors par mm² contre 5,8 millions pour son concurrent. Cette fois, on retrouvait les Core de seconde génération chez Intel, avec « seulement » 1,16 milliard de transistors, mais une finesse de gravure plus grande de 32 nm.

NVIDIA et AMD passent tous deux au 28 nm en 2012 avec les GTX 680 et Radeon HD7970. Le 16 nm est ensuite arrivé en 2016 chez le caméléon avec la Titan X (architecture Pascal) et la GTX 1080. La densité grimpe entre 23 et 25 millions de transistors par mm².

La même année, AMD saute directement au 14 nm avec ses Radeon RX480, RX580 puis les Vega, pour une densité de près de 25 millions de transistors par mm².

80 milliards de transistors, la densité dépasse les 100 millions par mm²

2018 était synonyme de 12 nm pour les cartes graphiques grand public des deux ennemis. AMD a ensuite pris les devants en étant le premier à passer sur le 7 nm avec ses Instinct MI50/60 en 2018, suivis par les Radeon VII et RX 5700 (XT) en 2019. La densité explose puisqu’elle passe à 40 et 41 millions de transistors par mm².

NVIDIA dépasse par contre toujours son concurrent sur le plus grand nombre de transistors au sein d’une même puce : plus de 21 milliards sur les Tesla V et V100 avec un die de 815 mm², excusez du peu. Les GeForce RTX et Titan RTX sont en seconde position avec 18,6 milliards de transistors pour une densité de 25 millions de transistors par mm².

Avec sa GeForce RTX 4090, NVIDIA grimpe à 76 milliards de transistors dans 609 mm² seulement, soit une densité de 125 millions de transistors par mm². AMD est en retrait avec 58 milliards de transistors dans 529 mm², soit une densité d’un peu moins de 110 millions de transistors par mm². On est bien loin des 0,1 à 0,3 million de transistors par mm² en 2000.

La valse des renommages

Un dernier point sur ce qui a été pendant un temps un sport national : le renommage. Les GPU de certaines générations sont quasiment identiques. Les GeForce GTX 480/580 chez NVIDIA, les Radeon R9 290X et 390X, ainsi que les RX 480 et RX 580 sont de parfaits exemples : nombre de transistors, taille du die et finesse de gravure sont quasiment identiques. Il y a eu certes des améliorations, mais on ne peut pas non plus parler de générations différentes.

Pire, à défaut d’avoir de nouvelles cartes à présenter, AMD est même allée jusqu’à lancer des Radeon HD 8000 dédiées à ses partenaires (OEM) alors qu’il ne s’agissait que de Radeon HD 7000 renommées. Heureusement, AMD et NVIDIA semblent s’être calmés depuis.

32

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Diamond, Matrox, S3… morts sur-le-champ de bataille

Les Voodoo de 3dfx ont marqué leur époque

Fin du game : NVIDIA rachète 3dfx, AMD se paye ATI

La folle évolution de la densité des transistors 

Début de la guerre dans le milieu des années 90

GeForce2 vs Radeon 7200 en 2000

Plus d’un million de transistors par mm² en 2005

Les cartes bi-GPU « GX2 » et « X2 »

40 nm et plus de 3 milliards de transistors en 2010

80 milliards de transistors, la densité dépasse les 100 millions par mm²

La valse des renommages

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Commentaires (32)


Winderly Abonné
Le 08/12/2023 à 18h 46
"un sport national"
J'ignorais que ce sport a été réservé à la France. :transpi:

Plus sérieusement, cet article est super.
Uther Abonné
Le 09/12/2023 à 07h 51
Plutôt un sport étasunien. Il n'y a malheureusement pas des masses de fabricants de GPU français.
Le 08/12/2023 à 19h 00
Souvenir ému de ma Matrox Mystique 4Mo, plus tard accompagnée d'une Matrox M3D (qui mis à part dans POD n'a jamais servi à grand chose).

Merci pour l'article.
DikVin Abonné
Le 08/12/2023 à 19h 33
Matrox, ma première millenium m'a vraiment marqué, j'ai autant été surpris d'en retrouver une variante 20 ans plus tard dans un serveur HP bi proc 😅
Sinon 3dFX plus que la carte c'est le changement radical que ça apporté dans les jeux tant en beauté, immersion et jouabilité !

Souvenir souvenir.
DikVin Abonné
Le 08/12/2023 à 19h 33
Doublon ...
Modifié le 08/12/2023 à 19h34
Le 08/12/2023 à 19h 56
Même pas un petit mot sur 3D Labs :(

Si on parle des GPU, il faudrait tout de même parler d'un des vrais pionniers qui fut le premier à offrir le support OpenGL sur pc et a grandement influencé l'évolution de ce standard. Si on parle de 30 ans d'évolution, il faut citer 3D labs, c'est autrement plus important que Matrox.
Modifié le 08/12/2023 à 20h00
Le 10/12/2023 à 13h 20
Il y avait tellement de marques, mais je vais voir pour ajouter un mot sur la Permedia :love:
Le 10/12/2023 à 16h 56

Sébastien Gavois

Il y avait tellement de marques, mais je vais voir pour ajouter un mot sur la Permedia :love:
C'est surtout le côté Delta Engine de 3Dlabs qui a de l'intérêt, car c'est un des premiers GPU en vente. Un autrte vrai GPU de l'époque, c'est le jeu de puces Mitsubishi/Evans & Sutherland 3DPro/2mp, qu'on retrouve dans des cartes qui étaient complètement inabordables.

Le premier GPU grand public reste le GeForce 256.
Modifié le 10/12/2023 à 16h58
FraGG Abonné
Le 08/12/2023 à 20h 20
Sacré article mais personnellement ces chiffres ne me parlent pas plus que ça, je pense que je chercherait une vidéo ou des images qui montrent ce que cela représente pour mieux me rendre compte de la densité et de la finesse de gravure.

Si non je ne me rappelle plus de ma 1ère carte VGA, mieux de mes 3DFx et de l'AGP :D
Goupil74 Abonné
Le 08/12/2023 à 20h 21
J'aurais dû dû garder ma 3dfx Voodoo 3 3000 16MB en souvenir en exposition...
ceric64 Abonné
Le 08/12/2023 à 20h 36
La folle avancée technologique des gravures des wafers graphiques et bien sur les dépenses qui vont avec.
J'ai commencé avec du ATI en 2005 et je suis en nVidia en 2023.
Car question software ATI en 2005 ce n'était vraiment pas ça. Je ne sais pas si en 2023 les soft made in AMD sont mieux élaborés mais maintenant que je suis chez le caméléon c'est autre chose.
Jurassi Abonné
Le 08/12/2023 à 20h 55
interview Carmack 1999 Joystick n°106 Page 148 https://www.abandonware-magazines.org/affiche_mag.php?mag=30&num=679&album=oui
labdam Abonné
Le 08/12/2023 à 21h 12
J'ai commencé avec une ATI rage pro All In Wonder 4 Mo upgradée à 8 Mo... Avec une Voodoo 2 pour pouvoir jouer. Mais la vraie première claque visuelle vient de la GeForce 256. Rah les premières démos du Transform & Ligtning... Que d'émotions a l'époque.

Merci Seb de faire encore passer certains lecteurs pour des vieux c*
dedalum Abonné
Le 13/12/2023 à 13h 39
AiW 128 Pro avec acquisition vidéo :)
Et avant Orchid! (https://en.wikipedia.org/wiki/Orchid_Graphics_Adapter)
Oulala...
alex.d. Abonné
Le 09/12/2023 à 00h 41
Belle rétrospective, mais quelques imprécisions sur l'ancien temps.
La carte VGA ne date pas de l'époque de la ligne de commande. Elle a fait tourner essentiellement des Windows 3. Petit souvenir ému de ma Tseng Labs ET4000, ça c'était une bonne carte graphique !
La 3Dfx est arrivée quelques années avant les ATI 3D Rage et autres Riva TNT.
Je suis aussi surpris de voir que ça ne parle que de PCI, mais pas un mot sur VLB ni sur l'AGP.
Le 09/12/2023 à 01h 37
Le VGA (1987) prédate windows 3 (1990)... Donc bien de l'époque de la ligne de commande. Le SuperVGA (1988) aussi prédate Windows .

Cet article a un gros problème car il parle de GPU, mais fait référence à de nombreuses cartes ne faisant pas une accélération des traitement géométriques.

De fait, les cartes accélératrices de première génération comme la Voodoo1, la Virge, les ATI mach, RIVA, TNT et autres sont toutes disqualifiées pour le titre de GPU car elles ne font pas de TCL (transform clipping and lighting) et laissent tout ce travail au CPU.

Les premières cartes accélératrices pour PC pouvant être qualifiées de GPU sortirent en 1995, et étaient équipées de la puce dédiée "Delta" (Geometry Processing Unit) de 3D labs, qui secondait l'accélérateur (Glint, puis plus tard Permedia) de rendu et faisait que la carte graphique pouvait enfin alléger la charge du CPU en finalisant le TCL slope/setup et les conversions FP. En 1997, 3Dlabs présente ses jeux de puces glint DMX et GMX incorporant respectivement les unités GPU delta et son successeur Gamma...

Il fallu encore attendre 2 ans pour que NVIDIA sorte son GPU complètement intégré: le geforce 256 qui mettait la barre un cran au dessus question performances et fonctionnalités, démarrant l'ère du GPU pour PC moderne.

*edit corrigé ... j'étais sûr que le delta datait de 94/95 mais je ne retrouvais pas les preuves, j'ai remis la main sur le manuel de référence de la puce, il est daté de Novembre 95.
*edit, ajout des GMX DMX.
Modifié le 09/12/2023 à 09h42
alex.d. Abonné
Le 09/12/2023 à 14h 44

ragoutoutou

Le VGA (1987) prédate windows 3 (1990)... Donc bien de l'époque de la ligne de commande. Le SuperVGA (1988) aussi prédate Windows .

Cet article a un gros problème car il parle de GPU, mais fait référence à de nombreuses cartes ne faisant pas une accélération des traitement géométriques.

De fait, les cartes accélératrices de première génération comme la Voodoo1, la Virge, les ATI mach, RIVA, TNT et autres sont toutes disqualifiées pour le titre de GPU car elles ne font pas de TCL (transform clipping and lighting) et laissent tout ce travail au CPU.

Les premières cartes accélératrices pour PC pouvant être qualifiées de GPU sortirent en 1995, et étaient équipées de la puce dédiée "Delta" (Geometry Processing Unit) de 3D labs, qui secondait l'accélérateur (Glint, puis plus tard Permedia) de rendu et faisait que la carte graphique pouvait enfin alléger la charge du CPU en finalisant le TCL slope/setup et les conversions FP. En 1997, 3Dlabs présente ses jeux de puces glint DMX et GMX incorporant respectivement les unités GPU delta et son successeur Gamma...

Il fallu encore attendre 2 ans pour que NVIDIA sorte son GPU complètement intégré: le geforce 256 qui mettait la barre un cran au dessus question performances et fonctionnalités, démarrant l'ère du GPU pour PC moderne.

*edit corrigé ... j'étais sûr que le delta datait de 94/95 mais je ne retrouvais pas les preuves, j'ai remis la main sur le manuel de référence de la puce, il est daté de Novembre 95.
*edit, ajout des GMX DMX.
Ah oui, en effet, les machines Windoes 2 que j'ai utilisées étaient déjà en VGA. Sauf une au lycée qui était en EGA.
Wosgien Abonné
Le 10/12/2023 à 18h 41

ragoutoutou

Le VGA (1987) prédate windows 3 (1990)... Donc bien de l'époque de la ligne de commande. Le SuperVGA (1988) aussi prédate Windows .

Cet article a un gros problème car il parle de GPU, mais fait référence à de nombreuses cartes ne faisant pas une accélération des traitement géométriques.

De fait, les cartes accélératrices de première génération comme la Voodoo1, la Virge, les ATI mach, RIVA, TNT et autres sont toutes disqualifiées pour le titre de GPU car elles ne font pas de TCL (transform clipping and lighting) et laissent tout ce travail au CPU.

Les premières cartes accélératrices pour PC pouvant être qualifiées de GPU sortirent en 1995, et étaient équipées de la puce dédiée "Delta" (Geometry Processing Unit) de 3D labs, qui secondait l'accélérateur (Glint, puis plus tard Permedia) de rendu et faisait que la carte graphique pouvait enfin alléger la charge du CPU en finalisant le TCL slope/setup et les conversions FP. En 1997, 3Dlabs présente ses jeux de puces glint DMX et GMX incorporant respectivement les unités GPU delta et son successeur Gamma...

Il fallu encore attendre 2 ans pour que NVIDIA sorte son GPU complètement intégré: le geforce 256 qui mettait la barre un cran au dessus question performances et fonctionnalités, démarrant l'ère du GPU pour PC moderne.

*edit corrigé ... j'étais sûr que le delta datait de 94/95 mais je ne retrouvais pas les preuves, j'ai remis la main sur le manuel de référence de la puce, il est daté de Novembre 95.
*edit, ajout des GMX DMX.
Bonne remarqué, surtout qu'il y avait des décélératrices (ou carte accélératroce) 3d comme les S3 (qui en plus se trompaient de texture)

Ceci dit, il me semblait que les cartes faisaient le triangle setup, la projection et le calcul d'orientation pour savoir quelle texture mettre, et dans leur majorité le z-buffering.
C'est quand même une bonne aide pour le cpu,même si ça paraît peu aujourd'hui.

Par contre pas trop d'accord avec l'amélioration d'image avec la 3dfx, j'ai eu la mienne sur le tard quand on en trouvait à 500€ des voodoo2, et le lissage tenait de la myopie, les LOD étaient hyper moches, et leur pseudo-22 bits avec le dithering donnait une impression de vieux. Malgré la relative lenteur et la résolution moindre, la carte ATI rage pro avait de meilleures couleurs
Le 11/12/2023 à 03h 17

Wosgien

Bonne remarqué, surtout qu'il y avait des décélératrices (ou carte accélératroce) 3d comme les S3 (qui en plus se trompaient de texture)

Ceci dit, il me semblait que les cartes faisaient le triangle setup, la projection et le calcul d'orientation pour savoir quelle texture mettre, et dans leur majorité le z-buffering.
C'est quand même une bonne aide pour le cpu,même si ça paraît peu aujourd'hui.

Par contre pas trop d'accord avec l'amélioration d'image avec la 3dfx, j'ai eu la mienne sur le tard quand on en trouvait à 500€ des voodoo2, et le lissage tenait de la myopie, les LOD étaient hyper moches, et leur pseudo-22 bits avec le dithering donnait une impression de vieux. Malgré la relative lenteur et la résolution moindre, la carte ATI rage pro avait de meilleures couleurs
Pour le non-support du TCL en hardware, c'était forcé par DirectX < 7 qui faisait toute la partie TCL au niveau cpu, du coup les cartes centrées sur DirectX ne s’embêtaient pas à implémenter la moindre fonction TCL en HW.

Du côté des cartes centrées sur OpenGl, c'était une autre histoire car le T&L pouvait être délégué à du matériel spécialisé. C'est pour cela qu'au début on trouvait des cartes professionnelles basées sur des chipsets avec une puce pour le T&L, une puce pour le raster, une puce pour la 2D, ... cela permettait de moduler l'offre avec des niveaux de charge cpu différents selon les bourses.
Le 10/12/2023 à 13h 25
Je ne voulais pas entrer dans la « guerre » des connecteurs, mais ca pourrait être une prochaine occasion de rétro avec ISA, VLB, AGP, PCI(e)… Quand je parle de PCI c’est juste pour que les jeunes ne pensent pas que c’était déjà du PCIe ^^
lexiii Abonné
Le 11/12/2023 à 20h 20

Sébastien Gavois

Je ne voulais pas entrer dans la « guerre » des connecteurs, mais ca pourrait être une prochaine occasion de rétro avec ISA, VLB, AGP, PCI(e)… Quand je parle de PCI c’est juste pour que les jeunes ne pensent pas que c’était déjà du PCIe ^^
Ah oui, je me souviens des connecteurs ISA, pas trop connu ces postes mais cela devait être la révolution à l'époque
fofo9012 Abonné
Le 09/12/2023 à 10h 27
Vous avez quand même oublié Intel: la i740 qui a inauguré l'AGP (de mémoire en face, on avait 3DFX2, Riva TNT, Ati Rage toujours en PCI...)
Les perf étaient raisonnables en DirectX, mais mauvaises en OpenGL. De mémoire toujours, c'était assez proche en perf des Matrox Gx00 (qui par contre avait un pilote aux-petits-oignons, avec support du multiscreen 5-6ans avant la concurrence)

Le prb est qu'on avait (déjà) de mauvais drivers chez Intel (je ne suis même pas certain que le pilote OgenGL ait existé en fait), et déjà une difficulté pour Intel à gérer la suite: À l'époque une TNT2 sortait 6mois après la TNT en quasi doublant les perfs.
Je ne suis pas certain qu'il y'ait eu un successeur, le successeur du i740 a fini en chips vidéo pour carte mère, qui indirectement fait que 20ans plus tard on trouve normal d'avoir une partie vidéo dans nos CPUs.
Le 09/12/2023 à 11h 00
Il faut bien le reconnaître, les cartes i740, c'était déjà anecdotique, à la ramasse question perfs (plus proche d'une riva 128 que d'une TNT)...
L'AGP introduit pour cette carte était surtout une occasion pour Intel pour sous-équipper cette dernière question RAM... ce qui était désastreux question perfs dans des jeux qui en demandaient de plus en plus, fait encore aggravé par l'absence d'un support pour la décompression compression de texture.

Vu le nombre de fonctions D3D non supportées, c'était le CPU qui s'en prenait plein la figure.

... et bien entendu, ce n'était pas non-plus de vrais GPU's car aucun accélération liée au TCL.
Wosgien Abonné
Le 10/12/2023 à 10h 05

ragoutoutou

Il faut bien le reconnaître, les cartes i740, c'était déjà anecdotique, à la ramasse question perfs (plus proche d'une riva 128 que d'une TNT)...
L'AGP introduit pour cette carte était surtout une occasion pour Intel pour sous-équipper cette dernière question RAM... ce qui était désastreux question perfs dans des jeux qui en demandaient de plus en plus, fait encore aggravé par l'absence d'un support pour la décompression compression de texture.

Vu le nombre de fonctions D3D non supportées, c'était le CPU qui s'en prenait plein la figure.

... et bien entendu, ce n'était pas non-plus de vrais GPU's car aucun accélération liée au TCL.
L'agp et le PCI ont permis une floppée de cartes avec peu de ram (les turbo cache a-t-il et NVIDIA)
Et la i740 était un bon moyen de gamme je trouvais.
anagrys Abonné
Le 11/12/2023 à 11h 28

ragoutoutou

Il faut bien le reconnaître, les cartes i740, c'était déjà anecdotique, à la ramasse question perfs (plus proche d'une riva 128 que d'une TNT)...
L'AGP introduit pour cette carte était surtout une occasion pour Intel pour sous-équipper cette dernière question RAM... ce qui était désastreux question perfs dans des jeux qui en demandaient de plus en plus, fait encore aggravé par l'absence d'un support pour la décompression compression de texture.

Vu le nombre de fonctions D3D non supportées, c'était le CPU qui s'en prenait plein la figure.

... et bien entendu, ce n'était pas non-plus de vrais GPU's car aucun accélération liée au TCL.
Pourtant, dans le contexte de l'époque, ce chipset ne semblait pas catastrophique, surtout en qualité 3D. À lire ici : https://www.hardware.fr/articles/37-1/intel-i740.html
(faudra que je trouve comment mettre un lien un de ces jours...)
Modifié le 11/12/2023 à 11h30
Wosgien Abonné
Le 12/12/2023 à 15h 45

anagrys

Pourtant, dans le contexte de l'époque, ce chipset ne semblait pas catastrophique, surtout en qualité 3D. À lire ici : https://www.hardware.fr/articles/37-1/intel-i740.html
(faudra que je trouve comment mettre un lien un de ces jours...)
Je confirme, il y en avait une dans le voisinage. Disons qu'elle faisait le job, mais pas d'effet "Waou"
Le 09/12/2023 à 13h 36
Ahhh encore un article nostalgique pour les vieux que nous sommes :-)

Moi j'avais réussi à faire marcher une carte Jazz http://www.amoretro.de/2012/03/jazz-adrenaline-3d-3dfx-voodoo-rush-6mb-pci.html sur un power mac G3/266 en PCI à l'époque et faire tourner Unreal dessus. Ma TOUTE PREMIERE claque en terme de graphisme , quand on sort du vaisseau et qu'on arrive sur le paysage.... :love: !
Le 09/12/2023 à 14h 07
Je me souviendrai toujours de mon achat de Matrix Mystique 220 chez Carrefour !
Puis de ma TNT2 pour jouer à Quake 3 car les GeForce 2 c'était trop cher.
Quand je repense au fait que je savais choisir les pièces de mon PC puis le monter entre 12-15 ans je suis toujours trop fier 😄
Passer de 4 à 8 Mo ou 8 à 16Mo ram pour jouer à Death Rally.
Modifié le 09/12/2023 à 14h09
fry Abonné
Le 11/12/2023 à 15h 02
héhéhé
merci pour l'article
mes premiers jeux 3d sur pc, grâce à une diamond monster 3d (probablement en 640480, je doute que le 800600 passait) :p
sympa à l'époque
l'étape d'après ce fut une tnt2, ut (99) avait été bluffant en opengl (bien mieux que directx : fluide, probablement en 12801024, alors que dx galérait probablement en 1024768)
par contre je sais plus ce que j'ai eu après dans l'ordi monté en 2003, faudra que j'ouvre la bête pour me rafraîchir la mémoire
la dernière, une radeon hd 5850 et son Go de vram tournent encore pour de petits jeux, mais il va falloir trouver sa remplaçante :s
garfield67 Abonné
Le 11/12/2023 à 17h 22
Un grand merci pour cet article !!
Le 11/12/2023 à 17h 45
La belle époque où on mettait à jour les jeux pour améliorer leurs performances alors qu'aujourd'hui on met à jour les drivers de la carte graphique pour améliorer les jeux
Myddrin Abonné
Le 14/12/2023 à 09h 57
Un article intéressant mais difficile à visualiser. Peut être un graphique pourrait montrer l'explosion de la densité. Il est aussi dommage de ne parler que d'amd et de nvidia sur PC dans un monde où le mobile est devenu très important (et chez PowerVR ils ne sont pas mort - et quand j'y travaillais ils disaient qu'ils étaient les meilleurs GPU embarqué).