#Nextquick Comment fonctionne le PCI Express, qui double ses débits à chaque génération
NEXTe >> PCIe
Illustration : Flock
Le 06 mars à 10h30
Vous êtes-vous déjà demandé d’où venait le PCI Express (PCIe) utilisé par les cartes graphiques et comment il faisait pour doubler ses débits à chaque génération ? Oui, alors Next vous apporte les réponses. Non ? Parfait, c’est l’occasion d’apprendre de nouvelles choses !
#Nextquick Comment fonctionne le PCI Express, qui double ses débits à chaque génération
NEXTe >> PCIe
Illustration : Flock
Vous êtes-vous déjà demandé d’où venait le PCI Express (PCIe) utilisé par les cartes graphiques et comment il faisait pour doubler ses débits à chaque génération ? Oui, alors Next vous apporte les réponses. Non ? Parfait, c’est l’occasion d’apprendre de nouvelles choses !
Le 06 mars à 10h30
Hardware
Hardware
6 min
Le PCIe comme nous avons l’habitude de l’appeler, a bien des noms. La version longue : Peripheral Component Interconnect Express. Version plus courte : PCI Express. On parle aussi de PCI-E ou PCIe en abrégé. Le PCIe est une norme de bus d’extension, permettant de connecter des cartes d’extension sur des cartes mères.
Petite histoire du PCI Express : Arapahoe (Intel) >> 3GIO >> PCIe
Le PCIe est une évolution du PCI classique et remplace aussi l’AGP qui était utilisé par des cartes graphiques (et encore avant les bus VLB et (E)ISA). Le PCIe est né au début des années 2000, d’abord lancé par Intel sous le nom de code projet Arapahoe puis sous l’appellation 3GIO pour Third Generation I/O. Il est ensuite repris par le PCI-SIG, avec SIG pour Special Interest Group, encore aujourd’hui en charge du PCIe. Au conseil d’administration, on retrouve du beau monde : AMD, ARM, Dell, IBM, Intel, Keysight, NVIDIA, Qualcomm et Synopsys.
En 2002, le PCI Express était né. Aujourd’hui, c’est la 8ᵉ génération de PCIe qui est en travaux. Ce bus d’extension est présent sur toutes les cartes mères, en version 5.0 pour les plus récentes. De 8 Go/s en bi-directionnel (4 Go dans chaque sens, descendant et montant), il est maintenant question de… 1 024 Go/s, soit 128x plus en plus de deux décennies. Pour en arriver là, plusieurs évolutions ont été nécessaires.
Voici un rapide état des lieux des dates et des débits (approximatifs) de chaque génération :
Il reste 83% de l'article à découvrir.
Déjà abonné ou lecteur ? Se connecter
Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
expert et sans pub.
Commentaires (22)
Le 6 mars à 10h49
Le 6 mars à 16h11
Le 6 mars à 10h54
Modifié le 6 mars à 11h03
Si l'on utilisait par exemple une ligne pour transmettre l'horloge, pour 4 lignes il resterait 3 lignes pour transmettre les données ce qui ferait une efficacité de 3/4 = 0,75 alors qu'elle est de 0,8 avec ce codage.
Par contre, pour 8 lignes dont une horloge, ça ferait bien une perte parce que l'efficacité serait dans ce cas de 7/8 = 0,875.
Le 6 mars à 11h38
Le 6 mars à 11h42
Modifié le 6 mars à 21h33
L'encodage 8b/10b et les autres encodages de ce type, ont d'autres intérêts:
- de limiter la bande passante, ce qui est très intéressant électriquement pour préserver l'intégrité du signal ;
- si la transmission est optique, cela permet un bon fonctionnement du contrôle automatique de gain à la réception.
Le 6 mars à 12h11
Il y a plein de modes différents pour gérer l'horloge en PCIe, mais il y a bel et bien une paire différentielle REFCLK pour transmettre l'horloge.
Le 6 mars à 13h24
Quelle serait le débit (donc un fréquence) maximal pour ces ports avec les dispositif actuel ?
Le 6 mars à 15h11
Le 6 mars à 17h17
Le 6 mars à 15h25
Le 6 mars à 17h16
C'était un gros problèmes des machines 8/16bits d'il y a 30 ans (ST/Amiga). Les fabricants blindaient en entier avec du bon vieux métal.
Le 6 mars à 21h55
Les signaux différentiels utilisés ont ce mérite de réduire cette boucle à la paire différentielle. Les deux fils cheminent en // et réduisent de fait l'effet d'antenne. Le courant d'une liaison ne circule que dans la paire donc il n'y a plus de courants haute fréquence qui circulent dans les plans.
Il y a aussi une amélioration du côté de l'adaptation d'impédance car, aux grandes vitesses, les distances auxquelles ces adaptation sont nécessaires voire incontournables sont très courtes.
La première liaison interne adaptée a été LVDS, qui a servi de base pour SATA ou PCIe, entre autres. Il en existait déjà pour les liaisons externe longues comme RS485 et RS422. Toutes ces liaisons sont différentielles.
L'article ne le mentionne pas mais les tensions utilisées sur ces liaisons sont de plus en plus basses, en premier lieu pour réduire l'énergie consommée et augmenter la vitesse. La conséquence est également une amélioration en terme d'émission et une meilleure tenue aux agressions en mode différentiel.
Modifié le 6 mars à 22h42
Les pertes dans les PCB sont un des plus gros problèmes aujourd'hui, sur une piste PCIe 5 de 15cm on pert facilement 90℅ de l'énergie à l'arrivée avec des matériaux "courants". On peut utiliser des matériaux plus performants et plus chers mais ça n'est pas forcément accessible pour toutes les applications.
Mais si demain un fabricant sort un matériaux miracle et pas cher ça débloquera de nouveaux débits. En attendant on dépense des sous et des watts dans les puces pour compenser les pertes.
De même, plus le debit augmente plus la précision de construction des pistes doit être impeccables. Faire des trous non débouchant est complètement standard aujourd'hui ce qui a permis de dépasser les 5Gbps, mais seules quelques entreprises dans le monde savent graver une paire de conducteur dans le même trou ce qui semble nécessaire pour passer les 100Gbps en NRZ (en tous cas d'après un commercial, je n'ai pas d'expérience à ces débits).
La rugosité du cuivre est aussi un problème mais nos talentueux chimistes vont bien nous trouver une méthode magique pour lisser tout ça avec de l'IA 😅
Tout ça pour dire qu'il y a encore plein de marges de manœuvre pour continuer à monter en débit, c'est surtout une question de sous.
La "perturbation" "radio" n'est plus vraiment un problème aujourd'hui ça n'est pas un facteur limitant
Modifié le 6 mars à 15h01
Un petit schéma avec des ordres de grandeurs pourrait être intéressant. Il permettrait de contextualiser les débits avec les autres composants d'un PC (RAM, processeur, disques etc..)
Merci par avance 🙏
Le 6 mars à 15h26
Le 6 mars à 16h54
En grand public:
* Avec des SSD qui ont des caches de type RAM, ils peuvent assurer des débits proches de la RAM par exemple.
* Par ailleurs, les cartes peuvent communiquer entre elles sans passer par le CPU (exemple: DirectStorage permet au GPU de lire directement le SSD)
* Les écrans par USB-C seraient difficiles à implémenter sans un BUS très conséquent: un écran externe 4K 120Hz, c'est 25Gb/s
* Plus tu transfères vite, plus tu passes à autre chose
Enfin, comme le dit @alex.d. : en pro, certaines interconnections nécessitent une bande passante très rapide (exemple: interconnection de serveurs physiques qui hébergent et font migrer des VM d'un serveur à l'autre - grosses BDD et stockage - duplication ede stockage dans ddes salles différentes.
Le 6 mars à 17h24
SDD : Dépend de la norme PCIe pour NVme sinon ~ 500 Mo/s en SATA III
GPU : cf. PCIe
DDR5 : ~ 70 Go/s
HBM : jusqu'à 2To/s
Cache CPU : entre 10 - 30 To/s selon modèle, configuration, usage....
Le 7 mars à 00h40
pour la DDR5 la 4800 fait 75Go/s, de la 6400 fait 100Go/s et de la 8000 fait 125Go/s.
pour les caches CPU grand public c'est plutôt 2-5To/s il me semble
ça peut aussi être intéressant d'ajouter l'USB, l'USB2 high speed est à 60Mo/s.
L'USB3.2 gen2 x2 est à 2.5Go/s, le USB4 gen3 est à 5Go/s et le tout dernier USB4 gen4 est à 10Go/s qui est lui aussi passé en encodage multi niveau PAM3.
L'HDMI 2.1 est à 8Go/s.
Une source vidéo sans compression à 4k120 et 10bits par couleur c'est 3.8Go/s.
Modifié le 6 mars à 15h41
Modifié le 7 mars à 00h09
Et le PCIe7 et 8 ne sont pas encore définitif, c'est pour le moment uniquement spéculatif il n'y rien qui permet de faire de tel débit à l'heure actuelle sur des pistes de cuivre il va falloir vraiment un gap technologique pour attendre ces débits à moins de passer en techno optique enfin ce n'est pas pour tout de suite. Rien que le principe d'avoir un connecteur avec lame ressort faisant contact sur une piste cuivre dorée perturbe déjà quasi trop le signal, on le voit sur la ram avec le passage en cudimm pour raccourcir la pin qui faisait à elle seule antenne. Pour pcie7 il faudra aussi à mon avis d'autres connecteurs probablement raccourci comme pour cudimm.
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?