IPB

Bienvenue invité ( Connexion | Inscription )

 
Reply to this topicStart new topic
> La norme PCI-Express 4.0 finalisée, la 5.0 en préparation, Réactions à la publication du 15/06/2018
Options
Lionel
posté 14 Jun 2018, 23:00
Message #1


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 342
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



Le PCI-Sig a annoncé que la norme PCI-Express 4.0 était finalisée et devrait commencer à arriver dans les ordinateurs en 2019.
Mais c'est déjà presque de la vieille histoire puisque la norme 5.0 est en version 0.7 et sera finalisée au plus tard en 2021. On atteindra alors les 32Go/s et une bande passante de transfert unidirectionnel de 64 Go/s, supérieure à la bande passante mémoire de la DDR3 sur deux canaux.
Cette norme devrait permettre de gérer des normes réseaux Ethernet de 400 Gbits/s ou de permettre à des SSD sur un lien unique d'atteindre les débits des SSD sur 4 canaux PCI-Express 3.0 actuellement.
De plus elle aura droit à de nombreuses optimisations pour consommer le moins d'énergie possible.

Il y aura toutefois une contrainte de taille. La longueur des pistes devra être revue significativement à la baisse ce qui obligera à revoir le design des cartes logiques ou de rajouter des relais en cours de chemin.

Lien vers le billet original



--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
bitonioA2
posté 15 Jun 2018, 01:16
Message #2


Nouveau Membre


Groupe : Membres
Messages : 25
Inscrit : 25 Sep 2010
Membre no 159 396



Heu, tu peux développer le pourquoi de : "La longueur des pistes devra être revue significativement à la baisse ..." ?


--------------------
Comme disait Bernard Weber : «Entre ce que je pense, ce que je veux dire, ce que je crois dire, ce que je dis; ce que vous avez envie d’entendre, ce que vous croyez entendre, ce que vous entendez; ce que vous voulez comprendre, ce que vous croyez comprendre et ce que vous comprenez... Il y a au moins 9 possibilités pour ne pas s’entendre ! Mais essayons quand même.»
PowerBook G3 Wallstreet rev 2 233MHz, 128Mo, DD2Go; iBook G3 600MHz, 384Mo, DD 20Go; iBook G4 1GHz, 1,25Go, DD 30Go => 160Go; MacBook Core 2 Duo 2,26GHz, 8Go, SSD 275Go, OSX 10.6.8 puis 10.11.6; MacBookPro (mid 2012 ;-) i7 2,6GHz, 16Go, SSD 250Go & 500Go, OSX 10.14.6 mais aussi une Dreadnought Tanglewood TW15NSCB, une Hagstrom Viking Deluxe (Amber Sunburst), une stratocaster (MN Fiesta Red), une autre Hagstrom, Ultralux XL-5, un Laney VC30 112, un Fender Vibro Champ XD et pas de télé, ni de raton-laveur...
Go to the top of the page
 
+Quote Post
kwak-kwak
posté 15 Jun 2018, 03:11
Message #3


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 517
Inscrit : 28 Jan 2010
Membre no 149 363



Citation (bitonioA2 @ 15 Jun 2018, 01:16) *
Heu, tu peux développer le pourquoi de : "La longueur des pistes devra être revue significativement à la baisse ..." ?

Probablement à cause de la fréquence élevée du signal (ce qui implique des pertes rapides). Si la piste est trop longue, le signal est trop atténué pour être utilisable.
Go to the top of the page
 
+Quote Post
Pensee
posté 15 Jun 2018, 08:27
Message #4


Adepte de Macbidouille
*

Groupe : Membres
Messages : 243
Inscrit : 22 May 2006
Lieu : London-Paris-Brindisi
Membre no 61 659



au debut de ce siecle, je m'interessais au reseaux optique, la limite des systemes etait deja les carte "fond de panier" , les pistes de cuivre ateignant leur limite a 40 ghz.
32 ghz par canal, je comprend, mais 400ghz pour un switch, j'ai due rate une marche, ... on se fait vieux.

au debut de ce siecle, je m'interessais au reseaux optique, la limite des systemes etait deja les carte "fond de panier" , les pistes de cuivre ateignant leur limite a 40 ghz.
32 ghz par canal, je comprend, mais 400ghz pour un switch, j'ai due rate une marche, ... on se fait vieux.


--------------------
Entrée dans le réseau Apple en 1984, sortit en 2012. créateur du centre de maintenance Pensée à Paris (1994-2000).
Z77N-wifi , i5 3570k, 16 Go Ram corsair, GT640 evga, alim corsair 430w, boitier cooler master, 256Go SSD Sandisk soit Total hackintosh = 695€ (janvier 2013)
RaspberryPi , imprimante 3D, CNC OX, CNC Maslow (800€) Lasercutter K40 (365€)
Go to the top of the page
 
+Quote Post
Pat94
posté 15 Jun 2018, 08:54
Message #5


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 721
Inscrit : 28 Nov 2015
Lieu : Somme
Membre no 197 274



Pour éviter l'effet "antenne" et les pertes en ligne, la solution serait des cartes multicouches (4 ou 5) où les bus passeraient entre-deux couches de "blindage", seuls petits soucis "bonjour le prix de ces cartes", ce type de fabrication est pour le moment du type "militaire", genre gestions de pilotage de missile ou avionics de chasseur dernière génération.

Et pour l'instant à part des boîtes comme Safran, Matra, IBM, GE etc., personnes chez les Taïwanais où Chinois utilise ce type de technologie pour de la grande série.


--------------------
MacPro 7.1/5.1
Go to the top of the page
 
+Quote Post
SartMatt
posté 15 Jun 2018, 09:59
Message #6


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Pat94 @ 15 Jun 2018, 09:54) *
Pour éviter l'effet "antenne" et les pertes en ligne, la solution serait des cartes multicouches (4 ou 5) où les bus passeraient entre-deux couches de "blindage", seuls petits soucis "bonjour le prix de ces cartes", ce type de fabrication est pour le moment du type "militaire", genre gestions de pilotage de missile ou avionics de chasseur dernière génération.

Et pour l'instant à part des boîtes comme Safran, Matra, IBM, GE etc., personnes chez les Taïwanais où Chinois utilise ce type de technologie pour de la grande série.
Ça fait des années que les cartes mères de PC sont multicouches.

Voilà par exemple cet article d'il y a dix ans chez Gigabyte où ils montrent la structure de leur nouvelle génération de cartes mères à 8 couches (4 couches de signal, 4 couches de blindage en cuivre, sans compter les couches de résine/fibre de verre et de verni) contre 4 pour la génération précédente : https://www.gigabyte.com/webpage/16/article_12_ud3.htm


--------------------

Go to the top of the page
 
+Quote Post
Pat94
posté 15 Jun 2018, 10:28
Message #7


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 721
Inscrit : 28 Nov 2015
Lieu : Somme
Membre no 197 274



Citation (SartMatt @ 15 Jun 2018, 10:59) *
Ça fait des années que les cartes mères de PC sont multicouches.

Je me suit mal exprimé, pas du "simple multicouche" multi plan, genre alimentation, GND etc., mais des tunnels afin d'éviter la dispersion en ondes haute fréquence avec leurs gammes d'harmoniques et des interférences entre les différentes pistes, un peux comme la technique des antennes hyper fréquence, ou un blindage en tunnel évite la dispersion, les trains d'ondes stationnaires et assure une impédance constante...
De toute façon on verra bien comment seront réalisé les carte PCI-e 5 et les cartes mères les supportants, et à quel prix....

Ce message a été modifié par Pat94 - 15 Jun 2018, 10:29.


--------------------
MacPro 7.1/5.1
Go to the top of the page
 
+Quote Post
silja
posté 15 Jun 2018, 10:31
Message #8


Adepte de Macbidouille
*

Groupe : Membres
Messages : 141
Inscrit : 14 Mar 2005
Membre no 35 141



A voir à cette époque prochaine le prix des CM,
des CG,
et des proc !!

Surtout, combien de lignes PCIE 4.0 (commencons par le commencement) pourra gérer un I5 ou i7 grand public ?
Go to the top of the page
 
+Quote Post
Anozer
posté 16 Jun 2018, 15:10
Message #9


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 323
Inscrit : 12 Aug 2007
Membre no 92 465



Citation (Pensee @ 15 Jun 2018, 08:27) *
au debut de ce siecle, je m'interessais au reseaux optique, la limite des systemes etait deja les carte "fond de panier" , les pistes de cuivre ateignant leur limite a 40 ghz.
32 ghz par canal, je comprend, mais 400ghz pour un switch, j'ai due rate une marche, ... on se fait vieux.


Ce n'est pas 400GHz mais 400Gbps. D'abord, l'Ethernet filaire fonctionne sur 4 paires. Il faut donc commencer par diviser le débit par 4. Ensuite, ils utilisent diverses techniques de modulation de signal. Comme en radio. Ce n'est pas un signal numérique. On ne transmet donc pas juste des 0 et 1 mais des "symboles". Ce qui permet d'augmenter le débit en gardant une fréquence plus faible. Par exemple, l'Ethernet 10GBASE-T semble utiliser 16 symboles par unité de temps d'après Wikipedia.

Citation (SartMatt @ 15 Jun 2018, 09:59) *
Citation (Pat94 @ 15 Jun 2018, 09:54) *
Pour éviter l'effet "antenne" et les pertes en ligne, la solution serait des cartes multicouches (4 ou 5) où les bus passeraient entre-deux couches de "blindage", seuls petits soucis "bonjour le prix de ces cartes", ce type de fabrication est pour le moment du type "militaire", genre gestions de pilotage de missile ou avionics de chasseur dernière génération.

Et pour l'instant à part des boîtes comme Safran, Matra, IBM, GE etc., personnes chez les Taïwanais où Chinois utilise ce type de technologie pour de la grande série.
Ça fait des années que les cartes mères de PC sont multicouches.

Voilà par exemple cet article d'il y a dix ans chez Gigabyte où ils montrent la structure de leur nouvelle génération de cartes mères à 8 couches (4 couches de signal, 4 couches de blindage en cuivre, sans compter les couches de résine/fibre de verre et de verni) contre 4 pour la génération précédente : https://www.gigabyte.com/webpage/16/article_12_ud3.htm


En fait, il n'y a pas de "blindage" dans les PCB. Ou en tout cas pas pour ces raisons. Les couches de cuivre sont simplement réparties entre signaux, alimentations et masses. Il est fréquents de voir plus d'une dizaine de couches. Par exemple un PCB d'iPhone doit se rapprocher de 24 couches. Sur une carte mère de PC grand format (ATX ou un truc du genre), il y a de la place donc on réduit (puisque ça coute cher). Mais c'est souvent le routage d'un bus DDR et ce genre de composant ultra dense qui va jouer sur le nombre de couche.

Ensuite, le PCIe fonctionne en paire différentielle. Il est beaucoup donc beaucoup plus immune au bruit. Ensuite, pour améliorer l'intégrité des signaux, il est important de les placer en face d'une plan de masse pour rapprocher au maximum le retour du courant et améliorer l'impédance de la piste.

Enfin, la réduction des longueurs de pistes a surtout pour objectif de réduire la réflexion. Il faut aussi voir qu'aux fréquences auxquelles ces signaux fonctionne, le temps de propagation dans la matière commence à jouer.


--------------------
Comprendre l'audio sur Mac
Go to the top of the page
 
+Quote Post
SartMatt
posté 16 Jun 2018, 16:25
Message #10


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Anozer @ 16 Jun 2018, 16:10) *
En fait, il n'y a pas de "blindage" dans les PCB. Ou en tout cas pas pour ces raisons. Les couches de cuivre sont simplement réparties entre signaux, alimentations et masses. Il est fréquents de voir plus d'une dizaine de couches. Par exemple un PCB d'iPhone doit se rapprocher de 24 couches. Sur une carte mère de PC grand format (ATX ou un truc du genre), il y a de la place donc on réduit (puisque ça coute cher). Mais c'est souvent le routage d'un bus DDR et ce genre de composant ultra dense qui va jouer sur le nombre de couche.
Merci pour ces précisions. Je pensais que les plans de masse avaient aussi une fonction blindage.

Citation (Anozer @ 16 Jun 2018, 16:10) *
Enfin, la réduction des longueurs de pistes a surtout pour objectif de réduire la réflexion. Il faut aussi voir qu'aux fréquences auxquelles ces signaux fonctionne, le temps de propagation dans la matière commence à jouer.
Tout a fait. Il me semble d'ailleurs que c'est pour ça qu'on est repassé à des interface série après quelques années de domination des interfaces parallèle : le PCI nécessitait que les signaux de toutes les lignes restent synchrones, alors qu'en PCI-E on a en fait x interfaces séries "indépendantes" utilisées en parallèle (les fameux 2x, 4x, 16x...), ce qui permet d'avoir une tolérance plus grande aux décalages entre les signaux.

Ce problème de délai de propagation est aussi particulièrement visible dans le cas des mémoire de cartes graphiques : les fréquences sont très élevées et il peut y avoir une très grande différence de longueur entre les pistes si on route "au plus court", du coup on voit souvent des "escaliers" sur les pistes les plus courtes, pour les rallonger artificiellement et éviter une désynchronisation avec les pistes les plus longues. On doit sans doute trouver des choses similaires sur les bus mémoire des cartes mères, mais j'y ai jamais trop fait gaffe.



--------------------

Go to the top of the page
 
+Quote Post
Anozer
posté 16 Jun 2018, 17:13
Message #11


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 323
Inscrit : 12 Aug 2007
Membre no 92 465



Citation (SartMatt @ 16 Jun 2018, 16:25) *
Tout a fait. Il me semble d'ailleurs que c'est pour ça qu'on est repassé à des interface série après quelques années de domination des interfaces parallèle

On peut même constater aujourd'hui que la DDR probablement dernier bus parallèle restant. Tout a été sérialisé. Avant, une NAND Flash c'était 16 nets de data et une 20aine d'adresse plus des contrôles. Aujourd'hui dans un smartphone on a une mémoire managée, par exemple eMMC, quasi-série, sur moins d'une dizaine de nets.

Citation (SartMatt @ 16 Jun 2018, 16:25) *
Ce problème de délai de propagation est aussi particulièrement visible dans le cas des mémoire de cartes graphiques : les fréquences sont très élevées et il peut y avoir une très grande différence de longueur entre les pistes si on route "au plus court", du coup on voit souvent des "escaliers" sur les pistes les plus courtes, pour les rallonger artificiellement et éviter une désynchronisation avec les pistes les plus longues. On doit sans doute trouver des choses similaires sur les bus mémoire des cartes mères, mais j'y ai jamais trop fait gaffe.

Exactement ! On appelle ça de la mise à longueur. Mais les composants récents commencent à embarquer des méthodes de mise à longueur programmables. C'est par exemple ce qu'a spécifié le JEDEC pour la DDR4 (ou la LPDDR4 peut être). Ainsi, en théorie, le contrôleur mémoire peut calibrer chaque signal en y rajoutant un peu de retard pour que tous se calent par rapport au plus lent. Et donc plus besoin de mise à longueur dans le PCB. Super pratique pour un smartphone !

Sur les bus série cependant, les liens rapides (PCIe, SGMII, etc) fonctionnent en paire différentielle. La seule contrainte de mise à longueur est donc entre les deux brins de la paire. Et là c'est encore plus exigeant que sur un bus parallèle car le moindre écart entre les deux brins a un effet désastreux sur la forme du signal final (qui correspond à la soustraction du brin+ par le brin-).


--------------------
Comprendre l'audio sur Mac
Go to the top of the page
 
+Quote Post
SartMatt
posté 16 Jun 2018, 17:54
Message #12


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Anozer @ 16 Jun 2018, 18:13) *
Citation (SartMatt @ 16 Jun 2018, 16:25) *
Tout a fait. Il me semble d'ailleurs que c'est pour ça qu'on est repassé à des interface série après quelques années de domination des interfaces parallèle
On peut même constater aujourd'hui que la DDR probablement dernier bus parallèle restant. Tout a été sérialisé.
Et son temps pourrait être compté, on commence à voir arriver des RAM avec bus série (mémoire HMC par exemple).


--------------------

Go to the top of the page
 
+Quote Post
Rorqual
posté 17 Jun 2018, 07:44
Message #13


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 4 058
Inscrit : 7 Sep 2001
Lieu : Sartrouville
Membre no 755



QUOTE (Anozer @ 16 Jun 2018, 16:10) *
Ce n'est pas 400GHz mais 400Gbps. D'abord, l'Ethernet filaire fonctionne sur 4 paires. Il faut donc commencer par diviser le débit par 4.

Oui, mais ce n'est pas demain la veille qu'il y aura de l'Ethernet 400 Gb/s sur du câble cuivre, sauf sur quelques mètres en twinax, mais certainement pas en paires torsadées. Le plus rapide à ce format est le 40GBASE-T (10x moins rapide donc), nécessitant du câble catégorie 8 (qui n'est déployé nulle part, même les nouveaux bâtiments sont en général en 7 voire 6A, et dans les data center c'est la fibre optique qui est préférée) et sur 30 m max. Enfin c'est théorique, puisque je n'ai encore pas entendu parler de switch 40GBASE-T sur le marché.

Ceci dit, en optique c'est variable, selon les standards et types de fibres (multimode ou monomode), on a soit une paire de fibre (pas de division), ou plusieurs paires (division par x), ou une paire mais utilisation de plusieurs fréquences (donc division par x).

Ce message a été modifié par Rorqual - 17 Jun 2018, 07:45.


--------------------
Mac Pro 2009 flashé 2010, bien boosté : ça c'était avant. A présent : Windows 11 Pro sur Core i5-12600K - RAM DDR4 32 Go à 3200 MHz - NVIDIA GeForce RTX 3080 Founder's Edition - Boîtier Lian-Li tout alu - Ventirad Noctua - Alimentation Seasonic 80+ Platinum - SSD WD Black PCIe - SSD Samsung 840 Pro (x2) - Disques durs 7200 tours/mn Toshiba (x2) et HGST - Graveur DVD Lite-On - Webcam Logitech C930e - Moniteur HP Omen X 35 (35" UWQHD dalle AMVA) - Clavier mécanique Logitech G710+ - Souris Razer Naga
Go to the top of the page
 
+Quote Post

Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 23rd April 2024 - 16:12