Bonjour à tous.
Je suis l'heureux propriétaire d'une config qui a évoluée depuis 2010 jusqu'à aujourd’hui (ne n'insultez pas sur celle ci du coup pour ma part je joue encore convenablement avec sur un 49p parfois en natif 3840*1080 ou parfois en 2560*1080 ou parfois en FHD)
CPU I7 860 (OC light à 3.5ghz)
Corsair H115i RGB
CM gigabite P55 A ud3
24 go ram corsair 1600mhz cl9
Sapphire 5700Xt nitro + OC Spécial édition
1 ssd 2to (en sata 3)
3 hdd 1to/4to/8to (en sata 3)
Alim corsair 650w gold
Evolution GPU
Sapphire HD5870 Vapor x (2010)
Sapphire R9 290 Vapor x (2015)
Sapphire Rx 5700 Xt nitro+ OC SE (07/2020).
Le GPU actuel (est compatible PCI e 4.0 x16) est monté actuellement sur un PCi 2.0 x16 => actuellement j'obtiens un score superposition (FHD extreme => env 5500pts ce qui est dans la moyenne des score GPU 5700xt => les meilleurs scores montent jusqu'à env 5970pts en FHD extreme (soit +8 à 9%) mais avec de meilleurs set (meilleurs CPU / CM / RAM / réglage ...).
Ma question est la suivante pour les GPU (compatible PCI e 4.0) => le passage d'un PCI e 2.0 à 3.0 ou a 4.0 (x16) => n'apporte généralement qu'un gain de +5 à +20% comme l'on déjà démontrer certains => et que le gain sera plus important plus la résolution de jeu sera importante et plus le jeu gourmand en ressources, justifié (si jeu bien optimisé) ou non justifié (si jeux non optimisé).
Du coup comment peut on estimé le moment ou la bande passante du PCI e 2.0 x16 arrive à saturation.
ayant une petite idée je voulais la confronter avec votre communauté => une image est un nombre de pixel => par ex 3840*1080 pixels donne 4 147 200 pixels par image soit 12 441 600 octets par image, si un pixel est codé sur 3 octets ("En 16 millions de couleurs, chaque pixel = 24 bits. Chaque pixel occupe alors 3 octets en mémoire").
du coup si mon écran affiche du 60 ou 120 fps en jeux je devrais avoir un débit de 746 496 000 à 1 492 992 000 octets par seconde donc environ 0.75 à 1.5go/s => sachant que j'ai monté mon GPU sur un PCI e 2.0 x16 ce dernier à une bande passante théorique de 8gigabit/s (= 1 bit = 0.125 octet donc ma bande passante de 8gbit/s = 1 go/s)
DOnc en gros mon framerate max sera d'env 80fps même si ma carte peut balancer du 120 fps et que du coup je serais bridés par mon PCi e 2.0 x16 quand j'aurais atteinds sa Bande passante max.
Le raisonnement est il bien correct à vos yeux d'expert.
Au plaisir de vous lire.
Bien à vous.
Je suis l'heureux propriétaire d'une config qui a évoluée depuis 2010 jusqu'à aujourd’hui (ne n'insultez pas sur celle ci du coup pour ma part je joue encore convenablement avec sur un 49p parfois en natif 3840*1080 ou parfois en 2560*1080 ou parfois en FHD)
CPU I7 860 (OC light à 3.5ghz)
Corsair H115i RGB
CM gigabite P55 A ud3
24 go ram corsair 1600mhz cl9
Sapphire 5700Xt nitro + OC Spécial édition
1 ssd 2to (en sata 3)
3 hdd 1to/4to/8to (en sata 3)
Alim corsair 650w gold
Evolution GPU
Sapphire HD5870 Vapor x (2010)
Sapphire R9 290 Vapor x (2015)
Sapphire Rx 5700 Xt nitro+ OC SE (07/2020).
Le GPU actuel (est compatible PCI e 4.0 x16) est monté actuellement sur un PCi 2.0 x16 => actuellement j'obtiens un score superposition (FHD extreme => env 5500pts ce qui est dans la moyenne des score GPU 5700xt => les meilleurs scores montent jusqu'à env 5970pts en FHD extreme (soit +8 à 9%) mais avec de meilleurs set (meilleurs CPU / CM / RAM / réglage ...).
Ma question est la suivante pour les GPU (compatible PCI e 4.0) => le passage d'un PCI e 2.0 à 3.0 ou a 4.0 (x16) => n'apporte généralement qu'un gain de +5 à +20% comme l'on déjà démontrer certains => et que le gain sera plus important plus la résolution de jeu sera importante et plus le jeu gourmand en ressources, justifié (si jeu bien optimisé) ou non justifié (si jeux non optimisé).
Du coup comment peut on estimé le moment ou la bande passante du PCI e 2.0 x16 arrive à saturation.
ayant une petite idée je voulais la confronter avec votre communauté => une image est un nombre de pixel => par ex 3840*1080 pixels donne 4 147 200 pixels par image soit 12 441 600 octets par image, si un pixel est codé sur 3 octets ("En 16 millions de couleurs, chaque pixel = 24 bits. Chaque pixel occupe alors 3 octets en mémoire").
du coup si mon écran affiche du 60 ou 120 fps en jeux je devrais avoir un débit de 746 496 000 à 1 492 992 000 octets par seconde donc environ 0.75 à 1.5go/s => sachant que j'ai monté mon GPU sur un PCI e 2.0 x16 ce dernier à une bande passante théorique de 8gigabit/s (= 1 bit = 0.125 octet donc ma bande passante de 8gbit/s = 1 go/s)
DOnc en gros mon framerate max sera d'env 80fps même si ma carte peut balancer du 120 fps et que du coup je serais bridés par mon PCi e 2.0 x16 quand j'aurais atteinds sa Bande passante max.
Le raisonnement est il bien correct à vos yeux d'expert.
Au plaisir de vous lire.
Bien à vous.