[HFR] Actu : Influence du PCIe sur une GTX 1080

Actu : Influence du PCIe sur une GTX 1080 [HFR] - HFR - Hardware

Marsh Posté le 13-12-2016 à 13:58:14   1  

Nos confrères de techPowerUp ont évalué l'impact de la vitesse PCI Express sur une GeForce GTX 1080. Plusieurs vitesses ont été testées en jouant sur le nombre ...
Lire la suite ...


Message édité par Marc le 13-12-2016 à 13:59:14
Reply

Marsh Posté le 13-12-2016 à 13:58:14   

Reply

Marsh Posté le 13-12-2016 à 14:09:57   3  

Cool donc je peux mettre ma GTX1080 sur une carte mère 775 sans être "Bus limited" :D


Message édité par KraMeR le 13-12-2016 à 14:10:08
Reply

Marsh Posté le 13-12-2016 à 14:12:24   1  

Ah cool, donc un SLI de 980Ti ne sera pas bridé par le nombre de lignes PCI d'un 4790K. Vu qu'en PCIE 3.0 x8 y'a pas de différence avec une 1080. Je me posait la question depuis un moment ^^

Reply

Marsh Posté le 13-12-2016 à 14:13:03   3  

Très intéressant comme article  ;)


Message édité par It_Connexion le 13-12-2016 à 14:13:29
Reply

Marsh Posté le 13-12-2016 à 15:35:53   0  

De toute façon en SLI, la liaison est faite par le pont SLI et c'est ce qui fait que le scaling n'est pas toujours bon : il suffit alors le plus souvent (quand ce n'est pas une faute logicielle bien entendu) de mettre deux ponts SLI pour obtenir un scaling de presque + 100% à coup sûr :)


Message édité par Sacharpie le 13-12-2016 à 15:36:37
Reply

Marsh Posté le 13-12-2016 à 15:47:28   2  

ca va rabatte le clapet à quelques uns :D


Message édité par landouille le 13-12-2016 à 15:47:43
Reply

Marsh Posté le 13-12-2016 à 15:51:53   0  

Il manque des tests en SLI : avec 2 GTX1080 en 4K + pont HB, j'ai une différence de 16 % sur Witcher 3 entre du x16/x8 et x16/x16. Cela est confirmé par une autre personne sur youtube. De même, sur Project Cars, the Division, toujours en 4K, la différence est conséquente, du même ordre de grandeur.
 
J'ai aussi testé d'autres jeux (Tomb Raider, Deus Ex, GTA V) et aucune différence.


Message édité par overclockpro le 13-12-2016 à 15:52:15
Reply

Marsh Posté le 13-12-2016 à 17:07:19   1  

Et pour les Radeon , qu'en est-il de l'impact avec le CrossFire XDMA (sans pont) , étant donné que dans ce cas les échanges de données inter-GPU se font via le bus PCIe ?
 

Reply

Marsh Posté le 13-12-2016 à 17:38:51   1  

En effet je vois pas trop de diff entre pcie gen 3 8x et gen2 8x avec une gtx 1070.
 
Sinon passer le bus de 100 MHz à 99 MHz empêche le plantage d'overwatch chez moi (avec rallonge pcie)

Reply

Marsh Posté le 13-12-2016 à 17:47:48   2  

Ça passe cool quand c'est nvidia qui ce plante sur ça carte haut de gamme à 700€ pigeon !

Reply

Marsh Posté le 13-12-2016 à 17:47:48   

Reply

Marsh Posté le 13-12-2016 à 17:53:45   0  

Cet article n'est pas très clair pour moi. Trop technique. Quelques explications supplémentaires seraient bienvenues.
De plus, dans mon cas, quel est l'impact de faire tourner la gtx 1080 sur un 2 x PCI Express 2.0 16 (2.0 au lieu de pc express 3.0) ?
Merci.

Reply

Marsh Posté le 13-12-2016 à 17:54:44   0  

erratum : 1 carte sur 1 seul slot pci 2.0

Reply

Marsh Posté le 13-12-2016 à 17:58:58   0  

Dans ton cas : "En moyenne en 1080p le passage de 16 à 8 Go/s n'est pas perceptible"

Reply

Marsh Posté le 13-12-2016 à 18:03:04   0  

pinpinb a écrit :

Dans ton cas : "En moyenne en 1080p le passage de 16 à 8 Go/s n'est pas perceptible"


Le passage de pcie 2.0 à pcie 3.0 correspond donc à un passage de 8 G0/s à 16 Go/s ?

Reply

Marsh Posté le 13-12-2016 à 18:47:03   1  

Pas franchement nouveau ces chiffres^^

Reply

Marsh Posté le 13-12-2016 à 19:33:30   1  

Ouais donc moralité pour ceux qui ont des cartes mdg ils seront limité en pci 2 x16 éventuellement par la futur GTX 4060 a peu près sur leur socket 775/1366 est encore sur 5fps  :whistle:  
Car concrètement qui a encore une CM PCI 2 avec un monstre comme une 1080 vu le prix du bousin, le pourcentage doit friser le zéro   :lol:  
 

Reply

Marsh Posté le 13-12-2016 à 19:49:56   0  

drynek a écrit :

Ouais donc moralité pour ceux qui ont des cartes mdg ils seront limité en pci 2 x16 éventuellement par la futur GTX 4060 a peu près sur leur socket 775/1366 est encore sur 5fps  :whistle:  
Car concrètement qui a encore une CM PCI 2 avec un monstre comme une 1080 vu le prix du bousin, le pourcentage doit friser le zéro   :lol:  
 

L'intérêt du test n'est pas de prouver qu'une vieille carte mère fait l'affaire, mais comment la nouvelle est pas nécessairement utile.
 
Donc, si vous n'avez qu'un ordinateur d'OEM (HP, DELL, Acer...) qui n'a qu'une 16x (avec seulement les lignes 8x) en 3.0 ou une 16x 2.0, vous vous en sortez sans problème.

Reply

Marsh Posté le 13-12-2016 à 22:59:56   0  

drynek a écrit :

Ouais donc moralité pour ceux qui ont des cartes mdg ils seront limité en pci 2 x16 éventuellement par la futur GTX 4060 a peu près sur leur socket 775/1366 est encore sur 5fps  :whistle:  
Car concrètement qui a encore une CM PCI 2 avec un monstre comme une 1080 vu le prix du bousin, le pourcentage doit friser le zéro   :lol:  
 


 
j'ai un 2600k sur une z68 avec une gtx1070 sur un pcie 2.0 16x. ça tourne du feu de dieu.

Reply

Marsh Posté le 13-12-2016 à 23:28:19   3  

metm a écrit :

Ça passe cool quand c'est nvidia qui ce plante sur ça carte haut de gamme à 700€ pigeon !


Tu as un problème avec les S et l'expression. Je défie quiconque de comprendre ce que tu veux dire...
Pour ma part, je penche sur une conclusion que ceux qui ont une 1080 se sont fait avoir par quelque chose, mais impossible de déterminer quoi.

Reply

Marsh Posté le 14-12-2016 à 09:59:16   0  

Moi ca m’arrange, je tourne en PCI 2.0 en 8x sur ma P67, je peux sereinement envisager un changement de carte graphique si je suis encore a 95% des perfs max :p (pas forcement pour une 1080, mais les résultats doivent être similaire pour les autres)


Message édité par vladobar le 14-12-2016 à 13:26:58
Reply

Marsh Posté le 14-12-2016 à 10:15:11   0  

Est ce que ça veut dire que les cartes graphiques déportées par Thundebolt (ex Razer Core) sont largement viables ?

Reply

Marsh Posté le 14-12-2016 à 10:38:16   3  

metm a écrit :

Ça passe cool quand c'est nvidia qui ce plante sur ça carte haut de gamme à 700€ pigeon !


Rien compris, mais c'est bourré de fautes et ça a l'air agressif, merci de prendre tes cachets avant de venir sur le forum.


---------------
Réalisation amplis classe D / T      Topic .Net - C# @ Prog
Reply

Marsh Posté le 14-12-2016 à 11:15:06   1  

Sa rassurera aussi les possesseurs d'une plateforme AM3+, vu qu'ils sont encore en PCIe 2.

Reply

Marsh Posté le 14-12-2016 à 14:31:43   0  

dr gast a écrit :

pinpinb a écrit :

Dans ton cas : "En moyenne en 1080p le passage de 16 à 8 Go/s n'est pas perceptible"


Le passage de pcie 2.0 à pcie 3.0 correspond donc à un passage de 8 G0/s à 16 Go/s ?


 
En fait, je pense que ce n'est pas la technicité de la news qui te pose problème, mais le fait que tu dois faire un effort de lecture pour trouver les informations te concernant. Allez, je suis sympa, je vais te guider :

Citation :


16 Go/s (PCIe 3.0 x16)
8 Go/s (PCIe 3.0 x8, 2.0 x16)

Reply

Marsh Posté le 14-12-2016 à 14:57:14   0  

Il commence à y avoir des différences notables avec la dernière génération. A l'époque c'était vraiment infime...
Par contre il faut prendre en considération qu'on perd d'avantage dans la réalité puisqu'on reste sur des CPU d'anciennes générations. Le test se faisant ici avec le même CPU pour se focaliser sur la vitesse du bus.
 
Sinon pas mal le coup du scotch sur les connectiques. Un peu goret mais c'est parfait pour le test !

Reply

Marsh Posté le 14-12-2016 à 16:11:52   0  

Une petite question :  
Est ce que dans une configuration crossfire, avec pont entre les deux cartes.
 
L'utilisation des slot PCI express change ?
Est ce que chacune des cartes communique ses données avec le processeur.
Ou le port pci express le plus rapide est privilégié.
 
Dans le cadre d'une configuraiton pcie 2.0 x16 / x4
 
 
Merci :)

Reply

Marsh Posté le 14-12-2016 à 16:18:56   0  

crossfire x depuis la r9 290 (pas de pin pour pont).

Reply

Marsh Posté le 14-12-2016 à 16:24:49   0  

Et dans le cas de deux AMD R9 280X.
Est ce que tout les échanges se font via le slot PCI Express le plus rapide , par exemple 2.0 x16 a 8 Gb/s
ou les deux carte se brident au minimum 2.0 x4 x4 équivalent a 2 Gb/s + 2Gb/s
 
 :cry:  
 

Reply

Marsh Posté le 14-12-2016 à 17:18:53   0  

dr gast a écrit :

Cet article n'est pas très clair pour moi. Trop technique. Quelques explications supplémentaires seraient bienvenues.
De plus, dans mon cas, quel est l'impact de faire tourner la gtx 1080 sur un 2 x PCI Express 2.0 16 (2.0 au lieu de pc express 3.0) ?
Merci.


Ça veut dire qu'entre le 3.0x16 et le 2.0x16 la perte est quasi-négligeable. Il n'y a aucune raison de remplacer une carte mère PCI-E 2.0 (surtout si elle supporte le x16) pour une PCI-E 3.0 pour profiter des performances d'un GPU de dernière génération.

Message cité 1 fois
Message édité par kimujix le 14-12-2016 à 17:19:59
Reply

Marsh Posté le 15-12-2016 à 15:34:16   0  

Je partage juste mon expérience, j'étai parti pour changer de PC avec des potes en aout pour faire de la réalité virtuelle. J'ai commandé une Geforce Titan P que j'ai fixée sur mon PC de novembre 2008, un chipset X58 avec un intel I7 965 et 12GO de ram et un SSD (plus récent)... Mon PC tourne aussi bien que celui de mes potes dans tous les jeux auxquels nous jouons, tous les détails au max en général (dark souls 3, witcher 3, deus EX, Starcraft, diablo, doom ... et j'en passe).  
 
Du coup, j'ai annulé la commande de tout le materiel de remplacement (CPU, CM, Memoire...) car je n'en ai pas eu besoin. Comme quoi, le X58 avait du bon alors qu'il date de 2008 ! Pour faire le lien avec l'article, c'est du PCI Express 2.0 16x pour le port utilisé par la carte graphique.

Reply

Marsh Posté le 15-12-2016 à 15:46:36   0  

Pour avoir remplacé mon 2600K par un 4790K, j'ai vu une différence dans les zones CPU limited alors avec un i7 965 ça doit être encore pire.
Comparé l'influence CPU dans des zones GPU limited, ça sert quasiment à rien.
 

Reply

Marsh Posté le 16-12-2016 à 12:32:41   0  

Comme d'habitude depuis 20 ans en fait. Les cycles de vie des bus sont longs et il faut les introduire avant d'en avoir besoin.
---
Ça dépends du scénario mais dans un jeu on essaye d'être stable en vram ou de ne pas dépendre de quelque chose en cours de transfert.  
(ie les tiles de texture, mais plus la vram est importante et le bus rapide, plus on reste sur les tiles de lod élévé)


Message édité par bjone le 16-12-2016 à 12:34:45
Reply

Marsh Posté le 16-12-2016 à 13:15:42   0  

kimujix a écrit :


Ça veut dire qu'entre le 3.0x16 et le 2.0x16 la perte est quasi-négligeable. Il n'y a aucune raison de remplacer une carte mère PCI-E 2.0 (surtout si elle supporte le x16) pour une PCI-E 3.0 pour profiter des performances d'un GPU de dernière génération.


En théorie oui sauf que le Test est biaisé dans le sens ou le proc est un i7 6700k dans tout les cas de figure alors qu'il aurait fallut mettre un proc contemporain au PCI 2 (en restant sur un Intel du moins ) donc socket 1366 (dernier PCI 2 il me semble) avec un i7 960 et la ont fait un test réel des capacitées de la 1080 sur du "vrai" pci 2 avec le reste qui va avec,  ça rime a rien sinon  :D  
Sinon dans la même logique du test avec le i7 est la ddr4 sachant que le pci2 x4 a les mêmes perfs que l'agp8x (2go/s dans les deux cas) si une gtx1080 existait en agp je pourrais faire tourne BF1 a 125fps en 1080p,  ridicule n'est-ce pas?   :lol:

Reply

Marsh Posté le 16-12-2016 à 14:18:03   0  

drynek a écrit :


En théorie oui sauf que le Test est biaisé dans le sens ou le proc est un i7 6700k dans tout les cas de figure alors qu'il aurait fallut mettre un proc contemporain au PCI 2 (en restant sur un Intel du moins ) donc socket 1366 (dernier PCI 2 il me semble) avec un i7 960 et la ont fait un test réel des capacitées de la 1080 sur du "vrai" pci 2 avec le reste qui va avec,  ça rime a rien sinon  :D
Sinon dans la même logique du test avec le i7 est la ddr4 sachant que le pci2 x4 a les mêmes perfs que l'agp8x (2go/s dans les deux cas) si une gtx1080 existait en agp je pourrais faire tourne BF1 a 125fps en 1080p,  ridicule n'est-ce pas?   :lol:

 

Je ne suis pas d'accord. Entre un PCIE 2.0 et 3.0, il n'y a pratiquement pas de différence en dehors du "quasi" doublement de la vitesse par lien. Le protocole est le même et les overheads aussi...
Donc oui un PCIE2.0 x16 est très très proche du comportement d'un PCIE3.0 x8...
Et il faut bien comparer des pommes avec des pommes et comparer un 960 avec un 6700k n'a aucun sens. Le but de l'exercice est de montrer l'impact du bus... rien d'autre...
Si tu as un 960 et des performances que tu juges insuffisantes, tu sais que c'est dû au CPU et non au bus PCIE 2.0. Cela permet de sortir une variable de l’équation.

 

Message cité 1 fois
Message édité par Nono0000 le 16-12-2016 à 14:43:55

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
Reply

Marsh Posté le 16-12-2016 à 14:55:51   0  

Citation :

Si tu as un 960 et des performances que tu juges insuffisantes, tu sais que c'est dû au CPU et non au bus PCIE 2.0. Cela permet de sortir une variable de l’équation.


 
+1
Un article daté de 2 ans :   http://www.tomshardware.fr/article [...] 350-3.html
Plus pertinent car n'utilise pas le scotch mais les possibilités de l'UEFI de la CM.


Message édité par flogger88 le 16-12-2016 à 14:56:24

---------------
http://valid.canardpc.com/ujkyk7 http://valid.canardpc.com/show_oc.php?id=2712932 http://valid.canardpc.com/show_oc.php?id=2095761
Reply

Marsh Posté le 16-12-2016 à 16:24:35   0  

Nono0000 a écrit :


 
Je ne suis pas d'accord. Entre un PCIE 2.0 et 3.0, il n'y a pratiquement pas de différence en dehors du "quasi" doublement de la vitesse par lien. Le protocole est le même et les overheads aussi...
Donc oui un PCIE2.0 x16 est très très proche du comportement d'un PCIE3.0 x8...
Et il faut bien comparer des pommes avec des pommes et comparer un 960 avec un 6700k n'a aucun sens. Le but de l'exercice est de montrer l'impact du bus... rien d'autre...
Si tu as un 960 et des performances que tu juges insuffisantes, tu sais que c'est dû au CPU et non au bus PCIE 2.0. Cela permet de sortir une variable de l’équation.
 


T'a pas compris mon cheminement, mais j'ai pas été très clair  :D  
 comparer un bus pour ce qu'il est sans prendre en compte le reste de la machine revient a pisser contre le vent, quand le protocole revient a comparer des éléments qui n'ont jamais cohabiter ensemble c'est un non sens.
C'est pas le résultat mon soucis ont connaient bien les vitesses etc....   C'est la méthode qui me chagrine, et surtout les raccourcis du pelo lambda qui va se dire une 1080 va roxer du poney avec mon c2q stock  

Reply

Marsh Posté le 16-12-2016 à 17:11:00   0  

Le X58 est la plateforme la plus evolutive depuis sa sortie en 2008.
C'est pas pour rien que pour la generation suivante Intel n'a pas refait la même erreur commerciale : il ont bloqué l'OC par le bus et reservé seulement au CPU HDG en "K".

 

Le X58 supporte les Hexacores.
Pour 70€ sur ebay t'a des 6 Cores 95W qui prennent 4.2GHz.

 

Et vous etes là a encenser le 6700K. :lol:


Message édité par saruhada le 16-12-2016 à 17:13:35

---------------
Achats & Ventes
Reply

Marsh Posté le 16-12-2016 à 18:05:44   0  

Invite_Surprise a écrit :

Pour avoir remplacé mon 2600K par un 4790K, j'ai vu une différence dans les zones CPU limited alors avec un i7 965 ça doit être encore pire.
Comparé l'influence CPU dans des zones GPU limited, ça sert quasiment à rien.
 


 
Ton 2600k était overclocké ? Si oui à combien ? Et le 4790k ?
J'ai un 2500k à 4.7 ghz et me demande si ça changerait vraiment de passer à un CPU récent.


Message édité par Prophet_ch le 16-12-2016 à 18:06:47
Reply

Marsh Posté le 16-12-2016 à 19:02:14   1  

@Prophet_ch

Citation :

J'ai un 2500k à 4.7 ghz et me demande si ça changerait vraiment de passer à un CPU récent.


 
Pour un usage normal, net, quelques jeux, multimédias, etc, sa change pas grand chose, c'est inutile de changer.
Il y aurait plus à gagner à passer à un SSD pour celui qui aurait encore son OS sur un HDD ...........


---------------
http://valid.canardpc.com/ujkyk7 http://valid.canardpc.com/show_oc.php?id=2712932 http://valid.canardpc.com/show_oc.php?id=2095761
Reply

Marsh Posté le 19-12-2016 à 08:52:49   0  

Merci, c'est ce que je me disais aussi. Au final, la technologie n'a pas tant évoluer ces dernières années. C'est même assez incroyable !

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed