Actu : Influence du PCIe sur une GTX 1080 [HFR] - HFR - Hardware
Marsh Posté le 13-12-2016 à 14:09:57 3
Cool donc je peux mettre ma GTX1080 sur une carte mère 775 sans être "Bus limited"
Marsh Posté le 13-12-2016 à 14:12:24 1
Ah cool, donc un SLI de 980Ti ne sera pas bridé par le nombre de lignes PCI d'un 4790K. Vu qu'en PCIE 3.0 x8 y'a pas de différence avec une 1080. Je me posait la question depuis un moment ^^
Marsh Posté le 13-12-2016 à 14:13:03 3
Très intéressant comme article
Marsh Posté le 13-12-2016 à 15:35:53 0
De toute façon en SLI, la liaison est faite par le pont SLI et c'est ce qui fait que le scaling n'est pas toujours bon : il suffit alors le plus souvent (quand ce n'est pas une faute logicielle bien entendu) de mettre deux ponts SLI pour obtenir un scaling de presque + 100% à coup sûr
Marsh Posté le 13-12-2016 à 15:47:28 2
ca va rabatte le clapet à quelques uns
Marsh Posté le 13-12-2016 à 15:51:53 0
Il manque des tests en SLI : avec 2 GTX1080 en 4K + pont HB, j'ai une différence de 16 % sur Witcher 3 entre du x16/x8 et x16/x16. Cela est confirmé par une autre personne sur youtube. De même, sur Project Cars, the Division, toujours en 4K, la différence est conséquente, du même ordre de grandeur.
J'ai aussi testé d'autres jeux (Tomb Raider, Deus Ex, GTA V) et aucune différence.
Marsh Posté le 13-12-2016 à 17:07:19 1
Et pour les Radeon , qu'en est-il de l'impact avec le CrossFire XDMA (sans pont) , étant donné que dans ce cas les échanges de données inter-GPU se font via le bus PCIe ?
Marsh Posté le 13-12-2016 à 17:38:51 1
En effet je vois pas trop de diff entre pcie gen 3 8x et gen2 8x avec une gtx 1070.
Sinon passer le bus de 100 MHz à 99 MHz empêche le plantage d'overwatch chez moi (avec rallonge pcie)
Marsh Posté le 13-12-2016 à 17:47:48 2
Ça passe cool quand c'est nvidia qui ce plante sur ça carte haut de gamme à 700€ pigeon !
Marsh Posté le 13-12-2016 à 17:53:45 0
Cet article n'est pas très clair pour moi. Trop technique. Quelques explications supplémentaires seraient bienvenues.
De plus, dans mon cas, quel est l'impact de faire tourner la gtx 1080 sur un 2 x PCI Express 2.0 16 (2.0 au lieu de pc express 3.0) ?
Merci.
Marsh Posté le 13-12-2016 à 17:58:58 0
Dans ton cas : "En moyenne en 1080p le passage de 16 à 8 Go/s n'est pas perceptible"
Marsh Posté le 13-12-2016 à 18:03:04 0
pinpinb a écrit : Dans ton cas : "En moyenne en 1080p le passage de 16 à 8 Go/s n'est pas perceptible" |
Le passage de pcie 2.0 à pcie 3.0 correspond donc à un passage de 8 G0/s à 16 Go/s ?
Marsh Posté le 13-12-2016 à 19:33:30 1
Ouais donc moralité pour ceux qui ont des cartes mdg ils seront limité en pci 2 x16 éventuellement par la futur GTX 4060 a peu près sur leur socket 775/1366 est encore sur 5fps
Car concrètement qui a encore une CM PCI 2 avec un monstre comme une 1080 vu le prix du bousin, le pourcentage doit friser le zéro
Marsh Posté le 13-12-2016 à 19:49:56 0
drynek a écrit : Ouais donc moralité pour ceux qui ont des cartes mdg ils seront limité en pci 2 x16 éventuellement par la futur GTX 4060 a peu près sur leur socket 775/1366 est encore sur 5fps |
L'intérêt du test n'est pas de prouver qu'une vieille carte mère fait l'affaire, mais comment la nouvelle est pas nécessairement utile.
Donc, si vous n'avez qu'un ordinateur d'OEM (HP, DELL, Acer...) qui n'a qu'une 16x (avec seulement les lignes 8x) en 3.0 ou une 16x 2.0, vous vous en sortez sans problème.
Marsh Posté le 13-12-2016 à 22:59:56 0
drynek a écrit : Ouais donc moralité pour ceux qui ont des cartes mdg ils seront limité en pci 2 x16 éventuellement par la futur GTX 4060 a peu près sur leur socket 775/1366 est encore sur 5fps |
j'ai un 2600k sur une z68 avec une gtx1070 sur un pcie 2.0 16x. ça tourne du feu de dieu.
Marsh Posté le 13-12-2016 à 23:28:19 3
metm a écrit : Ça passe cool quand c'est nvidia qui ce plante sur ça carte haut de gamme à 700€ pigeon ! |
Tu as un problème avec les S et l'expression. Je défie quiconque de comprendre ce que tu veux dire...
Pour ma part, je penche sur une conclusion que ceux qui ont une 1080 se sont fait avoir par quelque chose, mais impossible de déterminer quoi.
Marsh Posté le 14-12-2016 à 09:59:16 0
Moi ca m’arrange, je tourne en PCI 2.0 en 8x sur ma P67, je peux sereinement envisager un changement de carte graphique si je suis encore a 95% des perfs max (pas forcement pour une 1080, mais les résultats doivent être similaire pour les autres)
Marsh Posté le 14-12-2016 à 10:15:11 0
Est ce que ça veut dire que les cartes graphiques déportées par Thundebolt (ex Razer Core) sont largement viables ?
Marsh Posté le 14-12-2016 à 10:38:16 3
metm a écrit : Ça passe cool quand c'est nvidia qui ce plante sur ça carte haut de gamme à 700€ pigeon ! |
Rien compris, mais c'est bourré de fautes et ça a l'air agressif, merci de prendre tes cachets avant de venir sur le forum.
Marsh Posté le 14-12-2016 à 11:15:06 1
Sa rassurera aussi les possesseurs d'une plateforme AM3+, vu qu'ils sont encore en PCIe 2.
Marsh Posté le 14-12-2016 à 14:31:43 0
dr gast a écrit :
|
En fait, je pense que ce n'est pas la technicité de la news qui te pose problème, mais le fait que tu dois faire un effort de lecture pour trouver les informations te concernant. Allez, je suis sympa, je vais te guider :
Citation : |
Marsh Posté le 14-12-2016 à 14:57:14 0
Il commence à y avoir des différences notables avec la dernière génération. A l'époque c'était vraiment infime...
Par contre il faut prendre en considération qu'on perd d'avantage dans la réalité puisqu'on reste sur des CPU d'anciennes générations. Le test se faisant ici avec le même CPU pour se focaliser sur la vitesse du bus.
Sinon pas mal le coup du scotch sur les connectiques. Un peu goret mais c'est parfait pour le test !
Marsh Posté le 14-12-2016 à 16:11:52 0
Une petite question :
Est ce que dans une configuration crossfire, avec pont entre les deux cartes.
L'utilisation des slot PCI express change ?
Est ce que chacune des cartes communique ses données avec le processeur.
Ou le port pci express le plus rapide est privilégié.
Dans le cadre d'une configuraiton pcie 2.0 x16 / x4
Merci
Marsh Posté le 14-12-2016 à 16:24:49 0
Et dans le cas de deux AMD R9 280X.
Est ce que tout les échanges se font via le slot PCI Express le plus rapide , par exemple 2.0 x16 a 8 Gb/s
ou les deux carte se brident au minimum 2.0 x4 x4 équivalent a 2 Gb/s + 2Gb/s
Marsh Posté le 14-12-2016 à 17:18:53 0
dr gast a écrit : Cet article n'est pas très clair pour moi. Trop technique. Quelques explications supplémentaires seraient bienvenues. |
Ça veut dire qu'entre le 3.0x16 et le 2.0x16 la perte est quasi-négligeable. Il n'y a aucune raison de remplacer une carte mère PCI-E 2.0 (surtout si elle supporte le x16) pour une PCI-E 3.0 pour profiter des performances d'un GPU de dernière génération.
Marsh Posté le 15-12-2016 à 15:34:16 0
Je partage juste mon expérience, j'étai parti pour changer de PC avec des potes en aout pour faire de la réalité virtuelle. J'ai commandé une Geforce Titan P que j'ai fixée sur mon PC de novembre 2008, un chipset X58 avec un intel I7 965 et 12GO de ram et un SSD (plus récent)... Mon PC tourne aussi bien que celui de mes potes dans tous les jeux auxquels nous jouons, tous les détails au max en général (dark souls 3, witcher 3, deus EX, Starcraft, diablo, doom ... et j'en passe).
Du coup, j'ai annulé la commande de tout le materiel de remplacement (CPU, CM, Memoire...) car je n'en ai pas eu besoin. Comme quoi, le X58 avait du bon alors qu'il date de 2008 ! Pour faire le lien avec l'article, c'est du PCI Express 2.0 16x pour le port utilisé par la carte graphique.
Marsh Posté le 15-12-2016 à 15:46:36 0
Pour avoir remplacé mon 2600K par un 4790K, j'ai vu une différence dans les zones CPU limited alors avec un i7 965 ça doit être encore pire.
Comparé l'influence CPU dans des zones GPU limited, ça sert quasiment à rien.
Marsh Posté le 16-12-2016 à 12:32:41 0
Comme d'habitude depuis 20 ans en fait. Les cycles de vie des bus sont longs et il faut les introduire avant d'en avoir besoin.
---
Ça dépends du scénario mais dans un jeu on essaye d'être stable en vram ou de ne pas dépendre de quelque chose en cours de transfert.
(ie les tiles de texture, mais plus la vram est importante et le bus rapide, plus on reste sur les tiles de lod élévé)
Marsh Posté le 16-12-2016 à 13:15:42 0
kimujix a écrit : |
En théorie oui sauf que le Test est biaisé dans le sens ou le proc est un i7 6700k dans tout les cas de figure alors qu'il aurait fallut mettre un proc contemporain au PCI 2 (en restant sur un Intel du moins ) donc socket 1366 (dernier PCI 2 il me semble) avec un i7 960 et la ont fait un test réel des capacitées de la 1080 sur du "vrai" pci 2 avec le reste qui va avec, ça rime a rien sinon
Sinon dans la même logique du test avec le i7 est la ddr4 sachant que le pci2 x4 a les mêmes perfs que l'agp8x (2go/s dans les deux cas) si une gtx1080 existait en agp je pourrais faire tourne BF1 a 125fps en 1080p, ridicule n'est-ce pas?
Marsh Posté le 16-12-2016 à 14:18:03 0
drynek a écrit :
|
Je ne suis pas d'accord. Entre un PCIE 2.0 et 3.0, il n'y a pratiquement pas de différence en dehors du "quasi" doublement de la vitesse par lien. Le protocole est le même et les overheads aussi...
Donc oui un PCIE2.0 x16 est très très proche du comportement d'un PCIE3.0 x8...
Et il faut bien comparer des pommes avec des pommes et comparer un 960 avec un 6700k n'a aucun sens. Le but de l'exercice est de montrer l'impact du bus... rien d'autre...
Si tu as un 960 et des performances que tu juges insuffisantes, tu sais que c'est dû au CPU et non au bus PCIE 2.0. Cela permet de sortir une variable de l’équation.
Marsh Posté le 16-12-2016 à 14:55:51 0
Citation : Si tu as un 960 et des performances que tu juges insuffisantes, tu sais que c'est dû au CPU et non au bus PCIE 2.0. Cela permet de sortir une variable de l’équation. |
+1
Un article daté de 2 ans : http://www.tomshardware.fr/article [...] 350-3.html
Plus pertinent car n'utilise pas le scotch mais les possibilités de l'UEFI de la CM.
Marsh Posté le 16-12-2016 à 16:24:35 0
Nono0000 a écrit : |
T'a pas compris mon cheminement, mais j'ai pas été très clair
comparer un bus pour ce qu'il est sans prendre en compte le reste de la machine revient a pisser contre le vent, quand le protocole revient a comparer des éléments qui n'ont jamais cohabiter ensemble c'est un non sens.
C'est pas le résultat mon soucis ont connaient bien les vitesses etc.... C'est la méthode qui me chagrine, et surtout les raccourcis du pelo lambda qui va se dire une 1080 va roxer du poney avec mon c2q stock
Marsh Posté le 16-12-2016 à 17:11:00 0
Le X58 est la plateforme la plus evolutive depuis sa sortie en 2008.
C'est pas pour rien que pour la generation suivante Intel n'a pas refait la même erreur commerciale : il ont bloqué l'OC par le bus et reservé seulement au CPU HDG en "K".
Le X58 supporte les Hexacores.
Pour 70€ sur ebay t'a des 6 Cores 95W qui prennent 4.2GHz.
Et vous etes là a encenser le 6700K.
Marsh Posté le 16-12-2016 à 18:05:44 0
Invite_Surprise a écrit : Pour avoir remplacé mon 2600K par un 4790K, j'ai vu une différence dans les zones CPU limited alors avec un i7 965 ça doit être encore pire. |
Ton 2600k était overclocké ? Si oui à combien ? Et le 4790k ?
J'ai un 2500k à 4.7 ghz et me demande si ça changerait vraiment de passer à un CPU récent.
Marsh Posté le 16-12-2016 à 19:02:14 1
@Prophet_ch
Citation : J'ai un 2500k à 4.7 ghz et me demande si ça changerait vraiment de passer à un CPU récent. |
Pour un usage normal, net, quelques jeux, multimédias, etc, sa change pas grand chose, c'est inutile de changer.
Il y aurait plus à gagner à passer à un SSD pour celui qui aurait encore son OS sur un HDD ...........
Marsh Posté le 19-12-2016 à 08:52:49 0
Merci, c'est ce que je me disais aussi. Au final, la technologie n'a pas tant évoluer ces dernières années. C'est même assez incroyable !
Marsh Posté le 13-12-2016 à 13:58:14 1
Nos confrères de techPowerUp ont évalué l'impact de la vitesse PCI Express sur une GeForce GTX 1080. Plusieurs vitesses ont été testées en jouant sur le nombre ...
Lire la suite ...
Message édité par Marc le 13-12-2016 à 13:59:14