Maxwell un problème de performance en Async Compute/Async Shader ? - Carte graphique - Hardware
Marsh Posté le 01-09-2015 à 12:37:38
Benchmark Async Compute/Shaders
GTX 960 :
Spoiler : Compute only: |
R9 280X :
Spoiler : Compute only: |
Marsh Posté le 01-09-2015 à 15:16:40
C'est compliqué d'activer ou désactiver l'utilisation de l'Async Compute selon le GPU sur un même jeu? Je doute que ce soit aussi lourd que de développer en parallèle une version DX11 et une DX12.
Marsh Posté le 01-09-2015 à 15:22:12
kimujix a écrit : C'est compliqué d'activer ou désactiver l'utilisation de l'Async Compute selon le GPU sur un même jeu? Je doute que ce soit aussi lourd que de faire une version DX11 et une DX12. |
Non ce n'est pas dur, mais le fait de ne pas pouvoir en tirer avantage apporte moins de performance aux Geforces. DirectX12 permets d'augmenter la limite de draws calls(en réduisant l'overhead), ajoute de la flexibilité mais l'Async Compute/Shader reste quand même une fonctionnalité importante de DirectX12.
Marsh Posté le 01-09-2015 à 17:42:13
Donc rien n'empêche réellement d'intégrer l'Async Compute en tant qu'option qui s'activera ou non selon le GPU détecté. Ça évitera aux GPUs Maxwell de s’emmêler les pinceaux à cause de leur vrai-faux support (cf Ashes of singularity) et on aura un bonus de perfs avec les GPUs GCN.
C'est quand même beaucoup moins méchant que le principe de Gameworks ou pire le coup de la tesselation appliquée à des éléments invisibles ou trouzmilles triangles pour un truc qui n'en nécessite que 3 pour arrondir un angle. Ces méthodes font chuter les perfs chez tout le monde, c'est juste un peu moins lourd chez Nvidia. Async Compute fait gagner des perfs, en l'intégrant on ne pénalise pas les cartes Nvidia, il suffit qu'il se désactive si ça leur cause des soucis. Et puis c'est une ressource accessible à tous, ce n'est pas un truc proprio, si Nvidia le veut ils n'ont qu'a sortir des GPUs qui le gèrent (et ils auront probablement un support complet avec Pascal).
C'est comme si à l'époque des premières cartes accélératrices on s'était dit "bon alors on ne va pas faire de version glide parce que les gens qui n'ont pas de 3Dfx ne pourront pas en profiter". On gagne quelque chose si on a le matos pour ou on ne gagne rien si on l'a pas, mais on ne retire rien à personne.
Marsh Posté le 01-09-2015 à 20:06:32
http://forum.beyond3d.com/posts/1869304/
http://forum.beyond3d.com/posts/1869302/
Marsh Posté le 02-09-2015 à 13:21:13
PCPer a fait un article sur le sujet et attend des réponses de NVidia.
http://www.pcper.com/reviews/Edito [...] us-Shaders
Marsh Posté le 02-09-2015 à 23:16:06
matyas69 a écrit : Je reprends la suite du topic fermé et recréé un topic approprié |
A la lecture du thread de beyond3d, j'ai l'impression qu'il faut comprendre plutôt que le temps sur gcn n'augmente pas en fonction du nombre contrairement à maxwell car le code de calcul (le kernel compute) ne semble pas être adapté aux gcn (driver peut-être)
In the second test the loop iterates 524,288 times. That's 20ms. So now we get to some truth about this kernel, it runs vastly slower on AMD than on NVidia. OK, there's still 6 ms that I can't explain (which is as much time as GM200 spends), but I think we've almost cracked one of the mysteries for the bizarre slowness on AMD
Apart from that I can't help wondering if the [numthreads(1, 1, 1)] attribute of the kernel is making AMD do something additionally strange.
https://forum.beyond3d.com/threads/ [...] 88/page-18
bon après je ne suis pas spécialiste même si mon métier est développeur à la base.
Marsh Posté le 03-09-2015 à 06:50:09
mogana a écrit : A la lecture du thread de beyond3d, j'ai l'impression qu'il faut comprendre plutôt que le temps sur gcn n'augmente pas en fonction du nombre contrairement à maxwell car le code de calcul (le kernel compute) ne semble pas être adapté aux gcn (driver peut-être) In the second test the loop iterates 524,288 times. That's 20ms. So now we get to some truth about this kernel, it runs vastly slower on AMD than on NVidia. OK, there's still 6 ms that I can't explain (which is as much time as GM200 spends), but I think we've almost cracked one of the mysteries for the bizarre slowness on AMD Apart from that I can't help wondering if the [numthreads(1, 1, 1)] attribute of the kernel is making AMD do something additionally strange. https://forum.beyond3d.com/threads/ [...] 88/page-18 bon après je ne suis pas spécialiste même si mon métier est développeur à la base. |
Citation :
MAXWELL |
Je comprends pas ce que tu veux dire c'est exactement ce que je dis.
Apparemment depuis la dernière version les Radeons ne sont plus affectés par cette latence et se comporte maintenant comme les Geforces en compute mais au final c'est toujours la même histoire les Geforces s'engorgent beaucoup plus vite que les Radeons. J'ai l'impression de revivre la même chose qu'à l'époque des HD 58XX et des GTX 4XX avec la tesselation mais en sens inverse
Apparemment et cela revient plus fois depuis quelques jours, ce serait apparemment dû au fait que Nvidia a besoin d'un scheduler software pour utiliser le Mixed Mode alors que celui d'AMD est hardware. En utilisant le Graphics mode seul, le scheduler est hardware(bon pour la VR)
Citation : As you can see, Maxwell 2.0 does support mixed mode and upto 31 compute queues in conjunction with its primary graphics Queue. No other Nvidia architecture has this capability without involving a complete mode switch. Now this where things get a bit muddy. Since there is no clear documentation, and since Nvidia has yet to release an official statement on the matter, it is alleged (read: not confirmed in any way), that Nvidia’s mixed mode requires the use of a software scheduler which is why it is actually expensive to deploy even on Maxwell 2.0. |
On attends toujours la réaction de Nvidia.
Marsh Posté le 04-09-2015 à 00:00:39
matyas69 a écrit :
|
Ce que je dis c'est que peut-être le code n'est pas efficient sur gcn et que donc le temps unitaire des compute n'est pas à considérer.
En gros tu as t < 10ms sur nvidia et y > 40ms sur amd, et bien ce que semble dire certains gars sur beyond3d, c'est que le code lui-même n'est pas adapté à gcn et que donc on ne peut conclure sur l'efficacité des unités de calcul elles-mêmes (en effet j'ai du mal à imaginer qu'en compute only qu'une unité nvidia soit 5 fois plus rapide qu'une unité amd, mais qui sait).
par contre, en augmentant le nombre de tâches ça évolue à la baisse sur nvidia et constant sur amd.
enfin bref, c'est juste ce que je comprends, je ne suis pas un expert.
Marsh Posté le 04-09-2015 à 09:11:21
C'est le cas, de toute façon le test ne testait pas l'efficacité des unités mais si l'Async Compute était actif.
Marsh Posté le 04-09-2015 à 10:46:54
matyas69 a écrit : C'est le cas, de toute façon le test ne testait pas l'efficacité des unités mais si l'Async Compute était actif. |
on est d'accord
Marsh Posté le 09-09-2015 à 18:59:01
Franchement si cela s'avère vrai que Nvidia essaie de forcer l'arrêt de l'utilisation de l'Async Compute / Shader ça serait franchement déguelasse pour les utilisateurs de Radeons puisque leur cartes auront de la marge sous la pédale. Cela dit je peux comprendre que les utilisateurs de Geforce aimeraient pouvoir jouer
Marsh Posté le 10-09-2015 à 20:20:42
Zurkum a écrit : Franchement si cela s'avère vrai que Nvidia essaie de forcer l'arrêt de l'utilisation de l'Async Compute / Shader ça serait franchement déguelasse pour les utilisateurs de Radeons puisque leur cartes auront de la marge sous la pédale. Cela dit je peux comprendre que les utilisateurs de Geforce aimeraient pouvoir jouer |
De ce que j'ai compris, la désactivation n'aurait lieu que si le jeu détecte une GeForce. Sur les Radeon ça fonctionnerait normalement avec un net gain. Comme ça, tout le monde est content
Marsh Posté le 10-09-2015 à 21:03:32
Lyto a écrit : |
ça c'est seulement pour Ashes Of Singularity, ça dépendra des jeux et donc du bon vouloir des développeurs.
Marsh Posté le 11-09-2015 à 03:22:02
Il y a quand même un truc qui m'intrigue avec le bench d'Ashes of Singularity. A part Project Cars je ne connais aucun jeu DX11 où la GTX 980 met un tel vent à la R9 390X, sans DX12 la 390X est complètement à la ramasse. Pourquoi ici c'est la cata alors qu'ailleurs elle se défend plutôt bien face à la GTX 980?
Marsh Posté le 11-09-2015 à 04:12:59
kimujix a écrit : Il y a quand même un truc qui m'intrigue avec le bench d'Ashes of Singularity. A part Project Cars je ne connais aucun jeu DX11 où la GTX 980 met un tel vent à la R9 390X, sans DX12 la 390X est complètement à la ramasse. Pour ici c'est la cata alors qu'ailleurs elle se défend plutôt bien face à la GTX 980? |
Les GeForce sont supérieurs aux Radeon en draw calls ST&MT sous DX11 ainsi qu'en puissance brute pour les calculs géométriques, donc pour les scènes très complexes en DX11 elles vont exploser les Radeon.
La vrai question est savoir si le bench de AoS est représentatif de l'expérience en jeux ou si il sert a comparer des scènes complexes sous DX11 à la même chose en DX12. (Un des buts premier de DX12 étant justement d'être plus efficace dans les scènes complexes)
Marsh Posté le 11-09-2015 à 04:43:04
ReplyMarsh Posté le 11-09-2015 à 05:13:45
kimujix a écrit : Il n'y a aucun jeu DX11 qui fasse autant appel à ces fonctions que AoS? |
Faudrait que je retrouve l'article pour les chiffres exacts, mais de mémoire les jeux DX11 utilisent 200k~500k draw calls en moyenne avec les plus complexes qui monte jusqu'à ~700k. On est encore assez loin des ~1.1 millions supporté par les R9 (~2.3 millions en MT pour une GTX980). Le problème n'existe pas en DX12 parce qu'une simple 290X peu en faire ~16 millions.
Donc c'est possible que le bench de AoS sature les Radeon en DX11.
Marsh Posté le 11-09-2015 à 07:26:26
Kernel-Panic a écrit : |
Intéressant.
Et quand tu parles des "plus complexes" tu veux parler de quels moteurs de jeu par exemple ?
Marsh Posté le 15-09-2015 à 13:22:23
Bonjour,
Il y a ce lien qui parle du sujet
https://www.reddit.com/r/pcmasterra [...] port_dx12/
Je poste pas pour l'article en lui même, qu'on connaît déjà tous, mais surtout pour les commentaires en dessous qui sont intéressants.
Apparemment Ark Survival evolved aurait dû avoir son patch directX 12 mais il n'est pas sorti et on ne sait pas pourquoi.
Bien que n'ayant aucune preuve, on peut supposer que nvidia est en train de jouer de son influence pour qu'on utilise pas async compute dans les jeux actuels. d'ou le retard de directX12 dans ark.
En tout cas nvidia communique pas alors que le sujet est très grave, donc il veulent que ça passe innaperçu et vont se servir de leur influence pour que async compute ne soit pas utilisé. En effet c'est quand même vachement étrange qu'on ai eu un seul bench directX12 et depuis nada, vous trouvez pas ?
ça va durer jusqu'à la prochaine génération de gforce.
En tout cas acheter une maxwell aujourd'hui c'est acheter une carte qui a une durée de vie de six mois.
En effet async compute semble être la fonction qui donne un coup de pied au cul aux perfs.
Marsh Posté le 15-09-2015 à 13:37:11
Salut,
LePcFou a écrit : Apparemment Ark Survival evolved aurait dû avoir son patch directX 12 mais il n'est pas sorti et on ne sait pas pourquoi. |
Une simple supposition ...
LePcFou a écrit : En tout cas nvidia communique pas alors que le sujet est très grave, donc il veulent que ça passe innaperçu et vont se servir de leur influence pour que async compute ne soit pas utilisé. En effet c'est quand même vachement étrange qu'on ai eu un seul bench directX12 et depuis nada, vous trouvez pas ? |
... se transforme en accusation (avec sous entendu et sans aucune preuve).
LePcFou a écrit : ça va durer jusqu'à la prochaine génération de gforce. |
Puis viens les propos complétement farfelu et trollesque.
LePcFou a écrit : En effet async compute semble être la fonction qui donne un coup de pied au cul aux perfs. |
Et pour finir l’affirmation erroné, mais qui passe bien, pour enfoncer le clou.
@LePcFou je suis désolé, mais c'est à cause de commentaires comme le tiens que le Topic précédent à été fermé. C'est très dommage de ne pas pouvoir discuter "Hadware & technique" dans ce genre de situation, à cause d'affirmation et de grossier raccourcis comme tu viens de nous en faire la démonstration.
Marsh Posté le 15-09-2015 à 14:54:38
La modération confirme .
Faites attention à ce que vous écrivez et évitez les informations à l'emporte pièce qui ressemble plus à des idées personnelles que des faits .
Marsh Posté le 15-09-2015 à 15:02:53
Juste une petite question:
Si DX12 est un dérivé de Mantle, les perfs des AMD ne se seraient pas déjà envolées par rapport à DX11 sur Battlefield par exemple ?
EDIT : sauf si évidemment Mantle ne prenait de toute manière pas les "Async..." ?
Marsh Posté le 15-09-2015 à 15:07:09
Hive a écrit : Si DX12 est un dérivé de Mantle, les perfs des AMD ne se seraient pas déjà envolées par rapport à DX11 sur Battlefield par exemple ? |
Mantle, initialement, c'est pour remettre les FX dans la course qu'AMD à investie la dedans.
DX12 devrais avoir le même objectif, mais étendu à plus de jeux (pas seulement battlefield).
Marsh Posté le 15-09-2015 à 15:15:04
Comme je l'avais dit dans un topic en passant, NVidia a parfaitement optimisé ses cartes pour du Directx11, larguant AMD derrière dans le très haut de gamme.
AMD a développé Mantle, repris ensuite dans directx12, donc AMD avait déjà conscience des enjeux à bas niveau que représente la nouvelle API et a pu créer une architecture orentée dx12 mais qui (malheureusement diront certains) n'était pas forcément très optimisée dx11 (quoique AMD se défend quand même très bien quoi qu'on en dise sur la plupart des segments), API du moment.
D'après moi (je vais me faire taper) les tests qui sortiront bientôt n'ont pas vraiment d'importance puisque les deux acteurs principaux vont sortir d'ici un an (~) leurs nouvelles gammes totalement tournées vers dx12, avec en plus une architecture totalement remaniée et un nouveau type de mémoire (HBM2).
Et c'est là que tout se jouera vraiment, surtout la survie d'AMD qui est asphyxié d'un côté par NVidia et ses 80% de parts de marché et de l'autre par ses créanciers qui attendent un remboursement important en 2017 il me semble (à confirmer, j'ai aussi 2019 qui trotte en tête).
D'où une question qui, pour moi, a toute son importance : est-ce que pour vous ces tests seront déterminants pour passer par exemple d'une 970 à une 380x si la domination AMD est confirmée ? Je ne pense pas que les résultats entraînent de gros changements de camp surtout sur une génération de CG qui sera déjà bien entamée.
Marsh Posté le 15-09-2015 à 15:18:45
A ce sujet j'ai vu 2019 moi, mais je n'ai pas de source à citer.
Marsh Posté le 15-09-2015 à 15:23:26
Crashdent a écrit : |
Mantle pour remettre dans la course les FX
je te cite et te renvoie ta propre remarque ( même si elle ne s'adressait pas à moi ) car en terme de raccourci bien foireux tu le surpasses largement
Citation : @ |
Marsh Posté le 15-09-2015 à 15:25:30
Golbam a écrit : D'où une question qui, pour moi, a toute son importance : est-ce que pour vous ces tests seront déterminants pour passer par exemple d'une 970 à une 380x si la domination AMD est confirmée ? Je ne pense pas que les résultats entraînent de gros changements de camp surtout sur une génération de CG qui sera déjà bien entamée. |
A mon avis non.
Le facteur temps est essentiel. Personne n'est dupe, les cartes DX11 seront forcément larguées quand DX12 sera pleinement opérationnelle (avec les 14/16nm de gravure et la HBM2).
Mais cette transition ne va pas se faire en 3 semaines, ça va prendre plus d'un an (grand minimum). Et même après, les grosses cartes DX11 ne seront pas ridicules (très bonne puissance de calcul).
La vrai question, c'est plutôt acheter en 2015, ou attendre 2016.
La 970 restera une excellente carte et un très bon choix pour jouer dans les 2 prochaines années. La question de "l’après" se posera quand on y sera.
Les possesseurs de HD7950 et GTX 670 auront surement une bonne raison de faire l'upgrade dans 1an et demi.
Marsh Posté le 15-09-2015 à 15:32:46
Effectivement, je me plante complétement (faut que j'arrête de lire les commentaires et que je me concentre sur les articles sérieux).
Il me semblais tout fois qu'il y avais un gain coté CPU : http://www.gamersnexus.net/guides/ [...] -benchmark Non ?
Marsh Posté le 15-09-2015 à 15:32:53
Crashdent a écrit : |
Qu'on me mette du DP1.4 (parce que le 1.3 bon, voilà quoi), et des écrans 4K G sync 144 Hz 3D Radis (oui totalement kikoo et alors?) et je serai comblé.
Je me demande si Intel mettra du Intel HD Graphics sur ses i7-X960X pour booster dx12 ?
Marsh Posté le 15-09-2015 à 16:15:26
TotalRecall a écrit : La modération confirme . |
C'est bien beau de poster pour dire que ça ne passe pas, mais encore faudrait il censurer pour pas que ça soit pris pour argent content par le premier lurker venu. ;o
Marsh Posté le 15-09-2015 à 16:17:47
Crashdent a écrit : |
Gain CPU oui. Sauf que le CPU est très rarement limitant actuellement à part dans de rares scènes dans de rares jeux qui plus est.
Bien qu'il y est du gain, donc, mais de là à dire que ça va relancer une archi, faut pas exagérer.
Marsh Posté le 15-09-2015 à 16:25:10
Le Profanateur a écrit :
|
Et puis quoi encore ? On peut intervenir pour les injures ou les trolls au premier degré, mais pour les simples divergences d'opinion ou les arguments spécieux il n'y a pas grand chose à faire, c'est un forum ici, pas une école maternelle, les gens n'ont qu'à brancher leur cerveau en lisant et ne pas s'arrêter au premier message. Si par contre l'auteur insiste malgré les avertissements, il y a le bouton d'appel à la modération.
Marsh Posté le 15-09-2015 à 16:27:38
Tout à fait, merci pour la précision.
Edit pour pas surcharger la page : Non ceci ne présage pas de possibles alertes Bien que certains trolleurs récurent dans la cat news mériterait un ban tellement c'est puérile et saoulant...
Marsh Posté le 15-09-2015 à 16:31:00
En lisant ta réponse je ne sais pas pourquoi j'ai l'impression que je vais bientôt recevoir une alerte modération
Marsh Posté le 15-09-2015 à 16:41:12
Pas brillant d'appeler à la censure en France pays de la liberté.
Essaye plutôt de trouver des arguments constructifs pour expliquer le silence de nvidia sur le sujet.
Ce silence n'est il pas lourd de sens ?
Et n'oublions pas que c'est une marque qui a rajouté de la tesselation inutile dans Crysis 2 pour faire chuter les perfs des radeon quand même.
Également on est sûr qu'ils ont fait pression pour faire retirer async compute dans ashes of singularity, n'est il pas légitime de penser qu'ils le font aussi pour d'autres applications, connaissant nvidia ?
Marsh Posté le 15-09-2015 à 16:43:25
J'y suis pour rien (pour une fois )
Marsh Posté le 15-09-2015 à 16:43:28
LePcFou a écrit : Pas brillant d'appeler à la censure en France pays de la liberté. |
Je vois pas en quoi le fait d'ajouter une option désactivable fait chuter les perfs de quoi que ce soit. C'est comme si on te donnait un vélo et que tu as une voiture à côté et que tu te sentes obligé de prendre la vélo à la place de la voiture et qu'en suite tu râles que ça va plus lentement alors que c'est une option en plus uniquement si tu as la puissance pour... Enfin tu persistes à désigner NV comme le grand méchant.
Marsh Posté le 01-09-2015 à 12:23:09
Je reprends la suite du topic fermé et recréé un topic approprié
http://forum.hardware.fr/hfr/Hardw [...] m#t9598542
Ses dernières semaines ont été agités, entre la sortie de l'alpha de Ashes Of Singularity et les benchmarks des Async Compute/Shader.
En fait, il y a deux problèmes de fond :
D'un côté Oxide en partenariat avec AMD pour le développement de Ashes Of Singularity annonce que Nvidia ne supporte pas vraiment les Async Compute/Shader, que Nvidia a demandé de les désactiver car ceux-ci faisait baisser les performances.
D'un autre côté, un développeur de Beyond3D a développé un programme pour tester les Async Compute/Shader. Sur les cartes AMD, la tâche compute prends un certain temps(plus élevé que chez Nvidia mais est fixe) mais l'utilisation des Async Compute/Shader est bénéfique, le fait d'ajouter une charge graphique n'augmente pas le temps nécessaire au traitement. De plus même avec 128 kernels les performances ne faiblissent pas, même sur GCN 1.0 qui n'est sensé gérer que 16 files d'attente.
De leur côté les Geforces traitent les tâches computes très rapidement mais en fonction du nombre de files d'attente(16 pour Maxwell 1, 31 pour Maxwell 2). Au dela les performances baissent mais restent à un niveau correct.(En compute la GTX 960 rivalise avec la Fury X). Une fois les tâches en parallèle, au lieu de ne pas augmenter le temps de traitement les tâches s'additionnent et le temps nécessaire au traitement se voit augmenter. Les Async Compute/Shader ne sont donc pas actifs au sens propre du terme.
/!\ Ce test ne compare pas l'efficacité des unités Compute, il sert juste à déterminer si l'Async Compute/Shader est actif. Selon l'optimisation du code les AMD peuvent fournir beaucoup plus de puissance en Compute.
Du coup les développeurs peuvent très bien partirent dans plusieurs directions.
- Limiter les Async Compute/Shader à 31 kernels(voir 62) pour avantager les Geforces, les AMD ne tireront pas partie de leurs puissance de traitement supplémentaires en termes d'Async Compute/Shader
- Augmenter à la limite à plus de 62 kernels et avantager la puissance de traitement des Async Compute/Shader d'AMD plombant alors les performances des Geforces.
- Ne pas utiliser les Async Compute/Shader
Les consoles tirant partis de l'architecture GCN, les développeurs peuvent très bien prendre la seconde solution car comme nous l'avons vu les 128 threads ne pose aucun problème à la R9 280X malgré un nombre d'ACE réduit.
Certains jeux annoncent déjà leurs utilisations de l'Async Compute/Shader :
- Rise Of Tomb Raider
- Fable
- Deus Ex: Mankind Divided
Nous attendons de plus amples informations de la part de Nvidia par rapport aux Async Compute/Shader.
Quelques infos par ici :
https://forum.beyond3d.com/threads/ [...] its.54891/
https://www.reddit.com/r/nvidia/com [...] a_cant_do/
https://forum.beyond3d.com/threads/ [...] ead.57188/
https://www.reddit.com/r/pcgaming/c [...] rt/cullj3d
Je compléterais le topic au fur et à mesure.
Ne t'inquiètes pas je n'essayes pas de minimiser le problème(sinon je n'aurais pas demandé de renommer le topic ainsi). Mais le fait que les performances régressent en DirectX12 m'interpelle sachant que seul l'API change. L'Async Compute/Shader n'est pas actif en DirectX11. Au pire les performances devraient être similaires.
Pour les AMD les performances augmentent car DirectX12 permets de réduire l'overhead, les cartes ne sont plus bridés par le cpu et peuvent s'exprimer. L'Async Compute/Shader permets de gagner en temps de rendu et d'augmenter les fps.
Mais ce qui me chagrine c'est que pour la même scène et les mêmes settings, la charge graphique devraient être similaire. Malheureusment cela ne semble pas être le cas. La faute sûrement à l'utilisation de tâches compute et graphiques qui se fait en parallèle sur AMD alors que cela est effectué en série sur Nvidia(car désactivé).
J'aimerais connaitre la raison de la demande de désactivation par Nvidia(pilotes pas encore optimisé, limitation hardware ? Peu importe ce que cela est, j'ai besoin de savoir).
En tout cas on voit que l'optimisation de l'overhead des pilotes DirectX11 est telle que l'apport de DirectX12 est discutable pour les possesseurs de cartes Nvidia dans ce jeu.
Les limitations sont les suivantes : 16 files d'attente pour GCN 1.0, 1.1(Tahiti, Bonaire, Pitcairn), 64 pour GCN 1.2(Hawaii, Tonga). 16 pour Maxwell 1, 31 pour Maxwell 2.
En dessous de 32 files les Geforce sont plus rapides, au dessus les performances sont réduitent mais reste correctes. Le problème des premiers benchmarks Async Compute/Shader c'est que sur les Geforce le temps nécessaire a un rendu + tâche compute s'ajoute, alors que cela ne devrait pas(principe même de l'Async Compute/Shader).
Du coup cela revient à ma question de plus haut. Que se passe t-il avec les Async Shaders/Compute chez Nvidia ?
Message édité par matyas69 le 04-09-2015 à 09:18:56