Actu : GDC: Nvidia parle du Tile Caching de Maxwell et Pascal [HFR] - HFR - Hardware
Marsh Posté le 08-03-2017 à 20:40:02 3
Ceci explique donc les glitches graphiques (des carrés verts / violets) que l'on peut rencontrer sur les GeForce Maxwell (en version 1.0 et 2.0) et Pascal lorsque certains effets graphiques liés au filtrage sont activés (Just Cause 2-Bokeh Filter par exemple).
Vidéo: https://www.youtube.com/watch?v=eMiUAbt3Keo
Marsh Posté le 08-03-2017 à 21:00:30 0
Ce genre d'optimisation n'ajouterait-elle pas une latence sur le rendu ?
Marsh Posté le 08-03-2017 à 21:06:35 2
Si mais elle est anecdotique. On est plutôt à l'échelle d'une µs que d'une ms !
Marsh Posté le 08-03-2017 à 21:38:47 1
Bien vu HFR, vous aviez vu juste quand vous parliez d'optimisation opportuniste.
(cf l'article linké dans celui-ci).
Marsh Posté le 08-03-2017 à 21:53:52 2
Après je n'avais pas vu le fonctionnement exact non plus hehe
Marsh Posté le 08-03-2017 à 23:03:59 3
Il y a malheureusement un certain nombre de jeux anciens et/ou plus mis à jour qui sont affectés par des erreurs de rendu lié à ça. The Secret World + FXAA en est un exemple. nVidia contacté n'a bien sûr rien fait pour ces jeux mineurs ou oubliés...
Marsh Posté le 09-03-2017 à 10:36:21 0
ReplyMarsh Posté le 09-03-2017 à 12:09:21 0
Pour les artefacts je vois pas trop comment ça peut les provoquer, vu que ça ne change pas le rendu. Les devs ont exploité un comportement indéfini pour grapiller des perfs ?
Sinon, rien de nouveau par rapport à ce qu'on pouvait apprendre en suivant le sujet de discussion sur Real World Technologies, le comportement de ces GPU a été examiné en détail. Bizarre que nVidia ait communiqué aussi peu là dessus vu l'argument commercial que ça pouvait être, sachant que des gens chez la concurrence étaient au courant déjà bien avant.
Et en plus de la taille du L2, ça explique aussi pourquoi nVidia a équipé ses GPU d'autant de ROP, largement plus que ce que la bande passante mémoire aurait pu supporter.
Marsh Posté le 09-03-2017 à 12:16:31 0
Et des GPU Nvidia réellement conçu pour le DX12, c'est toujours pas prévu??
Marsh Posté le 09-03-2017 à 13:08:55 0
Citation : Nvidia nous précise qu'aucun cache spécifique n'a été implémenté et que c'est le cache L2 qui est exploité. C'est la raison pour laquelle il a fait un bond énorme en taille à partir des GPU Maxwell (1 voire 2 Mo par 128-bit de bus contre 256 Ko sur Kepler) |
Citation : Nvidia parvient à obtenir des gains sympathiques |
Vu comme ca est-ce que ca veut dire que la taille de la L2 est dictee par cette technique qui n'apporte que des gains "sympathiques" ? La L2 ca reste quand meme un sacre paquet de transistors, ou du "real estate" sur le chip comme on dit. Ca donne l'impression que c'est cher paye
Marsh Posté le 09-03-2017 à 13:27:10 1
yamada-kun a écrit : Il y a malheureusement un certain nombre de jeux anciens et/ou plus mis à jour qui sont affectés par des erreurs de rendu lié à ça. The Secret World + FXAA en est un exemple. nVidia contacté n'a bien sûr rien fait pour ces jeux mineurs ou oubliés... |
Ce n'est qu'une optimisation, pas une technique de rendu obligatoire, il suffit de désactiver cette optimisation pour supprimer le bug. Mais il est vraisemblable que si NVidia ne l'a pas fait, c'est que la raison n'est pas le Tile Caching.
Marsh Posté le 09-03-2017 à 13:29:34 0
samurai80 a écrit :
|
C'est le job des ingénieurs de calculer le coût en transistor d'augmenter le cache tout en introduisant cette technique par rapport a d'autres optimisations possibles. A priori, si cela a été fait sur Maxwell et Pascal, c'est que c'est rentable. L'architecture GPU NVidia est différente de celle d'AMD ou Intel, leurs contraintes sont différentes et forcément leur choix aussi.
Marsh Posté le 09-03-2017 à 13:31:14 1
HashBoost a écrit :
|
Plus vraisemblable que le jeu est au dessous du niveau de la mer en terme de priorités. Au moins qu'ils exposent le flag de désactivation, qu'on puisse en avoir le coeur net...
Marsh Posté le 09-03-2017 à 14:21:48 0
samurai80 a écrit : Vu comme ca est-ce que ca veut dire que la taille de la L2 est dictee par cette technique qui n'apporte que des gains "sympathiques" ? La L2 ca reste quand meme un sacre paquet de transistors, ou du "real estate" sur le chip comme on dit. Ca donne l'impression que c'est cher paye |
Sur Maxwell 2, généralement un quart du cache L2 est réservé pour stocker une tile du framebuffer (512 ko sur GTX 980/970, 256 ko sur GTX 960/950...), et 64 ko pour la géométrie. Ce sont les valeurs par défaut vu que c'est une application inconnue des pilotes. Ça fait donc un peu moins de trois quarts du L2 qui servent à autre chose. Cette optimisation n'est donc pas si cher payée, sachant que si on suit l'évolution des technos, on est de plus en plus limités par la bande passante mémoire et de moins en moins par le nombre de transistors (vs consommation). Il y a quelques générations ça aurait été plus rentable de mettre plus d'unités de calculs à la place de ce cache par exemple.
Marsh Posté le 09-03-2017 à 14:24:15 0
ockiller a écrit : |
Je vois, merci, effectivement ca se comprend dans ce sens la.
Marsh Posté le 09-03-2017 à 15:41:45 2
Alexko a écrit : Damien, tu penses que c'est ça qu'AMD fait sur Vega ? |
Oui c'est ce que fait AMD à sa sauce, mais ils ont repris le même principe.
Marsh Posté le 09-03-2017 à 16:31:12 1
C'est bien beau ces optis mais ca a l'air d'être au cas par cas via une opti des drivers. Je n'aime pas tpos ce type d'opti car y a toujours la crainte que les anciens modèles de cartes n'en bénéficierons plus ou peu a chaque sortie de nouveau modèles chez nvidia...
Marsh Posté le 08-03-2017 à 20:13:15 1
En parallèle de la GDC et lors de la présentation à la presse de la GeForce GTX 1080 Ti, Nvidia a communiqué officiellement pour la première fois au sujet ...
Lire la suite ...