ATI accuse nVidia de tricher dans Doom III - Carte graphique - Hardware
Marsh Posté le 18-09-2004 à 22:32:30
http://www.infos-du-net.com/forum/ [...] tion-doom3
Qui a dit que ATI etait lésé???
Marsh Posté le 18-09-2004 à 22:53:53
Ba moi je vois pas où est le mal ... tant que nous, joueur, sa nous gêne pas. Ici ce que je vois c'est qu'avec Nvidia c'est aussi beau et ça rame moins
Marsh Posté le 18-09-2004 à 23:44:04
franchement se qui compte c'est le résultat!!! et la ben ATI n'a riena dire y'en a pa un pour racheter l'autre en terme d'optimisation ; cf les "optimisation sur le filtrage anusotrope" NON DESACTIVABLE d'ATI par exemple.....
le résultat est que les carte Nvidia marche du tonner sur ce jeu et c'est tou bénef pour nous les joueurs !
Marsh Posté le 18-09-2004 à 23:58:44
OES a écrit : Ba moi je vois pas où est le mal ... tant que nous, joueur, sa nous gêne pas. Ici ce que je vois c'est qu'avec Nvidia c'est aussi beau et ça rame moins |
Faut voir que ça ne s'applique à Doom3 que parce que tous les gigolos benchenront avec. Doom3 n'aurait pas été employé pour bencher (comme Q3 avant), nV n'aurait pas pris le temps de faire du remplacement de shaders, c'est ça que ça veut dire.
Pour le filtrage anisotropique chez ATI, la différence se situe sur el fait que là, le bricolage "profite" à tous les jeux. Pas qu'à un jeu benchmarkisé.
M'enfin bon, les gens font difficilement le rapprochement ...
Marsh Posté le 19-09-2004 à 00:11:11
Magic-Sim a écrit : Faut voir que ça ne s'applique à Doom3 que parce que tous les gigolos benchenront avec. Doom3 n'aurait pas été employé pour bencher (comme Q3 avant), nV n'aurait pas pris le temps de faire du remplacement de shaders, c'est ça que ça veut dire. |
Entièrement d'accord, même problème avec 3dmark.
Marsh Posté le 19-09-2004 à 00:17:10
Magic-Sim a écrit : Faut voir que ça ne s'applique à Doom3 que parce que tous les gigolos benchenront avec. Doom3 n'aurait pas été employé pour bencher (comme Q3 avant), nV n'aurait pas pris le temps de faire du remplacement de shaders, c'est ça que ça veut dire. |
Oui mais ATI est quand même mal placé pour critiquer
Marsh Posté le 19-09-2004 à 00:17:47
Zeross a écrit : Oui mais ATI est quand même mal placé pour critiquer |
Marsh Posté le 19-09-2004 à 00:22:37
Zeross a écrit : Oui mais ATI est quand même mal placé pour critiquer |
Ben ils font comme nV qui sont aussi très mal placés pour critiquer
Tu me tiens, je te tiens, par la bar-bi-chette
Marsh Posté le 19-09-2004 à 00:33:31
Magic-Sim a écrit : Ben ils font comme nV qui sont aussi très mal placés pour critiquer |
J'suis d'accord mais bon venir critiquer le remplacement de shaders dans Doom 3 pour faire la même chose quelques mois après c'est moyen je trouve
Marsh Posté le 19-09-2004 à 00:39:57
Effectivement il se dit qu'ils pourraient faire la meme chose prochainemement.
Marsh Posté le 19-09-2004 à 00:42:45
Je pense que ca sert a rien de troller
Le fait est que dans le match geforceFX / Radeon R300 ATI l'avait emporté , et que maintenant Geforce 6800 VS X800 c'est Nvidia qui a gagné . ca fait 1 partout.
Il faut se dire que tant qu'ils se battront pour la premiere place ils nous feront du matos de plus en plus puissant donc c tout benef !
Marsh Posté le 19-09-2004 à 00:52:03
je veux dire que leur petite tricherie ne nous gene pas vraiment (nous joueur) au contraire ca aide au developpement de nouvelle carte toujours plus puissante.
Marsh Posté le 19-09-2004 à 00:54:48
C'est un point de vue. Moi je pense que gonfler artificiellement les perfs par rapport à ce que la puce peut reellement obtenir c'est tromper le client.
Marsh Posté le 19-09-2004 à 00:59:04
dans le cas de gonffler les perfs dans un jeu c pas vraiment tromper car tu en profite tout de meme, mais pour 3D Mark je suis d'accord
Marsh Posté le 19-09-2004 à 00:59:38
Ya une section jeux et doom3 pour poster...
Sinon je m'en tape... Doom3 c'est du passé pour moi je l'ai fini et compte pas y rejouer la
Marsh Posté le 19-09-2004 à 01:00:45
Thral a écrit : C'est un point de vue. Moi je pense que gonfler artificiellement les perfs par rapport à ce que la puce peut reellement obtenir c'est tromper le client. |
ça dépend...
Si le compilo intégré au driver peut réordonnacer le shader pour réaliser une meilleure structure et utiliser plus efficacement les ressources alors c'est une bonne chose. Problème c'est une source de bugs pour les développeurs mais ça à part eux tout le monde s'en fout
Si le driver détecte le shader et le remplace par quelque chose de vaguement approchant, là par contre il y a tromperie. Et que ce soit nVidia ou ATI pour l'instant c'est exactement ce qu'ils font (dans Doom 3 en tout cas). Tout ça pour gagner quelques misérables fps dans des benchs mais bon ça c'est la faute des utilisateurs qui se focalisent sur les scores des benchs.
Marsh Posté le 19-09-2004 à 10:39:22
Zeross a écrit : J'suis d'accord mais bon venir critiquer le remplacement de shaders dans Doom 3 pour faire la même chose quelques mois après c'est moyen je trouve |
C'est pas dit que eux vont remplacer lex shaders à la main avec détection du shader, jusqu'à présent ATI est passé par son "compilateur" et n'a pas exposé ce genre de chutes de perfs....
Là, on a re le même cas qu'avec 3D Mark
Marsh Posté le 19-09-2004 à 16:51:48
Apparament Ati va aussi y venir aux optimisations jeu par jeu à fortiori par remplacement de shader comme fait nVidia depuis bientot 1 an et demi.
Marsh Posté le 19-09-2004 à 19:00:06
C'est vrai que la manip d'Humus sur D3 a montré qu'il y avait quand même de la marge... Bon, ça va embaucher sévère on dirait côté équipes de dévs de drv
Marsh Posté le 19-09-2004 à 19:10:48
Magic-Sim a écrit : C'est vrai que la manip d'Humus sur D3 a montré qu'il y avait quand même de la marge... Bon, ça va embaucher sévère on dirait côté équipes de dévs de drv |
Sauf que la manip d'Humus ne correspond pas exactement au calcul de Carmack encodé dans la LUT, alors dans ce cas prècis c'est ptet pas gênant mais fondamentalement c'est pas un truc dont je suis fan parce que je sens qu'on va vite arriver à des dérives avec ce genre de techniques : "Moui c'est presque ça et on gagne en perfs donc on va dire que c'est bon..."
Marsh Posté le 19-09-2004 à 19:54:57
Zeross a écrit : Sauf que la manip d'Humus ne correspond pas exactement au calcul de Carmack encodé dans la LUT, alors dans ce cas prècis c'est ptet pas gênant mais fondamentalement c'est pas un truc dont je suis fan parce que je sens qu'on va vite arriver à des dérives avec ce genre de techniques : "Moui c'est presque ça et on gagne en perfs donc on va dire que c'est bon..." |
Quand la manip de Humus devient activée par défaut dans les drivers, il faut bencher comme ça ? C'est chiant tous ces trucs pour les tests :-/ Il y a des arguments dans les 2 sens.
Marsh Posté le 19-09-2004 à 21:10:52
La "manip de Humus" est en fait un fichier du jeu que tu remplace, aux dernières nouvelles. Sinon, Les différence de rendu ont l'air d'avoir été corrigées....
Marsh Posté le 19-09-2004 à 21:16:48
Magic-Sim a écrit : La "manip de Humus" est en fait un fichier du jeu que tu remplace, aux dernières nouvelles. |
Tu n'as pas vu les 4.10 toi
Marsh Posté le 19-09-2004 à 21:20:46
Zeross a écrit : "Moui c'est presque ça et on gagne en perfs donc on va dire que c'est bon..." |
Comme beaucoup de choses en 3D temps réel (et même 3D pas temps réel d'ailleurs)
Marsh Posté le 19-09-2004 à 21:25:33
half life 2 est optimisé ati
doom 3 et optimisé nvidia
de tout facon quand hl 2 va sortir nvidia va optimisé c'est pilote pour hl2
Marsh Posté le 19-09-2004 à 21:34:58
Marc a écrit : Comme beaucoup de choses en 3D temps réel (et même 3D pas temps réel d'ailleurs) |
Ouais mais quand c'est "dans le dos" du développeur c'est mal
Le développeur approxime la réalité, le driver approxime ce que lui demande le développeur et à la fin on se retrouve avec des trucs qui ressemblent plus à rien
Marsh Posté le 19-09-2004 à 22:00:39
ReplyMarsh Posté le 19-09-2004 à 22:43:35
Zeross a écrit : Ouais mais quand c'est "dans le dos" du développeur c'est mal |
Même en approximé, doom3 resseble à quelque chose (pas nécessairement un jeu mais au moins quelque chose de zoli ).
Marsh Posté le 20-09-2004 à 00:00:19
Marc a écrit : Tu n'as pas vu les 4.10 toi |
Dis, Marc, si tu veux que je vois les pilotes en préversion en même temps que toi, faut m'embaucher
Sérieusement, là, quand même,
Marsh Posté le 20-09-2004 à 00:12:46
Une petite comparaison du marché console (80/90% du marché des jeux) vs PC (50% de jeux piratés):
- sur PS2, c'est acceptable de ne rendre qu'une moitié d'image toutes les frames, du moment que la partie non rendue n'est pas visible. Sur PC c'est inacceptable et de toute façon facilement détectable dans les tests.
- sur XBox, toutes les textures sont compressées DXT (je ne parle pas de la PS2 ou c'est du palettisé 8 bits par pixel à tout va), le banding dès que la texture intervient dans autre chose qu'une simple transmission sans transformation est assez horrible. Sur PC on préfère perdre 3/4 de sa mémoire vidéo pour avoir des textures non compressé avec une différence qui ne se verra pas à l'écran. La mémoire est une bonne partie du prix et de la disponibilité de la carte vidéo.
- sur PS2 le calcul du LOD de textures soit ne se fait pas (un seul niveau de détail) soit se fait en software (par objet..). Sur PC, on gueule dès que le calcul du LOD + trilinéaire diffère du bit le moins significatif par rapport au reference rasteriser (qui contrairement à ce qu'on pense n'est pas une référence mais avant tout un outil de deboguage).
- sur PS2/XBox on considère qu'un filtre passe bas appliqué en sortie de rendu (!) est une forme acceptable d'antialiasing. Sur PC, le filtrage dans l'espace perceptif est le principal argument de vente d'un fabricant de puce graphique.
- sur XBox, lorsqu'on manque de fillrate, on n'hesite pas à diminuer la résolution du rendu et redimensionner l'image à l'écran ni vu ni connu. Je n'ose meme pas imaginer ce qui se passerait si quelqu'un faisait pareil sur PC (bon je ne parle pas d'everquest II..).
- la plupart des télés (principal vecteur d'affichage des jeux consoles) vont détruire une bonne partie des informations de couleur/contrastes entre pixels adjacents ou carrément baver sur toute une ligne. Sur PC, remplacer un shader par un shader équivalent (mathématiquement) est une pratique hautement polémique.
La dessus, il y a ma femme qui me souffle qu'elle préfère jouer sur XBox plutot que sur PC. Bon est-ce que ça sert à quelque chose que j'essaie de la raisonner ?
Marsh Posté le 20-09-2004 à 00:23:57
LeGreg a écrit : |
idem sur GC
le stretch se fait lors de la recopie du frame buffer embarqué vers la mémoire, un filtre peut être appliqué pour l'occasion.
Pour le calcul du LOD sur PS2 j'avais jamais fait attention mais en effet c'est bien le cas ! Ceci dit pour économiser de la VRAM la plupart du temps y a même pas de Mipmaps sur PS2
Marsh Posté le 20-09-2004 à 04:57:28
sur GC non plus ya pas de mipmaps bien souvent (ça se voit)
sur PC.. ben avec du fsaa 4x RGSS ça passe bien sans mipmapping , quake 1, quake 2 et CS sont assez jolis (elles sont vraiment super nettes les textures), mais il reste enccore pas mal d'aliasing de texture (ça serait mieux en 8x sur une Voodoo5 6000 mais j'ai pas les moyens )
malheureusement ya pas beaucoup de cartes graphiques qui font du RGSS . ça donne quoi avec le fsaa 8X d'une GF6800?!?
Marsh Posté le 20-09-2004 à 08:50:19
LeGreg > Ouais, sur PC on veut plus mieux.
Mais c'est normal, quand tu vois la différence de prix entre une console qui a 5 ans et un PC tout récent tout neuf, c'est normal que si l'image n'est pas "optimiale" on gueule.
On attend pas les même perfs d'une twingo première d'il y a 5 ans que d'unecorvette new generation par ex
Marsh Posté le 18-09-2004 à 13:59:56
ATI accuse nVidia de tricher dans Doom III : dans une interview accordée à OC-Zone, Richard Huddy d'ATI a dit ceci :
OC-Zone: DOOM 3 is almost out, some independent web site had tested the DOOM3 with ATI and nvidia solutions, nvidia won in most of the tests. What ATI plans to do about it?
Richard Huddy: There are several issues at play here, and its worth disentangling whats going on.
Firstly the benchmark numbers which have been released used ATI drivers which have not been heavily tuned for Doom3. In contrast, NVIDIAs drivers contain all sorts of optimisation for Doom3, including one thats likely to get a lot of attention in the future.
John Carmack of ID software, the creators of Doom3, also noted that NVIDIAs driver seems fast, but he also noticed that if he made small changes to his code then performance would fall dramatically. What this implies is that NVIDIA are performing shader substitution again. We saw them spend most of last year doing this for benchmarks, and the consequence looks like faster benchmark numbers but its important to understand that the NVIDIA driver isnt running the same code as the ATI driver. The ATI driver does what its asked, and does it fast, and the NVIDIA driver does something thats quite similar to what its asked to do but which is only chosen because its faster.
That makes this benchmark a rather unfair and unrealistic comparison...
Source : http://www.oc-zone.com/modules.php [...] =65&page=2
Richard Huddy dit que les drivers nVidia ont l'air rapide sous Doom III mais que si l'on effectuait de petits changements au code alors les performances s'effondraient. Il dit aussi que nVidia utilise encore la méthode dite de "substitution de shaders" pour améliorer les performances.
Message édité par indygenius le 18-09-2004 à 14:00:45