les shaders, poudres aux yeux ?

les shaders, poudres aux yeux ? - Jeux Video

Marsh Posté le 22-01-2002 à 22:22:50    

quand on lis ca:
 
 
 
Croteam et les Shaders  
 
 
 Il y a presque un an, le GeForce3 et son nFinite FX Engine introduisait la technologie des Vertex et Pixels shaders programmables qui est sensé donner aux développeurs la liberté de créer un nombre pratiquement infini d?effets spéciaux et de rendus personnalisés pour offrir aux joueurs et passionnés du multimédia les expériences visuelles les plus extraordinaires jamais vues sur ordinateur.  
 
Un an après, force est de constater que peu de jeux exploitent pleinement cette technologie qui est pourtant supportées par DirectX 8.1 et les dernières extensions OpenGL de NVIDIA.  
 
Pourquoi les développeurs ne les utilisent-ils pas plus massivement ?  
The Inquirer's a obtenu un début de réponse , de la bouche de Dean Sekulic "Chief developer" chez Croteam, les auteurs de Serious Sam :  
 
"Croteam does not use these shaders. It's a fact that future hardware s going in that direction but for the time being those shaders are at the limits of usability."  
 
Selon Dean Sekulic, Les shaders ont de nombreuses limitations et il est parfaitement possible de produire les mêmes effets en utilisant des méthodes traditionnelles comme celle des "register combiners". Pour lui, ces capacités matérielles sont présentes pour des raisons marketing et pas parce qu'on en a besoin.  
 
 
 
 
apres le pétard mouillé du TNL :(

Reply

Marsh Posté le 22-01-2002 à 22:22:50   

Reply

Marsh Posté le 23-01-2002 à 00:24:01    

Wait & See
 
Attend que les jeux ayant un moteur 3D qui tire vraiment parti de DirectX 8.0 sortent et là on pourra juger de la pertinance des Shaders et du T&L programmable des GF3 et Radeon.
 
Quand je parle de jeux c'est Doom 3 et Unreal 2 pour ne citer que ceux-là, pas des merdes du genre Aquanox qui utilise pas à moitié DirectX 8.0 mais qui se fait de la pub à fond sur sa pseudo exploitation de Dx 8.0.
 
Je ne t'apprend rien en te disant qu'un jeu c'est 2 voir 3 ans et même plus de développement. Donc quand DirectX 8.0 sort, calcul le temps qu'il faut pour faire un moteur 3D qui exploite bien DirectX 8.0, ajoute le temps qu'il faut au infograf pour maitriser les nouvelles possibilités qu'offre DirectX 8.0 et bien c'est normal qu'il n'y ait pas encore de jeu qui soit à fond DirectX 8.0.  
 
Ça sera la même chose pour DirectX 9.0.

Reply

Marsh Posté le 23-01-2002 à 00:26:37    

Max Headroom a écrit a écrit :

Wait & See
 
Attend que les jeux ayant un moteur 3D qui tire vraiment parti de DirectX 8.0 sortent et là on pourra juger de la pertinance des Shaders et du T&L programmable des GF3 et Radeon.
 
Quand je parle de jeux c'est Doom 3 et Unreal 2 pour ne citer que ceux-là, pas des merdes du genre Aquanox qui utilise pas à moitié DirectX 8.0 mais qui se fait de la pub à fond sur sa pseudo exploitation de Dx 8.0.
 
Je ne t'apprend rien en te disant qu'un jeu c'est 2 voir 3 ans et même plus de développement. Donc quand DirectX 8.0 sort, calcul le temps qu'il faut pour faire un moteur 3D qui exploite bien DirectX 8.0, ajoute le temps qu'il faut au infograf pour maitriser les nouvelles possibilités qu'offre DirectX 8.0 et bien c'est normal qu'il n'y ait pas encore de jeu qui soit à fond DirectX 8.0.  
 
Ça sera la même chose pour DirectX 9.0.  




 :heink:

Reply

Marsh Posté le 23-01-2002 à 00:26:52    

Va dire ca aux dev , qui continuent de sortir des jeux de merde qui ne gerent meme pas les derniers effets graphiques ... meme pas par option ... une honte ...
 
Enfin , je ne suis quand meme pas deçus de ma GF3 , elle m'a quand meme permis de jouer a des jeux like Il-2 , max payne etc ... toute options ,activé , en 1280 , avec FSAA x2 avec une fluidité incomparable ...
 
Mais c'est vrai qu'il ya foutage de gueule de la part des dev ... enfin , normalement les jeux en developpement a partir d'il y a 9 mois , integrent ces features ... mais , faudrait il qu'ils sortent ...

Reply

Marsh Posté le 23-01-2002 à 00:27:36    

Tt a fait d'accord avec Max

Reply

Marsh Posté le 23-01-2002 à 00:29:13    

Euh , le T&L est une methode de traitement , et de calcul ... maintenant pratiquement tout les jeux en 3d , gerent le T&L ...
 
Biensur , pour les Geforce 1 , c'etait plus un argument marketing , qu'une realité immediate ... comme tout en info , d'ailleurs ...

Reply

Marsh Posté le 23-01-2002 à 00:34:45    

Citation :

Selon Dean Sekulic, Les shaders ont de nombreuses limitations et il est parfaitement possible de produire les mêmes effets en utilisant des méthodes traditionnelles comme celle des "register combiners". Pour lui, ces capacités matérielles sont présentes pour des raisons marketing et pas parce qu'on en a besoin.

 
 
 
a mon avis on peut tracer un // entre le TNL de la geforce1 innexploitable car trop limité par la carte elle meme et les shaders de la Geforce3 qui integre cette nouvelle technologie, et comme le dit le gars ci dessus, les shaders peuvent etre imités en "soft"(?)  
 
ne serait-ce vraiment efficace que dans 2 generation de carte comme un peu le tl ?

Reply

Marsh Posté le 23-01-2002 à 00:37:52    

PFff, il est con cet article , bien sur qu'ont peux produire les meme enfet en passant par d'autres methode de calcul et de rendu , mais a quel prix ? ... Si Nvidia a choisis de developper une architecture propre , qui integre certaines fonction proprietaires , (bien sur y a du gros marketing la dedant) c'est pour optimizer le truc ...
 
C'est un peu comme dire a l'epoque , "ont a pas besoin de puce 3dFX pour faire du mip-mapping" ...

Reply

Marsh Posté le 23-01-2002 à 00:42:04    

Khan a écrit a écrit :

C'est un peu comme dire a l'epoque , "ont a pas besoin de puce 3dFX pour faire du mip-mapping" ...  




c bien pour ça qu'à l'époque y avait des émulateurs 3dfx. c'est bien la preuve qu'elles n'étaient pas nécessaires. avec un gros pc et une s3 trio on pouvait avoir la même qualité d'image (mais ça ne bougeait pas :D  ;) )

Reply

Marsh Posté le 23-01-2002 à 00:43:36    

CrowFix a écrit a écrit :

 
 :heink:  




 :heink:

Reply

Marsh Posté le 23-01-2002 à 00:43:36   

Reply

Marsh Posté le 23-01-2002 à 00:44:48    

Khan a écrit a écrit :

PFff, il est con cet article , bien sur qu'ont peux produire les meme enfet en passant par d'autres methode de calcul et de rendu , mais a quel prix ? ... Si Nvidia a choisis de developper une architecture propre , qui integre certaines fonction proprietaires , (bien sur y a du gros marketing la dedant) c'est pour optimizer le truc ...
 
C'est un peu comme dire a l'epoque , "ont a pas besoin de puce 3dFX pour faire du mip-mapping" ...  




 
a quel prix, là est la question.

Reply

Marsh Posté le 23-01-2002 à 00:44:48    

Max Headroom a écrit a écrit :

 
 :heink:  




 :D

Reply

Marsh Posté le 23-01-2002 à 00:45:05    

CrowFix a écrit a écrit :

 
(mais ça ne bougeait pas :D  ;) )  




 :lol:


---------------
Oui aux titres de topic clair et precis...
Reply

Marsh Posté le 23-01-2002 à 00:45:34    

CrowFix a écrit a écrit :

 
 :D  




 
OK :sol:

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed