Compatibilité SM3.0/HDR : une nécessité ?

Compatibilité SM3.0/HDR : une nécessité ? - Carte graphique - Hardware

Marsh Posté le 18-11-2005 à 09:04:49    

Salut à tous,
 
Voilà j’aimerais votre avis sur la question ... Je suis partagé quant à changer ma configuration graphique en AGP ou ne rien updater du tout et si par hasard je me dirige vers un choix, il se fera incontestablement entre la 6800 (GT a priori) et la X850XT. Or, je lis des propos tout à fait contradictoires sur la nécessité d’avoir accès au HDR et au SM3.0 dans l’avenir. Que les choses soient claires, si je change de carte graphique c’est manifestement pour éviter de changer autre chose (de type carte mère and co) dans un avenir assez lointain, c'est-à-dire concrètement au moins 1 an et demi (voire plus …). Ma question est donc simple, est-ce que vous pensez que la compatibilité SM3.0 est indispensable pour quelqu’un qui compte acheter sur le long terme ou que de toute façon, bien qu’elle soit utile, elle serait de toute façon ingérable par une configuration comme la mienne, très loin d’être au top de nos jours et a fortiori dans quelques mois.
 
Je vous remercie beaucoup
 
 

Reply

Marsh Posté le 18-11-2005 à 09:04:49   

Reply

Marsh Posté le 18-11-2005 à 09:27:26    

Pour moi non car une 6800Gt même en ultra a tout juste assez de puissance pour faire tourner les jeux actuels hors hdr (avec hdr ça devient juste). Pour les jeux à venir ce sera forcément pire pour une carte gfx de ce calibre. le SM3.0 ne s'impose pas sur cette génération de carte. Prends le modele ati ou nvidia que tu trouveras au meilleur prix donc.


Message édité par johnbroot le 18-11-2005 à 09:27:50
Reply

Marsh Posté le 18-11-2005 à 09:44:02    

Johnny le brooteur a raison ;)

Reply

Marsh Posté le 18-11-2005 à 09:46:59    

connaisseur. :D

Reply

Marsh Posté le 18-11-2005 à 10:16:18    

Ben quand je vois qu'avec une X700Pro qui est entre la 6600 et la 6600GT, je peux pas mettre d'anti aliasing et de filtres aniso sur les derniers jeux, je me dis qu'une 6800GT permettra d'utiliser ces filtres et que seuls les 7800 permettent d'utiliser les filtres et le hdr...

Reply

Marsh Posté le 18-11-2005 à 10:20:42    

Moi pareil avec un équivalent 850XTPE je peux pas tout mettre à fond sur des jeux comme CODII ou fear. A partir de là tout est dit...

Reply

Marsh Posté le 18-11-2005 à 10:38:46    

Ben moi sur mon portable et sa "petite" x700
Lost coast marche bien avec le hdr activé
 
Bon c'est pas tout à fond, mais le hdr marche aussi sur ati Xxx0:)

Reply

Marsh Posté le 18-11-2005 à 10:54:34    

Moi j'ai tranché comme toi je me posais la question...
J'ai un athlon 2500+@3200+ avec 1Go de ram.
Je me fais pas d'ilusion pour dans 1an et demi donc j'ai opté pour la x850xt parce que financierement la difference n'est pas enorment mais on gagne en puissance "brute".
J'ai quasi jamais joué avec les filtres, je trouve les jeux deja sympas en medium à l'heure actuel.
Fear en 1280*1024 avec les details en bas c'est deja tres jolie.
Bref la x850xt me permettra de remonter tout ca.
 
Donc hdr m'en fou (deja ca regle un point).
Pour le SM3, le parc de carte ne le gerant pas est bcp trop important.
 
Pas compliqué seul les nouvelles cartes ATI le font, et les 6800 sont tout juste assez balaise.
Bilan ca va faire comme avec le PCI express, on a 1an, 1an et demi pour etre bloqué.
Bah voila mon investissement sera amorti...

Reply

Marsh Posté le 18-11-2005 à 12:06:18    

Jayk a écrit :

Salut à tous,
 
Voilà j’aimerais votre avis sur la question ... Je suis partagé quant à changer ma configuration graphique en AGP ou ne rien updater du tout et si par hasard je me dirige vers un choix, il se fera incontestablement entre la 6800 (GT a priori) et la X850XT. Or, je lis des propos tout à fait contradictoires sur la nécessité d’avoir accès au HDR et au SM3.0 dans l’avenir. Que les choses soient claires, si je change de carte graphique c’est manifestement pour éviter de changer autre chose (de type carte mère and co) dans un avenir assez lointain, c'est-à-dire concrètement au moins 1 an et demi (voire plus …). Ma question est donc simple, est-ce que vous pensez que la compatibilité SM3.0 est indispensable pour quelqu’un qui compte acheter sur le long terme ou que de toute façon, bien qu’elle soit utile, elle serait de toute façon ingérable par une configuration comme la mienne, très loin d’être au top de nos jours et a fortiori dans quelques mois.
 
Je vous remercie beaucoup


 
c evident ca :)
 
moi ce ke je t'ai dit sur le sujet a été confirmé par tridam, maintenant que tout les nouvelle games ATI sont compatible Sm3, et ke les Nvidia le sont depuis 1.5 an, ya un moment les programeurs vont plus trop se faire chier a optimiser le SM2 et feront tout en SM3, la principale difference entre les 2 c k'il faut moins de code pour faire la meme chose, les SM3 c pas ke le HDR, c'est surtout la facon de programmer qui est plus facile.
 
la peut etre ke les perf vont se faire sentir, cela dit c un pari sur l'avenir.
 
maintenant le 1er facteur limitant sera ton cpu, dans 1 an ta config sera l agonie, et deja aujourdhuis tu sentiras un manke de framerate ds les gros jeux.
 
a oui, si tu veux vraiment garder ta carte longtps,  vista demandera  des sm3  [:xp1700]  
 
 
pour l avenir (genre garder 2 ans ta carte) il te faut une carte compatible SM3.
 
si c pour tenir cette année, prends la moins cher des 2 entre les 6800gt/X800


Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 12:22:06
Reply

Marsh Posté le 18-11-2005 à 12:14:24    

Je te conseillerai plutôt un 6800 GT... tu les trouve pour pas trop cher maintenant!


Message édité par Profil supprimé le 18-11-2005 à 12:49:07
Reply

Marsh Posté le 18-11-2005 à 12:14:24   

Reply

Marsh Posté le 18-11-2005 à 12:33:06    

De toutes façons, tenir 2 ans avec une carte graphique en voulant avoir des graphismes haute qualité, c'est de l'utopie. Même en prenant une 7800GTX... Faut pas rêver les gars.
Là, maintenant, prend une carte sm2 sans HDR, ça ira très bien. Quand il faudra passer au sm3 et HDR, tu prendras une carte nouvelle génération.

Reply

Marsh Posté le 18-11-2005 à 12:37:10    

c'est une evidence. Prendre une carte de génération précédente uniquement parcequ'elle gère le sm3.0 en espérant grace à ça tenir 2 ans... Je ne dis pas qu'il faut forcément prendre prendre une carte SM2.0 mais prendre la moins chère (à puissance équivalente) entre une ATI X8xx (sm2.0) et nvidia 6xxx(sm3.0).

Message cité 1 fois
Message édité par johnbroot le 18-11-2005 à 12:39:49
Reply

Marsh Posté le 18-11-2005 à 12:41:49    

Fraisouille a écrit :

De toutes façons, tenir 2 ans avec une carte graphique en voulant avoir des graphismes haute qualité, c'est de l'utopie. Même en prenant une 7800GTX... Faut pas rêver les gars.
Là, maintenant, prend une carte sm2 sans HDR, ça ira très bien. Quand il faudra passer au sm3 et HDR, tu prendras une carte nouvelle génération.


 
 
moi ma gf4 a tenu 3 ans :)  les 2 1ere annnée c etait nikel :) c'est a partir de Doom3 ke ca a été plus hard mais les jeux DX8 tournaient bien :)
 
 
une gtx de nos jours tiendra 2 ans sans pb :)
 
ps : le HDR on s'en tape  :D


Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 12:53:04
Reply

Marsh Posté le 18-11-2005 à 12:48:36    

le sm3.0 on s'entape aussi :D

Reply

Marsh Posté le 18-11-2005 à 12:51:01    

johnbroot a écrit :

c'est une evidence. Prendre une carte de génération précédente uniquement parcequ'elle gère le sm3.0 en espérant grace à ça tenir 2 ans... Je ne dis pas qu'il faut forcément prendre prendre une carte SM2.0 mais prendre la moins chère (à puissance équivalente) entre une ATI X8xx (sm2.0) et nvidia 6xxx(sm3.0).


 
 
de toute facon faut pas mettre plus de 250 pour une carte de la generation precedente, surtout en AGP.
 
mais ce choix de generation precedente est le meilleur choix, elles sont puissantes, loin d'etre largé meme avek les gros jeux actuel, et seront dans pb enkore ds le coup pour facile 1 an, la 2eme année faudra baisser un peu les details par contre :D


Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 12:55:18
Reply

Marsh Posté le 18-11-2005 à 12:52:02    

johnbroot a écrit :

le sm3.0 on s'entape aussi :D


 
ben non justement, si le HDR est un gadget les SM3 ca touche a la programation du jeu en lui meme  cf mon post plus haut

Reply

Marsh Posté le 18-11-2005 à 13:09:22    

B&W 2 utilise le SM3 et le Geometry Instancing.
 
Unreal Engine 3 sera massivement HDR.
 
Perso, si tu devais acheter ce serait entre 6800/7800 & x1800.
 
je pense que prendre une x800 maintenant c'est être dans le mauvais cycle. (y'a 1 an une x800 aurait été plus amortie)
 
enfin c'est ce que j'en dis....

Message cité 1 fois
Message édité par bjone le 18-11-2005 à 13:09:53
Reply

Marsh Posté le 18-11-2005 à 13:10:23    

en fait ça dépend combien de temps tu veux la garder.

Reply

Marsh Posté le 18-11-2005 à 13:16:34    

il est en AGP surtout.

Reply

Marsh Posté le 18-11-2005 à 13:16:59    

ha oué :/

Reply

Marsh Posté le 18-11-2005 à 13:19:18    

Moi maintenant j'ésite à garder ma 6600GT PCi-E Leadtek o/c à 550MHz/1.19GHz  (500MHz/1.0GHz d'origine) ! et tenir jusqu'a la prochaine génération de carte supportant DirectX 10 et acheter une haut de game à leurs sortie !!! C'est une bonne idée ou pas ??? je joue bcp mais j'ai pas trouver de jeux qui font ramer la 6600GT encore (je passe BF2 tout en ultra sans blem avec AA2x meme) !

Reply

Marsh Posté le 18-11-2005 à 13:21:32    

Pour être tranquille pour 5 ans et avoir des jeux de plus en plus beau il faut acheter une xbox 360. ;)  
 
Sinon j'ai acheté une 6800 GS, avant-hier.

Reply

Marsh Posté le 18-11-2005 à 13:21:55    

Wilfried2828 a écrit :

Moi maintenant j'ésite à garder ma 6600GT PCi-E Leadtek o/c à 550MHz/1.19GHz  (500MHz/1.0GHz d'origine) ! et tenir jusqu'a la prochaine génération de carte supportant DirectX 10 et acheter une haut de game à leurs sortie !!! C'est une bonne idée ou pas ??? je joue bcp mais j'ai pas trouver de jeux qui font ramer la 6600GT encore (je passe BF2 tout en ultra sans blem avec AA2x meme) !


 
 
tu changeras dans un an a la sortie de UT2007 :)
 
jamais acheter de haut de gamme, tu payes un max et t'en profitte pas vraiment (enfin tu gagne une reso koi...), faut toujours acheter dekalé d'une generation (si on veux acheter malin) c pas cher et ca tourne bien.

Message cité 1 fois
Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 13:25:02
Reply

Marsh Posté le 18-11-2005 à 13:22:55    

THE REAL KRYSTOPHE a écrit :

tu changeras dans un an a la sortie de UT2007 :)


Sa sera du  DX 10 ?

Reply

Marsh Posté le 18-11-2005 à 13:24:37    

Wilfried2828 a écrit :

Sa sera du  DX 10 ?


 
 
UT ou la generation de CG  dans un an ?


Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 13:24:49
Reply

Marsh Posté le 18-11-2005 à 13:25:55    

bjone a écrit :

B&W 2 utilise le SM3 et le Geometry Instancing.
 
Unreal Engine 3 sera massivement HDR.
 
Perso, si tu devais acheter ce serait entre 6800/7800 & x1800.
 
je pense que prendre une x800 maintenant c'est être dans le mauvais cycle. (y'a 1 an une x800 aurait été plus amortie)
 
enfin c'est ce que j'en dis....


 
et grace à ça les 6800 rendent plus vite les scènes que les x800 (à catégorie de perf équivalente)?
 
[edit]
je suis ni pro ati ni pro nvidia mais quand j'ai changé en juin de CG (6800 128 MoDDRI en 16pipes de chez dabs flambée après un mois d'utilisation)
j'ai trouvé une x800provivo 256MoDDRIII @200€ debridée en 16p fonctionnant en 550/564. Pour du pareil matos à un tel prix, j'ai pas réfléchi 2 fois à renoncer aux sm3.0.

Message cité 1 fois
Message édité par johnbroot le 18-11-2005 à 13:33:34
Reply

Marsh Posté le 18-11-2005 à 13:32:55    

en PCIe ya le choix en rapport kalité prix les GTO2 et les 6800GS sont bien :)
 
par contre en AGP le choix est bien plus serré.......

Reply

Marsh Posté le 18-11-2005 à 13:34:26    

les GTO² y'en a en quasiement plus et les prix ont bien flambé vu la demande. :D

Reply

Marsh Posté le 18-11-2005 à 14:28:32    

johnbroot a écrit :

et grace à ça les 6800 rendent plus vite les scènes que les x800 (à catégorie de perf équivalente)?


Oui & non dans le cas de B&W 2.
J'ai pas vu tests de framerate, déjà il faudrait une démo, et ensuite c'est vachement plus complié:
 
Les ATI actuelles ont un le geometry instancing de manière officieuse, mais il faut que le moteur le gère.
le GI peut mettre un sacré coup de fouet en termes de rendement sur les objets peu complexes géométriquement (arbres & autres trucs dans le cas de B&W).
 
mais Black & White (le 1 comme le 2), sont vachement dépendant du CPU passé un certain nombres d'habitants etc.... donc ça doit casser ce que le GI peut procurer en rendement.
 
j'ai déjà fait freezer B&W 2 sans le dernier patch, en bloquant ma créature entre des arbres :D
 
---
 
pour en revenir, ça dépends du prix et dans combien de temps tu comptes revendre ta carte, et si la décote ne te gêne pas.
par exemple si tu prends Unreal 2007, normalement d'après ce que j'ai lu, en HDR c'est du 1024x768 sur 6800gt, 1280x1024 sur un sli de 6800gt ou 7800gtx.
la différence c'est qu'à la revente, une 6800gt pourra toujours prétendre faire tourner les derniers jeux du moment de la revente, alors qu'une x800 peut-être mais en moins bonne qualité (je penses qu'une x800 aura plus décote qu'une 6800, pas autant qu'un fx actuellement).
 
ceci dit sur une x800 tu peux prétendre faire du HDR, mais ce sera un chemin moins aisé pour les devs. (et des fois les devs ne se prennent plus la tête: cf les jeux qui veulent plus de gf4 comme bf2)

Message cité 1 fois
Message édité par bjone le 18-11-2005 à 14:30:03
Reply

Marsh Posté le 18-11-2005 à 18:24:22    

bjone a écrit :

Oui & non dans le cas de B&W 2.
J'ai pas vu tests de framerate, déjà il faudrait une démo, et ensuite c'est vachement plus complié:
 
Les ATI actuelles ont un le geometry instancing de manière officieuse, mais il faut que le moteur le gère.
le GI peut mettre un sacré coup de fouet en termes de rendement sur les objets peu complexes géométriquement (arbres & autres trucs dans le cas de B&W).
 
mais Black & White (le 1 comme le 2), sont vachement dépendant du CPU passé un certain nombres d'habitants etc.... donc ça doit casser ce que le GI peut procurer en rendement.
 
j'ai déjà fait freezer B&W 2 sans le dernier patch, en bloquant ma créature entre des arbres :D
 
---


 
Bon à savoir :jap:  
 
 

bjone a écrit :


pour en revenir, ça dépends du prix et dans combien de temps tu comptes revendre ta carte, et si la décote ne te gêne pas.
par exemple si tu prends Unreal 2007, normalement d'après ce que j'ai lu, en HDR c'est du 1024x768 sur 6800gt, 1280x1024 sur un sli de 6800gt ou 7800gtx.
la différence c'est qu'à la revente, une 6800gt pourra toujours prétendre faire tourner les derniers jeux du moment de la revente, alors qu'une x800 peut-être mais en moins bonne qualité (je penses qu'une x800 aura plus décote qu'une 6800, pas autant qu'un fx actuellement).
 
ceci dit sur une x800 tu peux prétendre faire du HDR, mais ce sera un chemin moins aisé pour les devs. (et des fois les devs ne se prennent plus la tête: cf les jeux qui veulent plus de gf4 comme bf2)


 
c'est là qu'on est pas d'accord. ce n'est pas parcequ'une carte intègre une technologie qu'elle aura la puissance nécessaire pour l'exploiter. C'est déjà pour le cas actuellement avec la 6800GT qui est juste pour faire tourner les derniers jeux, alors dans l'avenir sm3.0 ou pas elle sera à la ramasse comme les copines... Ca me rappelle les 1ere cartes à intégrer le bump mapping alors que dès que t'activais la feature les perfs plongeaient. La possibilité d'utiliser cette techno ne s'est démocratisée qu'une voir 2 générations plus tard.

Message cité 1 fois
Message édité par johnbroot le 18-11-2005 à 18:26:17
Reply

Marsh Posté le 18-11-2005 à 19:24:55    

moi ca me ferais plutot penser au GF4 1.3 et au 9700 2.0  qui etaient proche (d'une reso et donk hors AA) sous DX8  mais ont connu un fossé depuis DOOM3 et son DX9 donk,  si ca tombe ca peux faire ca ds le futur
 
on peux pas enkore savoir.


Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 23:02:07
Reply

Marsh Posté le 18-11-2005 à 19:51:55    

Attends y'a pas du tout le même écart entre les sm2.0 et 3.0 que le fossé monumental existant entre le 1.3 et le 2.0. En attestent les débats contradictoires sm3.0 vs 2.0 qui animent le forum depuis un moment :lol:
 
 
Pour moi c'est tout vu que le sm3.0 ne donnera pas d'avantage aux gf6xxx par rapport aux X8xx mais comme tu dis mieux vaut la jouer humble: On ne peut pas encore savoir.
 

Reply

Marsh Posté le 18-11-2005 à 20:01:19    

johnbroot a écrit :

Bon à savoir :jap:  
 
 
 
 
c'est là qu'on est pas d'accord. ce n'est pas parcequ'une carte intègre une technologie qu'elle aura la puissance nécessaire pour l'exploiter. C'est déjà pour le cas actuellement avec la 6800GT qui est juste pour faire tourner les derniers jeux, alors dans l'avenir sm3.0 ou pas elle sera à la ramasse comme les copines... Ca me rappelle les 1ere cartes à intégrer le bump mapping alors que dès que t'activais la feature les perfs plongeaient. La possibilité d'utiliser cette techno ne s'est démocratisée qu'une voir 2 générations plus tard.


 
bin y'a qu'a voir entre une 9600pro et une fx5700, laquelle est le plus utilisable actuellement, et a le meilleur prix de revente...
 
pour moi c'est clairement la 9600pro, alors que pendant un moment, au tout début de 9600 beaucoup hésitaient entre la gf4ti et la 9600pro.
 
ceci dit l'écart entre x800 et 6800 n'est pas aussi important en feature & perfs qu'entre 9600 & fx5700 (perfs) et gf4ti (features, là c'est un autre monde).
 
mais bon oui du HDR tu peux en faire sur x800/9800, mais c'est via une forme moins triviale (et plus restreinte en précision aussi) que via des rendertargets fp16, et par contre le Geometry Instancing officieux sur les x800/9800 je sais pas trop si il diverge énormément de l'approche SM3.0 (ça doit être assez proche avec plus de restrictions).
 
après à mon avis, ce que l'on peut craindre, c'est que passé un certain parc SM 3.0, les devs lacheront les cartes SM 2.0 comme la Geforce 4 a été lachée.
bon c'est vrai que le niveau de fonctionnalitées SM 2.0 étant bien moins éloignées du SM 3.0 que le SM 1.x du 2.0, fait qu'effectivement les cartes SM 2.0 ne souffriront pas de mort commerciale violente.
 
mais disons que pour le même prix, j'aurai tendance à conseiller la carte qui a le plus features si en contre-coup tu perds 5/10% de perfs sur le moment.

Reply

Marsh Posté le 18-11-2005 à 20:05:39    

johnbroot a écrit :


Pour moi c'est tout vu que le sm3.0 ne donnera pas d'avantage aux gf6xxx par rapport aux X8xx mais comme tu dis mieux vaut la jouer humble: On ne peut pas encore savoir.


 
Pour moi c'est loin d'être tout vu, ce qui me gêne d'ailleurs c'est que le X1800 fasse pas le filtrage en fp16 et que en int16, mais j'ai pas vu de doc pour voir si c'était pénalisant ou po (en termes algo/effets/efficacité).
 

Reply

Marsh Posté le 18-11-2005 à 20:17:22    

bjone a écrit :

Pour moi c'est loin d'être tout vu, ce qui me gêne d'ailleurs c'est que le X1800 fasse pas le filtrage en fp16 et que en int16, mais j'ai pas vu de doc pour voir si c'était pénalisant ou po (en termes algo/effets/efficacité).


 
Ben de toutes façons, vu les perfs globales de la carte, ça la pénalise pas trop... Le contrôleur mémoire a l'air de bien faire son boulot.

Reply

Marsh Posté le 18-11-2005 à 21:09:29    

concernant le hdr je cite tridam
 

ATI et Nvidia supportent chacun un certain nombre de format HDR différents. Au niveau des différences importantes entre ATI et Nvidia :
- ATI supporte le blending FX10, Nvidia pas
- ATI supporte l’antialiasing de type multisample en FX10 et en FP16, Nvidia pas
- Le filtrage des textures FP16 est gratuit chez Nvidia mais pas chez ATI
 
Globalement, ATI est plus souple que Nvidia au niveau des formats HDR supportés, mais étant donné que Nvidia a été le premier sur la technologie, le FP16 est le principal format utilisé ce qui peut poser problèmes aux Radeon X1K qui ne filtrent pas nativement les textures FP16, ce qui peut causer quelques soucis tant que les shaders n’ont pas été adaptés pour pallier à ce manque.


 
Donc historiquement avantage à nvidia avec le fp16 par contre comme ça a été dit il n'y a pas qu'1 seul algo de hdr et hl2 lostcoast (qui n'est pas programmé par une bande d'oscurs developpeurs) n'utilise pas justement le fp16. Reste donc à savoir quel algo s'imposera par son efficacité.
 
Je trouve ça fort de ta part bjone d'oser faire un parallèle
fx5700 (fausse carte DX9 à l'archi moisie) ou gfti4200(DX 8 ps1.2)  vs 9600pro (vraie carte DX9)
et
X8xx vs GF6xxx.
 
Ca revient encore une fois à dire qu'il y a le même ecart entre les sm3.0 et 2.0 qu'entre sm1.2 et 2.0  :pt1cable:  
Quant à sous entendre que les X8xx sont pourries niveau archi comme ont pu l'etre les fx5700....
 
M'enfin pour finir s'il y a moyen de trouver une GF6xxx au même prix qu'une X8xx pourquoi se priver de sm3.0?  [:spamafote]
On verra bien si les sm3.0 donnent un avantage significatif aux gf68xx / X8xx...


Message édité par johnbroot le 18-11-2005 à 21:18:59
Reply

Marsh Posté le 18-11-2005 à 22:59:53    

johnbroot a écrit :

Attends y'a pas du tout le même écart entre les sm2.0 et 3.0 que le fossé monumental existant entre le 1.3 et le 2.0. En attestent les débats contradictoires sm3.0 vs 2.0 qui animent le forum depuis un moment :lol:
 
 
Pour moi c'est tout vu que le sm3.0 ne donnera pas d'avantage aux gf6xxx par rapport aux X8xx mais comme tu dis mieux vaut la jouer humble: On ne peut pas encore savoir.


 
 
 
kan y aura 0 optimisation sur les Sm2.0 paske les 3.0 seront la depuis 2 ans tu peux pas savoir.
 
 
sinon plus realiste ya les ti4200 face au 9600xt, = sur les jeux Dx8 c etait plus dutout pareil sur les jeux Dx9.


Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 23:01:30
Reply

Marsh Posté le 18-11-2005 à 23:10:30    

et tu peux pas non plus savoir si le temps que l'on passe au tout shader 3.0 les 68xx seront encore dans le coup.
A vérifier si ATI s'est vu forcé d'intégrer les shaders 3.0 sur la série x18xx car c'est une réelle avancée ou bien parceque Nvidia a si bien communiqué sur les shaders 3.0 qu'ils ont du les intégrer pour des raisons marketing.  
 
Comme tu dis en comparant les Ti aux 9600 la question est de savoir ce qu'apportent réellement les 3.0 / 2.0.
Faut bien faire la différence entre optimisation qui consiste à grater qq % d'efficacité et introduire de réelles avancées avec de vraies nouvelles fonctions. J'ai (peut être à tord) l'impression que le passage sm2.0 sm3.0 c'est de l'optimisation et le passage sm1.2 sm2.0 une vraie évolution quant aux rendus graphiques obtenus.
 
A ce sujet faudra que je décortique les différences de fonctions offertes par les shaders 1.2/2.0/3.0


Message édité par johnbroot le 18-11-2005 à 23:14:07
Reply

Marsh Posté le 18-11-2005 à 23:18:05    

mais jai pas dis ke je savait j expose mes craintes c tout
 
 
les Sm30 c loin d'etre du marketing comme l etaient les 1.4 des 8500, la tout les jeux sont maintenant programés avek des Sm3 (facilité de programation inside)
 
moi dans le doute j'ai preferé prendre du Nvidia, on aurra la reponse d'ici 1 an :D


Message édité par THE REAL KRYSTOPHE le 18-11-2005 à 23:20:03
Reply

Marsh Posté le 18-11-2005 à 23:21:29    

dans 1 an la question ne se posera plus (pour moi) car je pourrai m'acheter une 78xx ou 18xx :D
et dans un an les 68xx ou les x8xx seront à la rue toutes les 2. Si dans un 1an les 68xx font la peau aux x8xx grace aux sm3.0 je heuuu je sais pas ce que je fais...  [:ddr555]


Message édité par johnbroot le 18-11-2005 à 23:23:45
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed