nVidia commence a tricher.... - Hardware
Marsh Posté le 14-02-2002 à 12:38:35
Je vois pas en quoi ca concerne NVIDIA
C'est un choix de MadOnion.
Marsh Posté le 14-02-2002 à 12:42:20
cela concerne nVidia, en tant que MadOnion va devenir son partenaire officiel pour ses benchs et demos techniques.
Marsh Posté le 14-02-2002 à 12:43:06
Heuuuu j'ai raté un épisode ou je suis trop con pour voir le rapport avec Nvidia ???
A moins qu'on m'aurait menti, et que c'est Nvidia qui a fait le bench ???
Marsh Posté le 14-02-2002 à 12:43:27
MatikOne a écrit a écrit : cela concerne nVidia, en tant que MadOnion va devenir son partenaire officiel pour ses benchs et demos techniques. |
Sources ???
Marsh Posté le 14-02-2002 à 12:44:06
3D Mark 2001 est sorti en même temps que la GF3, et la nouvelle mouture sort avec l GF4.
Et la ou une Radeon 8500 aurait pu faire mal à une GF4, on voit que MadOnion utilise une "astuce".
Sans être pro-ATI ou pro-nvidia, on peut s'interroger sur ce choix. Auraient-ils fait ce choix s'ils n'étaient pas plus ou moins en "très bon terme" avec nvidia ?
Je me pose simplement la question.
mais pour mes tests de matos, je commence à douter d'un benchmark qui ne compare plus les perfs des cartes.
Marsh Posté le 14-02-2002 à 12:46:29
Arcord a écrit a écrit : mais pour mes tests de matos, je commence à douter d'un benchmark qui ne compare plus les perfs des cartes. |
Si tu compares 2 cartes juste avec 3dmark 2001
Marsh Posté le 14-02-2002 à 12:51:29
Antigone a écrit a écrit : Sources ??? |
oui ilya pas de communiqué de presse mais j'entends cette rumeur de plus en plus sur les forums hardware americains, cela reste dons a verifier, mais en conaisant la rude bataille entre ATI et nVidia chaquun fait ce quil peut pour defavoriser l'autre...
(neanmoins jai quand meme 4 potes ki m'ont suivi ce mois ci et se sont achétes des ATI 8500 a mon avis le prix favorise ATI )
Marsh Posté le 14-02-2002 à 12:52:32
MadOnion a simplement dit qu'ils ont préféré la compatibilité plutot que l'optimisation des differents standard ATI et Nvidia pour les shader !
je ne vois VRAIMENT pas le rapport avec le titre !
Boolai detected ?????
[jfdsdjhfuetppo]--Message édité par Rayaki--[/jfdsdjhfuetppo]
Marsh Posté le 14-02-2002 à 12:58:42
La start up Madonion n'est qu'un sbire de la guerre marketing que se livrent les requins de la 3D.
En l'occurence, en ignorant des fonctions pour lesquelles ATi est en avance, ils surnotent volontairement les cartes NVidia.
Moi ça me fait marrer, parce qu'à une époque, les NVidia étaient les seules à avoir le T&L (3dfx, ATi, STM ne l'avaient pas, aucun jeu ne l'utilisait), et Madonion basait une énorme partie de leur bench dessus, ET ILS EN TENAIENT COMPTE Y COMPRIS POUR LES CARTES SANS T&L, afin de bien les enfoncer face aux Geforce1.
A l'époque on nous disait "gnagnagna sans le T&L dans 6 mois votre carte sera dépassée, la preuve avec 3DMarks"...mouarf !
J'ai pitié pour la crédibilité de ceux qui comparent des cartes graphiques sur cet outils de désinformation. Et encore plus pitié pour ceux qui continueront de l'utiliser.
En tout cas, ces tocards de chez Madonion, on sait pour qui ils roulent maintenant (pour les crédules qui ne le savaient pas encore).
Marsh Posté le 14-02-2002 à 13:00:34
ouais c vrai k le titre est peut etre pas bien choisi, mais malgré tt avec ce nveau bench on pourra plus vraiment comparer ces 2 cartes, car elles vont utiliser des processus differents au niveau du tritement des effets.
je sais pas si on pourra vraiment se fier, meme si de tt facon je pense qu'avec tt les technologies propres aux constructeurs il sera dur de se creer une opignion sur le materiel prochainement.
Marsh Posté le 14-02-2002 à 13:09:44
Texla a écrit a écrit : Si tu compares 2 cartes juste avec 3dmark 2001 |
Ai-je dis que je n'utilisais que 3D Mark 2001 ?
Non pas vraiment. Mais il est vrai qu'il fait parti des "incontournables", au même titre que Quake III.
Marsh Posté le 14-02-2002 à 13:12:33
ça y est : je l'ai mon boolai de la semaine (pas matikone, l'autre maxoco)
MatikOne: étant donné que meme les fonctions 3D gérées en commun ne sont pas codé de la meme manieres sur les 2 cartes, il serait mal venu de les optimiser à chaque fois en fonction des tests: un jeu utilise une routine, pas plusieurs versions de la routine selon les cartes détectées. donc pour madonion, c'est pareil: compatibilité, puisqu'ils savent tres bien que les développeurs de jeu feront de meme
========
maxoCo: tu es bete ou tu te forces là ????
-"les NVidia étaient les seules à avoir le T&L (3dfx, ATi, STM ne l'avaient pas, aucun jeu ne l'utilisait"
===> ah ben oui, c'est vrai ! y a que eux donc on n'a pas le droit de l'utiliser, fo attendre que tout le monde le gere... imaginons que tous les fabriquants sauf STM gere le T&L... on n'a pas le droit de l'utiliser parce qu'il y en a 1 qui ne l'utilise pas ????... Pitoyable comme reflexion
"ILS EN TENAIENT COMPTE Y COMPRIS POUR LES CARTES SANS T&L, afin de bien les enfoncer face aux Geforce1."
===> si tu avais un peu plus regarder les tests publiés à l'époque et les options de bench, tu aurais eu la lucidité de voir qu'on pouvait choisir le T&L software afin de voir comment se comportait les diverses cartes . Il y avait la gestion de l'environnemental bump mapping dans 3Dmark2000, doit on en conclure que madonion voulait descendre les geforces puisque la GF1 ne le gerait pas ???? arretes la parano !
"sans le T&L dans 6 mois votre carte sera dépassée, la preuve avec 3DMarks"
===> Nvidia avait rappelé que le T&L etait utile pour les config moyenne, liberant ainsi un peu de temps cpu pour la gestion eventuelle des lois physiques et autres aspects d'un jeu, et aussi pour les tres hautes resolutions où cela apportait un gain. Il n'y a que ceux qui ne voient pas plus loin que leur pif pour avoir pensé ce genre de phrase!
retournes donc bencher ta carte avec winmark99, au moins là tu seras sûr que toutes les routines sont utilisées par toutes les cartes (vérifies, on sait jamais, il pourrait vouloir gonfler les scores 3D des matrox mystic ... )
Marsh Posté le 14-02-2002 à 13:15:29
"Mais il est vrai qu'il fait parti des "incontournables", au même titre que Quake III."
je pense qu'on peut se faire une bonne idée de la puissance de la carte avec :
1- 3dmark2000
2- 3dmark2001 (SE ou pas)
3- vulpineGL
4- Quake2 (crusher)
5- Quake3
6- Giants
7- Serious Sam 1 et 2
8- Expandable
Marsh Posté le 14-02-2002 à 13:20:52
Je suis tout à fait d'accord avec toi Rayaki, et j'utilise personnellement 3DM2000, 2001, VulpineGL, Quake III, et Serious Sam 1.
mais quand tu cherches des tests sur le net, la plupart ommettent une bonne moitié des titres que tu cites, et fondent une bonne part de leur conclusion sur 3D Mark 2001 et Quake III.
Marsh Posté le 14-02-2002 à 13:22:48
c'est un peu logique:
3dmark => direct3D
quake3 => openGL
ils réduisent les benchs en prenant un bench pour les 2 standards
Marsh Posté le 14-02-2002 à 13:24:10
Rayaki a écrit a écrit : "Mais il est vrai qu'il fait parti des "incontournables", au même titre que Quake III." je pense qu'on peut se faire une bonne idée de la puissance de la carte avec : 1- 3dmark2000 2- 3dmark2001 (SE ou pas) 3- vulpineGL 4- Quake2 (crusher) 5- Quake3 6- Giants 7- Serious Sam 1 et 2 8- Expandable |
en effet, serious sam 2 = excellent bench, demande beaucoup de puissance video, la majorité des cartes 16mo (genre voodoo3) ne peuvent que le faire tourner avec tout au minimum, et meme là ca plante à rien
Marsh Posté le 14-02-2002 à 13:28:01
oui c sur qu'il fo de tt facon pas se baser sur un Bench, pour se faire une opignion sur le matos, mais la encore, souvent les constructeurs trichent quand meme la dessus en optimisant leur pilotes dessus (cf ATI avec ses pilotes maxxés sur 3DMark mais nVidia na pas fait mieu.
Ptit truc; jai lu sur un site americain que John Carmack a denonce que la GF4mx serait pas capable de faire fonctionner Doom3 correctement, et qu'il la deconseille aux jouers... ???!!!
La c'Est quand'meme le top en matiere de delires, quand un Programmeur denonce le materiel avant sa sortie
Marsh Posté le 14-02-2002 à 13:32:12
MatikOne a écrit a écrit : Ptit truc; jai lu sur un site americain que John Carmack a denonce que la GF4mx serait pas capable de faire fonctionner Doom3 correctement, et qu'il la deconseille aux jouers... ???!!! La c'Est quand'meme le top en matiere de delires, quand un Programmeur denonce le materiel avant sa sortie |
oui mais c mieux de le savoir, ceux qui croyait qu'en s'achetant une geforce 4 mx serait ok pour tourner les futur jeu, dont doom 3, vont surment prendre une geforce 4 ti à la place
selon sque jai entendu, seuls les Radeon 8500, geforce 3 et geforce 4 ti pourront le faire tourner correctement pour le moment
Marsh Posté le 14-02-2002 à 13:34:11
D mark cai de la me rde
Marsh Posté le 14-02-2002 à 13:39:47
Rayaki a écrit a écrit : ça y est : je l'ai mon boolai de la semaine (pas matikone, l'autre maxoco) |
Et moi, j'ai mon NVidiot de la semaine, avec l'autre winner de Raiakay !
Alors quel âge tu as mon grand pour me parler comme ça 14 ans, 15 ans et demi ?
Je ne pense pas qu'on se connaisse, ne je t'ai pas adressé la parole non plus, j'ai juste donné mon point de vue sur ce topic avant que tu le pourrisses.
Je te remercierais de respecter l'avis des autres. Ou de les commenter sans insulter, si c'est dans tes capacités.
Si tu fais partie des personnes prêtes à insulter, à écrire 300 posts dans un topic et se taper sur la gueule pour justifier l'achat exutoire de leur GF3, je pense que je n'ai pas grand chose à te dire, de toute manière.
[jfdsdjhfuetppo]--Message édité par MaxoOo--[/jfdsdjhfuetppo]
Marsh Posté le 14-02-2002 à 13:40:11
burgergold a écrit a écrit : oui mais c mieux de le savoir, ceux qui croyait qu'en s'achetant une geforce 4 mx serait ok pour tourner les futur jeu, dont doom 3, vont surment prendre une geforce 4 ti à la place selon sque jai entendu, seuls les Radeon 8500, geforce 3 et geforce 4 ti pourront le faire tourner correctement pour le moment |
oui mais je trouve quand meme desolant de devoir debourser une fortune pour faire tourner un jeu...
je pense que bcp trop de personnes se fient aux benchs, mais en gros les differences ne sont pas si grandes que ca, si on regarde la plupart de temps la GF3 et la R200 avaient 10 a 15 FPS de difference... et vu kelles tournent a plus de 50 avec la plupart des jeux, cela est meme pas visible
perso jai une ATI que jai achete pour son prix et pour le Hydravision (enfait je me suis fait kanmeme arnaquer car jai pensais que ATI livraient un systeme de double affichage sembleant a celui de Matrox, mais non je peux pas avoir au 1280x1024 sur l'ecran et du vrai 800x600 sur la tele...) et je la change pas avant un an. j'investirais juste encore dans un VRAI athlon 2gh avec la CM correcte ki va avec, mais c encore un autre sujet.
Marsh Posté le 14-02-2002 à 13:47:19
"cf ATI avec ses pilotes maxxés sur 3DMark"
===> c'etait pas plutot ATI avec ses pilotes pour quake ?
"La c'Est quand'meme le top en matiere de delires, quand un Programmeur denonce le materiel avant sa sortie "
===> il y en a quand meme pleins qui pensent qu'en overclockant les GF4mx, ils vont arriver au meme stade que les GF3
"Alors quel âge tu as mon grand pour me parler comme ça 14 ans, 15 ans et demi ? "
===> multiplies par 2, tu seras proche de la réalité !
"Je ne pense pas qu'on se connaisse, ne je t'ai pas adressé la parole non plus, j'ai juste donné mon point de vue sur ce topic avant que tu le pourrisses. "
===> t'est gentil toi ! tu pourri un topic et tu oses accuser quelqu'un d'autre ! mauvaise foi hallucinante !
"Je te remercierais de respecter l'avis des autres. Ou de les commenter sans insulter, si c'est dans tes capacités. "
=>"J'ai pitié pour la crédibilité de ceux qui comparent des cartes graphiques sur cet outils de désinformation. Et encore plus pitié pour ceux qui continueront de l'utiliser."
vas y ma poule, enfonces toi encore plus
[jfdsdjhfuetppo]--Message édité par Rayaki--[/jfdsdjhfuetppo]
Marsh Posté le 14-02-2002 à 13:47:35
bencher sa GF3 ou sa R8500 avec quake 2 crusher
pkoi pas avec shadow warrior
vous le trouvez ou VulpineGL svp??
Marsh Posté le 14-02-2002 à 13:48:21
Euh g une question: comment qu'on fait pour avoir les fps sous quake3. G le patch 1.31 pour quake3, faut taper quoi dans la console?
Marsh Posté le 14-02-2002 à 13:50:07
"bencher sa GF3 ou sa R8500 avec quake 2 crusher "
=> fais peter le 1600*1200*32 et là tu verras si ton couple proc-CG suit ! ça calme ceux qui ont une GF3 avec un proc à 500Mhz autant que ceux qui ont 1.5Ghz avec une GF2
http://www.3dnews.ru/download/tools/vulpinegl_bench/ (le fichier qui fait 57Mo)
[jfdsdjhfuetppo]--Message édité par Rayaki--[/jfdsdjhfuetppo]
Marsh Posté le 14-02-2002 à 13:53:02
mais ceux qui ont un proc a 1.2Ghz et uneGF3 ?
sinon tu pourrai me passer l'url pour dl vulpineGL, jlai jamais essayé
merci
Marsh Posté le 14-02-2002 à 13:53:49
merde excuse moi je n'avais pas lu ta reponse jusqu'en bas, désolé
merci pour l'url
Marsh Posté le 14-02-2002 à 13:56:07
Il est pas mal Vulpine GL, mais il semble utiliser des instructions propres à Nvidia, car on ne peut pas activer toutes les options avec les radeons, et les scores sont bien inférieurs?
Sinon, j'aime bien, et son système de détails pour les notes est pas mal.
Marsh Posté le 14-02-2002 à 13:56:34
je me base sur le crusher pour verifier que je descend jamais en dessous de 100 fps en 1600*1200, meme pendant les acces disques...
pour vulpineGL, je me disait qu'on ne verrai jamais un jeu dans le genre... mais avec serious sam 2, on y est presque arrivé
Marsh Posté le 14-02-2002 à 13:57:36
"activer toutes les options avec les radeons, et les scores sont bien inférieurs?"
tu peut pas activer quoi ?
score inferieur ? faudra que je verifie par rapport à mes valeurs ce soir...
ps: j'ai fait un bench dans le meme genre que crusher pour SS2 (sauf que là y avait que moi et les vilains pas beaux... le framerate chute pas mal en 1600*1200*32... j'arrive à descendre à 15 fps min)
[jfdsdjhfuetppo]--Message édité par Rayaki--[/jfdsdjhfuetppo]
Marsh Posté le 14-02-2002 à 13:59:41
j'ai jamais joué ni vu serious sam tourné devant moi, mais d'apres des images de joy, ca parait assez cubique quand meme non ??? il vraiment bon ou pas ce jeu?
Marsh Posté le 14-02-2002 à 14:01:04
ah ouais quand meme 15fps en 1600*1200*32 avec un 1.9Ghz et une GF3 po mal, t'as activé l'AA? dapres ce que j'ai vu serious sam a de tres belles textures
Marsh Posté le 14-02-2002 à 14:01:45
SS1 est tres bien mais pas assez détaillé en terme de graphisme...
le deux est NETTEMENT mieux (mais il manque encore certaines choses et ça reste encore un peu juste pour les décors arrondis ou chaotique... en tout cas, avec les graphismes et l'herbe, ça )
Marsh Posté le 14-02-2002 à 14:02:37
tiens j'ai une question hors sujet, vous connaissez po un prog qui me permetrait de copier le noyau de win2000 dans la ram comme le permet de faire tweakXP avec winXP ??
Marsh Posté le 14-02-2002 à 14:02:57
AA non activé !
faut dire que par moment je me retrouve face à 40 monstres avec des roquettes qui volent dans tous les coins...
HS: non
[jfdsdjhfuetppo]--Message édité par Rayaki--[/jfdsdjhfuetppo]
Marsh Posté le 14-02-2002 à 14:03:15
bon si tu dis qu'il est vraiment bon fodrait que je me debrouille pour le choper alors
Marsh Posté le 14-02-2002 à 14:03:36
Pour Vulpine GL, on ne peut pas activer certaines options dans le menu de gauche (désolé mais je ne me rappelle plus le nom, et je ne peux pas vérifier maintenant).
Par contre, c'est peut être un problème uniquement sur les Radeon 256 et 7500, mais pas sur les 8500.
Mais je me rappelle clairement ne pas avoir les mêmes options sur ma Radeon 256 et ma GF2 MX : et ma GF2 MX a de meilleurs scores que ma radeon 256 dans ce bench.
Faudrait que je vérifie pour la 8500.
Marsh Posté le 14-02-2002 à 12:37:53
Comme vous le savez peut-être, Madonion vient de sortir officiellement son 3DMark2001 SE (Second Edition). La nouveauté semblait simple et limpide : l'ajout d'une démo utilisant les Pixel Shader en version 1.4.
Cependant et d'après les premiers tests, l'écart entre la Radeon 8500, gérant les Pixel Shader 1.4 et entre les GeForce3, ne les gérant qu'en version 1.0, ne grossit pas. Pourquoi donc ?
La réponse dénichée par notre confrère NVChips ne semble pas très honnête, à vous de juger. Lorsque 3DMark2001 SE détecte une carte graphique gérant les Pixel Shader en version 1.4, la démo est utilisée comme il se doit, c'est à dire en mode Pixel Shader 1.4. Par contre lorsque la carte ne le supporte pas, la démo est utilisée avec la version 1.0 des Pixel Shader. Avec la version 1.4, le moteur peut réaliser le rendu en une seule passe, contre deux avec la version 1.0. Pourquoi donc les différences de notations ne grossissent pas ?
Réponse dans la FAQ :
"MadOnion explique que c'est un test de fonctionnalité destiné présenter une nouvelle technologie, mais comme les pixels shaders 1.0 et 1.4 ont des modes de fonctionnement différents, leurs performances ne sont pas comparables. Chaque version peut être optimisée pour les performances, mais MadOnion a préféré optimiser leur compatibilité"
Pour résumer, la démo n'est là que pour faire joli et les performances ne sont pas comparées... Intéressant pour un benchmark non ?
Extrait de Presence PC