[HFR] Dossier : Nvidia GeForce GTX 680 en test

Dossier : Nvidia GeForce GTX 680 en test [HFR] - HFR - Hardware

Marsh Posté le 22-03-2012 à 14:30:01   0  

Après 3 mois d'une domination des Radeon, Nvidia réagit avec la GeForce GTX 680 qui introduit le premier GPU de la génération Kepler et entend bien surpasser la Radeon HD 7970… sans faire exploser le wattmètre.
Lire la suite ...

Reply

Marsh Posté le 22-03-2012 à 14:30:01   

Reply

Marsh Posté le 22-03-2012 à 14:36:05   7  

Et ben tout ça pour ça, bonne carte mais au final, ils ont pas fait plus fort qu'AMD


---------------
[Tuto en cours] Overclocking SB sur Asus (Offset) / Profil D3
Reply

Marsh Posté le 22-03-2012 à 14:39:03   0  

Merci pour l'article !
 
the_bob c'est n'est pas faux mais je salue tout de même l'exploit car ils l'ont fait avec une puce plus petite (ce qui est en partie lié au fait que la puce est moins orientée GPU Computing ) et un bus 256 bits seulement. Une GeForce GTX 680 coûte donc bien moins chère à produire qu'une Radeon HD 7970 a priori ! Seul problème, elles sont au même prix au final... donc ça ne nous regarde pas ;-)


Message édité par Elian le 22-03-2012 à 14:40:14
Reply

Marsh Posté le 22-03-2012 à 14:48:16   0  

the_bob a écrit :

Et ben tout ça pour ça, bonne carte mais au final, ils ont pas fait plus fort qu'AMD


je crois que c'est plutôt les driver non ?

Reply

Marsh Posté le 22-03-2012 à 14:51:53   3  

Franchement chapeau pour la synchronisation verticale adaptative côté pilote ! Et la gestion simultanée de 4 sorties vidéo sans adaptateur ni autre mais juste la carte, belle avancée !


---------------
-|-Profil BF3-|- Profil BF4-|-
Reply

Marsh Posté le 22-03-2012 à 14:57:44   0  

Où sont les specs ???

Reply

Marsh Posté le 22-03-2012 à 14:59:57   4  

Il y a de bonne chose, oui, mais le tapage que tout le mode a fait sur des leaks, au final, c'est 7% de mieux.
 
Par contre le multi écran + la vsync sont de bon argument.  
 
Au final le marché c'est pas les carte à 500€ et la toujours pas de concurence annoncé.


---------------
[Tuto en cours] Overclocking SB sur Asus (Offset) / Profil D3
Reply

Marsh Posté le 22-03-2012 à 15:00:32   0  

+1 il est passé où le tableau habituel des specs ?
 
Sinon :

Citation :

Si la GeForce GTX 680 réduit drastiquement la consommation au repos par rapport à la GeForce GTX 680, avec un niveau légèrement inférieur à celui de la GeForce GTX 560 Ti, elle ne dispose pas d'une technologie similaire à ZeroCore Power pour éteindre presque totalement le GPU en veille écran.

Reply

Marsh Posté le 22-03-2012 à 15:02:10   1  

enffin bon : 3* plus performante qu'un 580gtx ...c'est plutot 10-15% ...


---------------
Profil D3
Reply

Marsh Posté le 22-03-2012 à 15:05:44   2  

Au final en terme de perf pure, AMD a fait un meilleurs bon que nvidia et ce plus rapidement
(en regardant uniquement la moyenne récapitulative du test)


---------------
[Tuto en cours] Overclocking SB sur Asus (Offset) / Profil D3
Reply

Marsh Posté le 22-03-2012 à 15:05:44   

Reply

Marsh Posté le 22-03-2012 à 15:09:40   1  

En tout cas le rapport perf/watt fait un bon énorme par rapport à l'historique de Nvidia! Chapeau! :jap:

 

Par contre pour les sorties d'écran, Nvidia s'aligne sur ce que propose AMD depuis au moins une génération, et la synchro logicielle est une bonne initiative, même si la plupart des jeux proposent déjà la Vsync, sans compter qu'on peut la forcer à peu près tout le temps via les pilotes...

Message cité 1 fois
Message édité par vanloque le 22-03-2012 à 15:11:43
Reply

Marsh Posté le 22-03-2012 à 15:15:21   1  

vanloque a écrit :

la synchro logicielle est une bonne initiative, même si la plupart des jeux proposent déjà la Vsync, sans compter qu'on peut la forcer à peu près tout le temps via les pilotes...

 

Je crois que tu n'as pas bien compris de quoi il était question :D


Message édité par Marc le 22-03-2012 à 15:15:36
Reply

Marsh Posté le 22-03-2012 à 15:19:35   0  

La faute au test des Numériques alors :whistle:

 

J'ai pas encore lu en détail votre article.

 

edit: explication reçue sur le topic  Radeon, désolé. :whistle:


Message édité par vanloque le 22-03-2012 à 15:22:38

---------------
--- https://steamcommunity.com/id/Vanlock ---
Reply

Marsh Posté le 22-03-2012 à 15:21:58   0  

J'ai envie de dire ... AMD a intérêt a baisser leurs prix si ils veulent garder leur part de marchés et ne pas perdre trop d'argent :/
 
Car la ! Nvidia a réussis a lié puissance/performance/température et consomation sur une puce ! et au même "prix".. pour les gens n'y connaissant pas forcément grand chose c'est forcément LE choix prédestiné ... :/

Reply

Marsh Posté le 22-03-2012 à 15:24:33   0  

bluedragon38 a écrit :

J'ai envie de dire ... AMD a intérêt a baisser leurs prix si ils veulent garder leur part de marchés et ne pas perdre trop d'argent :/
 
Car la ! Nvidia a réussis a lié puissance/performance/température et consomation sur une puce ! et au même "prix".. pour les gens n'y connaissant pas forcément grand chose c'est forcément LE choix prédestiné ... :/


Tout à fait, puisque AMD a une si belle réputation grâce entre autres à Sir Carmack...  :/
 
Et Mark Rein qui doit recevoir tous les ans une ou quatre Ferrari de Nvidia.  
Ferrari dédicacées par Jen-Hsun Huang bien evidemment.


---------------
--- https://steamcommunity.com/id/Vanlock ---
Reply

Marsh Posté le 22-03-2012 à 15:24:47   1  

GRAND BRAVO à Hardware.fr pour être le seul à avoir tester Kepler en 5760*1080 !!!!!!!!!!!!!!!!!!!  
 
GRAND GRAND BRAVO, ça va vous mettre en 1er plan sur la scène Euro.


---------------
> Mon FEEDBACK <
Reply

Marsh Posté le 22-03-2012 à 15:26:19   0  

[:ddr555] [:ddr555] [:ddr555]
 
J'espère que tu avais un stock de mouchoirs.


---------------
--- https://steamcommunity.com/id/Vanlock ---
Reply

Marsh Posté le 22-03-2012 à 15:30:21   0  

Vu la différence de perfs entre 7970 et 680 sur BF3/etc. dans cette résolution, on voit que les 3Go ne sont pas utiles.
Pourtant y'a même de l'AA!


---------------
--- https://steamcommunity.com/id/Vanlock ---
Reply

Marsh Posté le 22-03-2012 à 15:31:25   0  

Y'a rien qui demande plus de 2Go pour le moment à part skyrim moddé.


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
Reply

Marsh Posté le 22-03-2012 à 15:34:42   0  

Ouais, je suis le premier étonné, j'aurais pensé qu'en Triple-Ecran ça serait utile avec l'AA et tout à fond...
 
Faut que LesNums revoient leurs conclusions :D, le récapitulatif de perfs ici montre que GPUBoostOFF, la 680 a le même indice de perfs que la 7970, et seulement 4% de plus quand il est actif.


---------------
--- https://steamcommunity.com/id/Vanlock ---
Reply

Marsh Posté le 22-03-2012 à 15:39:37   0  

Super, merci bon boulot! le jeu "Project Cars" va refaire son apparition dans les prochains tests ?

Reply

Marsh Posté le 22-03-2012 à 16:01:22   0  

Merci pour ce test ! :)
 
Par contre, est ce que le protocole de test de consommation est le même que pour le dossier publié en février 2010 ?
 
http://www.hardware.fr/articles/78 [...] iques.html
 
Ça pourrait être intéressant de le mettre à jour avec les cartes actuelles. Par exemple pour ceux qui veulent changer de cartes graphique (comme moi par ex) et constater qu'une 4870 1go consomme presque autant qu'une GTX680, c'est assez pratique.

Reply

Marsh Posté le 22-03-2012 à 16:24:25   0  

Je trouve cette carte inutile. Tout se tapage pour 3-4 FPS en plus (et ce n'est pas dans tout les jeux testés), quelques watts en moins...
 
Et les graphiques qui l'annonçait bien bien plus puissante !

Reply

Marsh Posté le 22-03-2012 à 16:26:20   0  

Fabz49 a écrit :

Par contre, est ce que le protocole de test de consommation est le même que pour le dossier publié en février 2010 ?

Les outils de mesure sont les même mais pas les logiciels qui chargent

Reply

Marsh Posté le 22-03-2012 à 16:40:44   0  

Cypia a écrit :

Je trouve cette carte inutile. Tout se tapage pour 3-4 FPS en plus (et ce n'est pas dans tout les jeux testés), quelques watts en moins...
 
Et les graphiques qui l'annonçait bien bien plus puissante !


On a pas regardé le même test alors, globalement la 680 est environ 25% plus puissante que la 580 et consomme 25% de moins... Ce ne sont pas "3-4 FPS en plus" et "quelques watts en moins".

Reply

Marsh Posté le 22-03-2012 à 16:42:14   0  

Tortue-Geniale a écrit :


On a pas regardé le même test alors, globalement la 680 est environ 25% plus puissante que la 580 et consomme 25% de moins... Ce ne sont pas "3-4 FPS en plus" et "quelques watts en moins".


 
J'hésite entre le facepalm et l'ironie.
HD7970 ?


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
Reply

Marsh Posté le 22-03-2012 à 16:46:22   0  

Marc a écrit :

Les outils de mesure sont les même mais pas les logiciels qui chargent


 
Tu peux nous donner les logiciels utilisés ? :ange:


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
Reply

Marsh Posté le 22-03-2012 à 17:03:05   0  

C'est marqué dessus

Reply

Marsh Posté le 22-03-2012 à 17:05:21   0  

Pour la conso effectivement, je parlais plus du graphe de température GPU de la page d'avant ( http://www.hardware.fr/articles/85 [...] e-gpu.html ).
 
Un jour, je verrai OCCT utilisé dans un test GPU HFR :ange:


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
Reply

Marsh Posté le 22-03-2012 à 17:05:59   0  

Nvidia a su progresser sur un autre terrain que les perfs purs et c'est déjà bien.
 
Mais au final, ce sont presque les perfs du Crossfire de 7870 qui m'ont paru plus intéressantes que le cas de la 680vs7970 :D
 
Il y aura dans l'avenir quelques précisions sur le Micro-stuttering détecté durant les tests (ou pas) ?

Reply

Marsh Posté le 22-03-2012 à 17:12:17   0  

Damien doit le rajouter avec les commentaires des graphs oui. Il y'en a sur le CFX de 7870 malheureusement :/

Reply

Marsh Posté le 22-03-2012 à 17:48:10   0  

Encore un article à l'image d'Hardware.fr... EXHAUSTIF !  
 
Bref la grande classe comme d'habitude, voila pourquoi je lis les tests d'hardware toujours ici et pas ailleurs !

Reply

Marsh Posté le 22-03-2012 à 17:56:09   0  

Tortue-Geniale a écrit :


On a pas regardé le même test alors, globalement la 680 est environ 25% plus puissante que la 580 et consomme 25% de moins... Ce ne sont pas "3-4 FPS en plus" et "quelques watts en moins".


 
Je faisais référence à la plus haute carte amd.
Pas à la gtx580

Reply

Marsh Posté le 22-03-2012 à 17:59:48   0  

Ah cool ya la fin :D
Maintenant que j'y pense, c'est pas le premier test que je lis, mais je crois que j'ai toujours pas saisi les subtilités des tests théoriques [:ddr555]
 
Quel test est le plus significatif quand on veut estimer la puissance de calcul sur un programme de calcul de nombres premiers ? ou de calcul de hashs ?
 
Merci d'avance pour la réponse, et gros GG pour cet énorme boulot :jap:
 
PS : c'est chelou quand même ce design des VRM non équidistants du core...


---------------
Feedback/Ventes/Divers/Estim -- www.laquadrature.net
Reply

Marsh Posté le 22-03-2012 à 18:54:34   0  

Marc a écrit :

Les outils de mesure sont les même mais pas les logiciels qui chargent


 
Merci, je viens de relire et j'avais pas vu le lien du protocole utilisé...
 
Bon d'après ce test, il faut compter entre 15 et 30% de consommation supplémentaire avec furemark  par rapport a un bench Anno. Plutôt 30% avec une Nvidia mais s'ils ont fait de gros effort de consommation... la 680 devrait pas dépasser les 200W à fond les ballons quoi.

Reply

Marsh Posté le 22-03-2012 à 18:58:30   0  

Fabz49 a écrit :


 
Merci, je viens de relire et j'avais pas vu le lien du protocole utilisé...
 
Bon d'après ce test, il faut compter entre 15 et 30% de consommation supplémentaire avec furemark  par rapport a un bench Anno. Plutôt 30% avec une Nvidia mais s'ils ont fait de gros effort de consommation... la 680 devrait pas dépasser les 200W à fond les ballons quoi.


 
En fait non, GPU Boost va réduire les fréquences de manière à tendre vers une consommation de 170W si la carte dépasser le TDP de 195W.

Reply

Marsh Posté le 22-03-2012 à 19:00:06   0  

Tetedeiench a écrit :

Pour la conso effectivement, je parlais plus du graphe de température GPU de la page d'avant ( http://www.hardware.fr/articles/85 [...] e-gpu.html ).
 
Un jour, je verrai OCCT utilisé dans un test GPU HFR :ange:


 
Malheureusement, les outils tels que Furmark et OCCT n'ont plus de sens pour mesurer la consommation des GPU qui maintiennent une enveloppe thermique que ce soit avec Powertune ou GPU Boost.

Reply

Marsh Posté le 22-03-2012 à 19:11:48   0  

Bon ben me reste plus qu'a attendre le GK110 dans six mois, là sera dévoilée la vraie puissance de Kepler xD

Reply

Marsh Posté le 22-03-2012 à 19:13:22   0  

J'aurais bien aimé un petit topo sous W8, ne serait-ce qu'à caractère informatif  [:bakk21]

Reply

Marsh Posté le 22-03-2012 à 19:17:49   0  

tridam a écrit :


 
En fait non, GPU Boost va réduire les fréquences de manière à tendre vers une consommation de 170W si la carte dépasser le TDP de 195W.


 
Merci ^^. J'avais pas lu le test en entier, c'est maintenant chose faite. :sweat:

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed