[Topic Unique] GeForce 8800

GeForce 8800 [Topic Unique] - Carte graphique - Hardware

Marsh Posté le 13-08-2006 à 00:27:30    

http://www.nvidia.fr/docs/TEMPLATE/446/header_nvidia_0806_445px.jpg
 
 
Geforce 8800 GTS 320 MB
Geforce 8800 GTS 640 MB
Geforce 8800 GTX (il est possible d'en trouver à moins de 480 euros en Belgique.)
Geforce 8800 ULTRA
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018438.jpg
G80 : Une architecture unifiée pour DirectX 10
 
Ce G80, contrairement à tout ce que l'on pensait au départ, dispose bien d'une architecture unifiée. Ainsi, les unités de pixels et de vertex disparaissent, et laissent place à des "Streams processors".
 
Ces derniers peuvent être alloués dynamiquement pour effectuer des calculs sur les pixels, les vertex, la géométrie et même la physique.
 
Pas moins de 681 millions de transistors gravés en 90 nm.  
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018437.jpg
 
Une qualité sans reproche ?
 
Les GeForce 7 ont été critiquées régulièrement pour leur qualité de rendu inférieure à celle de la concurrence. Avec les GeForce 8, Nvidia a bien l´intention de reléguer ces affirmations au passé. Le principal reproche fait à Nvidia concernant le filtrage des textures qui souffrait d´optimisations trop poussées qui ont fini par nuire à la qualité. Comment résoudre le problème ? La solution de Nvidia est "simple" : augmenter la puissance de calcul des textures d´une manière telle qu´il ne soit plus nécessaire d´avoir recours à ces optimisations. Alors qu´un GeForce 7900 dispose de 24 unités de texturing, le GeForce 8800 en contient 64. Un bond énorme, d´autant plus que le GPU actuel le plus performant d´ATI, le X1950, n´en dispose que de 16. Nvidia peut donc se permettre d´appliquer un filtrage de premier ordre et c´est le cas.
 
L´antialiasing est lui aussi en progression puisque Nvidia a entièrement retravaillé sa gestion. De nouveaux modes font leur apparition avec une technologie nommée Coverage Sample antialiasing qui permet d´en appliquer un niveau supérieur sans faire baisser les performances dans des proportions trop importantes. Enfin les GeForce 8 supportent l´antialiasing avec tous les modes de rendu HDR. Oblivion, Far Cry, Serious Sam2 etc. peuvent donc maintenant fonctionner en mode haute qualité avec antialiasing.
 
 
Par défaut, le G80 en embarque 128, rien que ça. Ils sont accompagnés de 24 ROP, et d'une interface mémoire de 384 bits, le tout au sein d'une puce de pas moins de 681 millions de transistors, gravée en 90 nm.
 
Petite nouveauté, si la fréquence du GPU est annoncée à 575 MHz pour le modèle GTX, ses "Stream processors" disposent d'une fréquence environ 2.4x supérieure puisqu'elle est de 1350 MHz pour ce même modèle.
 
Mémoire : Des chiffres bâtards et de la GDDR-3
 
Côté mémoire, par contre, on fait dans le conservatisme puisque la GDDR-3 est toujours de la partie. NVIDIA souhaitant apparemment utiliser la GDDR-4 une fois qu'elle sera un peu plus disponible et sûrement moins coûteuse.
Afin d'augmenter sa bande passante, le caméléon a ainsi décidé de chercher du côté de l'interface mémoire, qui passe de 256 bits à 384 bits sur le modèle GTX.
 
GTX embarque pas 512 Mo ni 1 Go mais... 768 Mo de mémoire.
 
Gestion de la 2D externalisée et retour de l'appellation GTS !
 
L'économie de transistors... c'est aussi ce qui a motivé l'attribution de la gestion de la 2D (RAMDAC, TMDS...) à une puce externe dont on ne sait que peu de choses : le NVIO.
Ce dernier est présent sur le modèle haut de gamme, la GTX, mais aussi sur sa petite soeur : la GeForce 8800GTS.
 
Pour la GTS:  
Au programme, des fréquences revues à la baisse puisque le GPU affiche 500 MHz, les SP, eux, tournent à 1.2 GHz, alors que les 640 Mo de mémoire reliés à une interface de 320 bits sont cadencés à 800 MHz.
Pour autant, la puce n'est pas différente, les unités seraient donc seulement désactivées ?
 
Consommation et Niveau Sonore:
 
Et le doublement des performances ne semble pas aller de pair avec le doublement de la consommation ou de la nuisance sonore.
Bruit et consommation : des points forts de ces nouvelles cartes
Les cartes seraient relativement silencieuses et offrent une consommation au repos au niveau de leur concurrente de chez ATI.
 
Qualité d'image : AF revu, HDR + AA, CSAA, 10 bits...
 
Ainsi, le filtrage anisotropique a entièrement été revu et offre des résultats meilleurs que ce qu'offre la gamme X1k.
L'anti-crénelage a lui aussi subi une petite refonte avec l'arrivée d'un nouveau mode, le CSAA, sorte de filtrage partiel, mais qui ne semble pas convaincant selon nos confrères.
 
Reste qu'avec la puissance de calcul de ces monstres, des filtrages de 8x ou 16x ne devraient pas être un énorme problème...
Le traitement sur 10 bits en interne et l'HDR + AA arrivent aussi, rattrapant le retard du caméléon sur ATI.
De plus, l'HDR est désormais au niveau de ce que demande DirectX 10 et se fait sur 128 bits (FP32) contre 64 bits (FP16) précédemment.
 
Futur du G80 : la physique et l'utilisation de trois cartes
 
NVIDIA semble aussi nous réserver quelques surprises, au niveau du SLi notamment, puisque la GTX dispose de deux ponts, dont un est "réservé à une utilisation future de la technologie SLi" selon les documents que nous avons pu nous fournir.
D'après d'autres documents, il s'agit sans aucun doute de la gestion physique sur trois cartes.
 
Sur ce sujet, NVIDIA affirme que son GPU est paré pour offrir des performances "trop de la balle" sans pour autant nous en dire plus... puisqu'aucune application n'en tire partie pour le moment.
 
Pure Video : on ne change pas une équipe qui gagne
 
Dernier point, la vidéo avec Pure Video qui n'a pas été amélioré , espérons que l'encodage aidé par le GPU soit un jour de la partie.
 
Officiellement, les tarifs annoncés sont de 450 € pour la GTS et de 600 € pour la GTX, ce qui est important, mais sans aucun doute à la hauteur de la performance offerte.
 
http://light.pcinpact.com/actu/news/32615-G80-GeForce-8800.htm
 
[b]Les cartes

 
Ce premier GPU issu de l´architecture GeForce 8, est énorme puisqu´il contient plus de 670 millions de transistors (contre 278 millions pour un GeForce 7900). La consommation est bien entendu en forte hausse également et il faudra s´équiper d´une alimentation puissante pour pouvoir l´alimenter. La première carte qui l´embarque, la GeForce 8800 GTX nécessite ainsi une alimentation de 450 Watts et Nvidia parle d´alimentations de 750 à 1000 Watts pour les systèmes équipés de 2 de ces cartes en SLI ! Cette GeForce 8800 GTX emploie un GPU cadencé à 575 MHz (mais avec les processeurs de shaders à 1350 MHz) et de la mémoire 384 bits à 900 MHz, ce qui lui procure une bande passante confortable. Il faudra par contre débourser un peu plus de 650€ pour acquérir ce monstre de 27 cm de long et qui nécessite l´utilisation de 2 connecteurs d´alimentation.
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018434.jpg
 
La seconde carte, la GeForce 8800 GTS utilise un GPU bridé puisque les processeurs de shaders passent de 128 à 96 et les unités de texturing de 64 à 48. Parallèlement, la fréquence du GPU est abaissée à 500 MHz (et 1200 MHz pour les processeurs de shaders) et la mémoire à 800 MHz mais cette fois en 320 bits. La puissance de calcul baisse donc de 33% et la bande passante mémoire de 25% mais le prix devrait cette fois se situer entre 450 et 500 €.
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018435.jpg
 
Consommation, en tableau ça nous donne:
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018436.gif
 
CPU Limited ?
 
Comme pour chaque nouvelle carte graphique haut de gamme, on entendra souvent à propos du GeForce 8800 qu’il est « CPU limited » et qu’il faut absolument un très gros processeur pour en tirer partie. Ces propos ne sont qu’une généralisation abusive régulièrement colportée et à laquelle 3DMark n’est pas étranger, que ce soit de part sa résolution par défaut qui semble trop dure à changer pour certains ou de part le fait que la dernière version intègre dans le score global la puissance processeur.  
 
Autant être clair tout de suite, la GeForce 8800 ne consomme pas plus de ressource processeur qu’une autre GeForce moins puissante ! Par contre, avec des réglages graphiques peu élevés comparativement à la puissance de la carte, il y’aura de plus forte chance d’avoir un framerate qui ne sera plus limité par la carte graphique mais par le processeur.  
 
Est-ce pour autant un mal ? Pas vraiment, puisque cela signifie simplement qu’il vous sera alors possible d’augmenter la résolution ou les réglages graphiques impactant essentiellement la carte graphique sans baisse notable du framerate. Le seul cas ou le fait d’être « CPU limited » est gênant, c’est lorsque cette limite liée au CPU fait que votre jeu n’est pas fluide, mais il n’y a alors pas de lien direct avec la carte graphique.  
 
Ainsi, si vous êtes doté d’un processeur considéré comme moyen de gamme mais qui satisfait pleinement vos attentes dans vos jeux, vous pouvez sans complexe acquérir une carte haut de gamme afin de profiter par exemple de votre dernier écran 24". Plus que le couple CPU / Carte 3D, c’est bien le couple Carte 3D / Ecran qui nécessite le plus d’être équilibré.  
 
Pour rappel, si vous voulez savoir sur votre configuration, dans vos jeux, dans vos passages préférés, avec vos réglages, qui de votre carte graphique ou de votre cpu fait que vous n’avez pas la fluidité attendue, nous vous conseillons un test simple : baissez la résolution à 800*600 voir 640*480 ! Si vous n’observez pas de gain notable de fluidité, vous êtes limité par le CPU, voir par la mémoire si votre disque se met à gratter spécifiquement lors des lags, sinon c’est la carte graphique qui vous limite.  
 
Le test
 
Comme d´habitude, nous activons le filtrage anisotrope pour tous les tests puisque nous estimons qu´il n´y a plus de raison de s´en passer, surtout sur des cartes haut de gamme. Il est activé dans le jeu lorsque c´est possible et dans les drivers si ce n´est pas le cas. Par ailleurs nous avons également décidé d´activer systématiquement le Transparency Antialiasing qui permet de filtrer les objets simulés à partir de tests alpha tels que les grillages. Dans certains jeux l´impact sur les performances est important, mais si il l´est c´est que l´impact visuel l´est tout autant et puisqu´il s´agit ici de cartes haut de gamme il n´y a pas de raison de les ménager !
Configuration de test :
eVGA nForce 680i
Intel D975XBX (Bad Axe)
Intel Core 2 Extreme X6800
2 x 1 Go  
Western Digital Raptor 74 Go
Enermax 535W
Windows XP SP2
Catalyst 6.10
ForceWare 96.94

 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018390.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018392.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018396.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018400.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018399.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018431.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018432.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018405.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018408.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018412.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018415.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018414.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018416.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018424.gif
 
Récapitulatif des performances
Nous avons calculé un indice moyen des performances obtenues dans tous les modes pour chaque carte en donnant le même poids à chaque jeu et en donnant l’indice 100 à la GeForce 7900 GTX en 1600x1200.

 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018425.gif
 
En rendu classique, les GeForce 8 surprennent déjà par leurs performances alors qu´elles étaient annoncées limitées par le processeur. En moyenne, la GeForce 8800 GTX est plus de 70% plus performant que la GeForce 7900 GTX ! Elle se place également devant tous les précédents systèmes multi-cartes.  
 
La GeForce 8800 GTS se place quand à elle légèrement devant la GeForce 7950 GX2.  
 
Les GeForce 8800 GTX en SLI ne peuvent cependant pas réellement s´exprimer dans ces conditions.  
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018426.gif
 
Une fois l´antialiasing activé, le système CrossFire passe devant la GeForce 8800 GTX mais vraiment d´une courte tête. Les 8800 GTX e SLI peuvent cette fois s´exprimer et s´affichent sans concurrence.  
 
Concernant les cartes simples, les 8800 confortent leur avance.  
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018427.gif
 
En HDR, la puissance de calcul est beaucoup plus sollicitée, ce qui fait les affaires des GeForce 8800 qui creusent encore un peu plus l´écart.  
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018428.gif
 
Une fois HDR et antialiasing activés simultanément, les GeForce 8 s´en donnent à coeur joie puisque la GeForce 8800 GTX, malgré des drivers très jeunes, est presque 2x plus performante que la Radeon X1950 XTX qui était habituée à écraser la concurrence dans ces tests. En effet, les GeForce 7 sont incapables de faire tourner les jeux qui utilisent un format de rendu à base de FP16 (64 bits) dans ces conditions et obtiennent donc un 0 dans plusieurs tests.  
 
 
Comme vous pouvez le constater à travers ces indices de performances basés sur plus de 700 tests à travers 12 jeux, les GeForce 8800 sont très performantes et ce déjà dans les jeux actuels pour lesquels elles permettent de ne faire aucun compromis sur les options graphiques. La GeForce 8800 GTX est clairement une carte sans concurrence. La GeForce 8800 GTS est cependant un gros cran en dessous, les unités désactivées ainsi que la fréquence en baisse jouant bien entendu un rôle important.  A suivre...
 
http://www.hardware.fr/html/articl [...] 4a3&type=1

Message cité 1 fois
Message édité par renardin6 le 07-06-2007 à 09:30:20
Reply

Marsh Posté le 13-08-2006 à 00:27:30   

Reply

Marsh Posté le 16-08-2006 à 10:21:56    

Le support des shaders unifiés est total par la programmation mais pas par l'architecture (donc pas physiquement sur la carte).


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
Reply

Marsh Posté le 18-08-2006 à 13:26:01    

Il a été fermé d'ailleurs, donc c'est un bon retour sur un nouveau topic.
 
Pour un produit qui doit sortir dans à peine quelques mois nVidia restent bien discret. (c'est valable pour ATI et son R600 remarquez)


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
Reply

Marsh Posté le 18-08-2006 à 15:07:13    

Oui en effet. Je ferai des update du post 1 sur demande en cas d'info fiable. Je suis impatient de voir ces cartes!

Reply

Marsh Posté le 21-08-2006 à 09:51:07    

Alors, qui a des news?

Reply

Marsh Posté le 21-08-2006 à 09:52:58    

Renardin6 > Si c'est pour faire comme le topic du Core2, c'est à dire y parler tous les jours pour après disparaitre quand tu l'as, ca ne sert à rien de créer un "topic unique" ;)

Reply

Marsh Posté le 21-08-2006 à 10:34:51    

18/08/06 THE INQUIRER : Nvidia remains tight lipped on G80.
 
"WE tried to find more details about Nvidia's G80 but no one knows a lot about the chip. Possibly not even Nvidia, because it's telling its partners nada.
 
We know it's a 90 nanometre chip and that it is taped out but a release date is an enigma caught in a graphics processor engine dilemma.
 
One single source suggested that the chip might show up later than expected, by the end of ammo domini 2006. We found out that the chip will actually alight on the face of the earth a little bit later than we expected. Nvidia wants to fight the upcoming Radeon 1950 XTX with its Geforce 1950 GX2 double chip card. It won't have G80 out at least by the end of September. And it is more tight lipped than a tight lipped Tightlip.
 
G80 now looks like a late 2006 chip and it will fight the R600 beast also scheduled for a very late 2006, when even the mice slumber.  
 
Another source claimed that it's all on schedule. We reported that G80 is a 90 nanometre chip with GDDR 4 support and that it is diss-unified marchitecture. We guess Nvidia is now paranoid about AMD, Intel, S3 and everyone else. µ"
 
[:firebird2]


Message édité par AKA44 le 21-08-2006 à 10:47:04
Reply

Marsh Posté le 21-08-2006 à 13:20:06    

Paul-Hewson a écrit :

Le support des shaders unifiés est total par la programmation mais pas par l'architecture (donc pas physiquement sur la carte).


 
c'est une carte de transition, nvidia là dit dès le départ que y aurait pas de réel changement avant la génération suivante (donc surement pas avant printemps 2007 quand crysis par exemple aura fait parlé de lui)
 
ce qui risque de faire du mal à nvidia et du bien à ati
 
c'est que ati pour sont prochain R600 va peut être pouvoir compter sur du 65nm avec des usine AMD
 
alors que les fondeurs qui bosse avec nvidia sont les même que ceux qui bosse avec ati pour le moment et en sont à du 80nm moyennement bien/mal maitrisé

Reply

Marsh Posté le 21-08-2006 à 13:57:38    

http://www.matbe.com/actualites/14115/nvidia-g80/
:o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
Reply

Marsh Posté le 21-08-2006 à 13:57:38   

Reply

Marsh Posté le 21-08-2006 à 14:07:22    


 
je sais pas ou ils ont été cherché le "prevu pour moi de septembre"
 
à ma connaissance le g80 était annoncé pour fin octobre début nov
 
alorsd leur "mois de septembre" de matbe je pige pas y a jamais eu d annonce officiel du g80 pour dispo en magasin en sept
 
de souvenir c est plutot le nforce5 qui était à la base prévu pour septembre et qui pourrait être repoussé

Reply

Marsh Posté le 21-08-2006 à 14:29:22    

Marc a écrit :

Renardin6 > Si c'est pour faire comme le topic du Core2, c'est à dire y parler tous les jours pour après disparaitre quand tu l'as, ca ne sert à rien de créer un "topic unique" ;)


 
lol, ça va. je suis revenu répondre aux questions des gens.  

Reply

Marsh Posté le 22-08-2006 à 11:40:25    

blue_dwarf a écrit :

c'est une carte de transition, nvidia là dit dès le départ que y aurait pas de réel changement avant la génération suivante (donc surement pas avant printemps 2007 quand crysis par exemple aura fait parlé de lui)
 
ce qui risque de faire du mal à nvidia et du bien à ati
 
c'est que ati pour sont prochain R600 va peut être pouvoir compter sur du 65nm avec des usine AMD
 
alors que les fondeurs qui bosse avec nvidia sont les même que ceux qui bosse avec ati pour le moment et en sont à du 80nm moyennement bien/mal maitrisé


 
On ne connaît toujours pas les performances d'une architecture totalement unifiée. Mieux vaut attendre plutôt que de se lancer dans des rumeurs.
 
De même que je ne suis pas certains qu'AMD soit d'une grande utilité à ATI (côté production). Il a déjà sa propre production à faire et croit moi ils ont bien besoin de ces nouvelles usines pour eux.
 
Les Taïwanais resteront les producteurs principaux d'ATI et nVidia c'est certain.


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
Reply

Marsh Posté le 22-08-2006 à 12:36:09    

bah après niveau architecture je sais pas ce qu il en ressortira... derriere on verra bien sur les jeux
 
mais là y a une opportunité en terme d usine de fabrication pour graver les ati plus finement  
hors le gros problème chez ati (qui va pas s arranger avec le r600) c est compte tenu du nombre enorme de transistor la puce est gigantesque et chauffe enormement (et est un gouffre en terme d alimentation)
 
après tout unifié ou pas tout unifié en hard... dans un premier temps ça compte pas vraiment
car si vous regardez les spec de directx10 certains on un bon symbole "infini" alors y a de la marge avant directx10.1 qui sera surtout là en 2008 pour dépasser le 8 bits par composante dans le traitement de l image et "peut être" (même si microsoft dément) qqs ebauche d api pour la physique


Message édité par blue_dwarf le 22-08-2006 à 12:37:02
Reply

Marsh Posté le 22-08-2006 à 13:11:29    

Je pense pas.
Amd a besoin de ses usines 65nm pour produire ses futurs processeur.
 
D'ailleurs est-ce que les usines de fabrication d'un processeur sont adaptées à la réalisation de gpu sans effectuer quelques changements ?


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
Reply

Marsh Posté le 22-08-2006 à 14:00:47    

iL ya des procèdés similaires pour fabriquer un CPU et un GPU, mais sinon, OUI, les usines AMD subiront des modifications dans la chaine de production (ce qui aura un coût, forcément) pour fabriquer des GPU ATI par AMD.
 
C'est pour cela qu'on est pas prêt d'entendre parler de GPUs ATI fabriqués par les usines AMD, pendant les 6 prochains mois encore, facile (contrairement à ce que laissent entendre les communiqués officiels qui parlent de début de production dès la fin de l'année 2006).


Message édité par F-Boisier le 22-08-2006 à 14:01:49
Reply

Marsh Posté le 24-08-2006 à 14:13:46    

Bon on ne sait toujours pas plus... Et avec la sortie du GF7950, on doit pas s'attendre à une nouvelle carte en septembre...

Reply

Marsh Posté le 24-08-2006 à 14:50:41    

En tous cas ils ont intérêt à grave baisser leur prix car la ATI leur met une volée -.-


---------------
Faster,Stronger,Better
Reply

Marsh Posté le 24-08-2006 à 18:29:19    

surtout qu une bonne vague de gamer à lors du cebit y a tout au plus 6 mois basculé sur 7900gt et gtx
donc je pense pas que 6 mois après il change déjà pour une x1900xtx (faut refourguer la 7900 d occase) si le G80 se pointe en oct/nov
 
encore ceux qui ont des 24 ou 30 pouces je dit pas (et encore à part oblivion sur mon 24 la 7900 tiend bien et pour l instant moi perso je change pas)
 
alors sur un "même" 20" wide tranquille déjà avec les 79xx

Reply

Marsh Posté le 29-08-2006 à 14:19:46    

Moi je suis "en attente" avec une 7300GS , ok ça fait tourner HL2 en high graphics avec 1280*1024 avec un fps de 30 (ce qui est correct quand on sait que au delà de 24 images secondes, on ne le voit plus à l'oeil nu... :p)
 
Mais quand même, je voudrais pouvoir jouer à Ghost Recon Advanced War Fighter... Et une 7300 GS sur ma config, ça fait tâche... Je sais plus trop quoi faire... :S
 
Une 7950GX2? 7900GT? un G80? (je ne suis pas du tout ATI...donc pas me conseiller une carte ATI...)
 
PS: Ma config actuelle:
 
Core 2 Duo E6700  
ASUS P5W DH DELUXE  
4GB DDR2 CORSAIR PC6400  
2 x 300 GB SATA2  
1 x 250 GB USB 2.0  
TOUR ANTEC P180  
SONY LCD HDTV 32" et MONITEUR PROVIEW 19"

Message cité 4 fois
Message édité par renardin6 le 29-08-2006 à 14:22:01
Reply

Marsh Posté le 29-08-2006 à 14:22:17    

7900gt tu peux oublier.
7950gx² si t'as un écran qui fait du 1600 au moins (et pas un cpu pourris, genre pd ou celeron d :p).
g80 ben personne n'est medium.
 
Sinon ATI propose les meilleurs choix dans le moyen/haut de gamme, mais bon, libre à toi payer + pour avoir le plaisir de voir l'étiquette Nvidia :o

Reply

Marsh Posté le 29-08-2006 à 20:49:14    

renardin6 a écrit :

(ce qui est correct quand on sait que au delà de 24 images secondes, on ne le voit plus à l'oeil nu... :p)


 :non:  
http://www.nofrag.com/2003/nov/24/8629/

Reply

Marsh Posté le 29-08-2006 à 20:51:55    

Classique, le fameux débat...débat qui n'a pas lieu d'être, qui peut affirmer sincérement que la plupart des jeux sont fluides à 24fps.
A 24fps ça rame grave :o

Message cité 1 fois
Message édité par god is dead le 29-08-2006 à 20:52:08
Reply

Marsh Posté le 30-08-2006 à 10:31:14    

Le sujet ! Le sujet.. (c'est à cause de ça que l'autre topic a été fermé.. vous allez pas recommencer ici !!!)


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
Reply

Marsh Posté le 30-08-2006 à 12:12:28    

Pourquoi tu "n'es pas du tout ATI" Renardin6 ?...

Reply

Marsh Posté le 30-08-2006 à 13:09:06    

renardin6 a écrit :

Moi je suis "en attente" avec une 7300GS , ok ça fait tourner HL2 en high graphics avec 1280*1024 avec un fps de 30 (ce qui est correct quand on sait que au delà de 24 images secondes, on ne le voit plus à l'oeil nu... :p)
 
Mais quand même, je voudrais pouvoir jouer à Ghost Recon Advanced War Fighter... Et une 7300 GS sur ma config, ça fait tâche... Je sais plus trop quoi faire... :S
 
Une 7950GX2? 7900GT? un G80? (je ne suis pas du tout ATI...donc pas me conseiller une carte ATI...)
 
PS: Ma config actuelle:
 
Core 2 Duo E6700  
ASUS P5W DH DELUXE  
4GB DDR2 CORSAIR PC6400  
2 x 300 GB SATA2  
1 x 250 GB USB 2.0  
TOUR ANTEC P180  
SONY LCD HDTV 32" et MONITEUR PROVIEW 19"


 
clair y a un sacré déséquilibre.... m enfin c est un peu bete de claquer 200€ pour une carte si tu veux acheter une g80 dans 2mois
 
essai de trouver une 7600gt d occase ça fera meilleur mesure qu une 7300 en attendant
 
das un premier temps le g80 sortira en version haut de gamme (donc au bas mot 450€)
 
en fonction tu vois tout depend de ton budget et de ta patience savant melange
sachant que le g80 sera directx9 & 10


Message édité par blue_dwarf le 30-08-2006 à 13:13:31
Reply

Marsh Posté le 11-09-2006 à 21:21:09    

un petit up pour savoir si de nouvels news sont disponibles sur le G80:
date de dispo
specs??
 
cela sent la dispo en meme temps de vista tout cela
 
bonne soiree
 
cali

Reply

Marsh Posté le 12-09-2006 à 12:32:35    

renardin6 a écrit :

... avec un fps de 30 (ce qui est correct quand on sait que au delà de 24 images secondes, on ne le voit plus à l'oeil nu... :p)
 
...


 
T'as encore beaucoup d'anneries dans le genre ..... ?  :sarcastic:  
 
Je te suggère d'aller lire ça:
 
http://www.nofrag.com/2003/nov/24/8629/
 
Sinon pour en revenir au sujet principal du topic, on peut se douter que le G80 ne verra pas le jour avant fin 2006, étant donné les multiples déclinaisons des GeForce 7, il semble qu'Nvidia veuille rentabiliser au maximum l'architecure du G71.

Reply

Marsh Posté le 19-09-2006 à 16:12:23    

petit update  :sol:  
 
http://www.vr-zone.com/?i=4007
 

Citation :

G80 De-Mystified; GeForce 8800GTX/GT
 
Date:   September 19, 2006, 6:21 pm
 
    * Unified Shader Architecture
    * Support FP16 HDR+MSAA
    * Support GDDR4 memories  :jap:  
    * Close to 700M transistors (G71 - 278M / G70 - 302M)  :pt1cable:  
    * New AA mode : VCAA
    * Core clock scalable up to 1.5GHz  :pt1cable:  
    * Shader Peformance : 2x Pixel / 12x Vertex over G71  :jap:  
    * 8 TCPs & 128 stream processors  :love:  
    * Much more efficient than traditional architecture
    * 384-bit memory interface (256-bit+128-bit)  :love:  
    * 768MB memory size (512MB+256MB)
    * Two models at launch : GeForce 8800GTX and GeForce 8800GT
    * GeForce 8800GTX : 7 TCPs chip, 384-bit memory interface, hybrid water/fan cooler, water cooling for overclocking. US$649
    * GeForce 8800GT : 6 TCPs chip, 320-bit memory interface, fan cooler. US$449-499
 
Our friends have gotten some information of the upcoming NVIDIA G80 and it appears that G80 gonna be unified shader after all. It should be pretty close to the truth and it explained the mystery of the strange DRAM capacities that INQ reported previously. Expect G80 to be out somewhere in mid November along with Kentsfield.


 
bon bah marc il est pour quand le test  :ange:

Reply

Marsh Posté le 19-09-2006 à 17:20:00    

Par contre, tu devrait faire un titre dans ton 1er post: le coin des rumeurs. Qu'on aie une tptit idée quand même...

Reply

Marsh Posté le 19-09-2006 à 17:34:00    

Need la 8800GTX =D


---------------
Faster,Stronger,Better
Reply

Marsh Posté le 19-09-2006 à 18:00:20    

Pas top cette niouze...
 
Qu'est-ce qu'un TCP?
Qu'est-ce que ces "stream processors"?
A quoi correspondent les 256+128bits? (le "+" indiquant que les 2 banques sont destinées à des usages différents)
Qu'est-ce que le "VCAA"?
 
Si ces infos ont une vraie source, ça doit bien être marqué quelque part non?

Reply

Marsh Posté le 19-09-2006 à 18:07:42    

700M de transistors et le tout cadencé @ 1.5Ghz !
 
On sait que ce GPU sera gravé en 80nm, même avec cette finesse la consommation par carte sera énorme  :ouch:

Message cité 1 fois
Message édité par ANViL le 19-09-2006 à 18:12:46
Reply

Marsh Posté le 19-09-2006 à 18:16:44    

Gigathlon a écrit :

Pas top cette niouze...


bah au contraire ce sont les premières infos qu'on a avec des des noms marketing que les fabricants de GPU aiment bien utiliser, ce qui prouve peut-être qu'on a enfin quelque chose de concret et que l'anonce/sortie n'est plus si éloignée  :jap:  
 
et au jeu des devinettes...
 

Gigathlon a écrit :

Qu'est-ce qu'un TCP?


Texture Control Processor ? Transform Command Processor ?  
 

Gigathlon a écrit :

Qu'est-ce que ces "stream processors"?


ALUs pour PS / VS ?  
 

Gigathlon a écrit :

A quoi correspondent les 256+128bits? (le "+" indiquant que les 2 banques sont destinées à des usages différents)

 
128 bits pour les TCPs (geometry) et 256 bits pour les ALUs    
 

Gigathlon a écrit :

Qu'est-ce que le "VCAA"?

 
Variable Centered AA ? Very Cool AA ?  :whistle:  
 

Gigathlon a écrit :

Si ces infos ont une vraie source, ça doit bien être marqué quelque part non?


c'est peut-être des specs prises sur un beta design de boite retail ou une fiche marketing...
 
 
en tout cas, ça bouge enfin et mon petit doigt me dit que les prochains jours vont être riches en rumeurs  :sol:

Message cité 1 fois
Message édité par aeryon le 19-09-2006 à 18:17:33
Reply

Marsh Posté le 19-09-2006 à 18:20:27    

ANViL a écrit :

700M de transistors et le tout cadencé @ 1.5Ghz !
 
On sait que ce GPU sera gravé en 80nm, même avec cette finesse la consommation par carte sera énorme  :ouch:


 
à mon avis les 1,5gHz, c'est l'estimation maxi que peut supporter l'architecture, on les verra que sur les secondes générations/refresh en 35nm. Au lancement en 80nm, ce devrait se situer entre 500 et 700Mhz, pas plus...

Reply

Marsh Posté le 19-09-2006 à 20:37:46    

aeryon a écrit :

Texture Control Processor ? Transform Command Processor ?  


 
Ca me semble peu probable vu que seules 6 ou 7 seraient activés à l'image du Cell de la PS3...


Message édité par Gigathlon le 19-09-2006 à 20:37:55
Reply

Marsh Posté le 19-09-2006 à 20:46:35    

drapal

Reply

Marsh Posté le 20-09-2006 à 09:45:14    

aeryon a écrit :

à mon avis les 1,5gHz, c'est l'estimation maxi que peut supporter l'architecture, on les verra que sur les secondes générations/refresh en 35nm. Au lancement en 80nm, ce devrait se situer entre 500 et 700Mhz, pas plus...


 
On est déjà entre 500 et 700  :lol:


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
Reply

Marsh Posté le 20-09-2006 à 10:14:24    

C'est pas mieux en fr ?

Citation :

Vu sur Matbe
Nos confrères de VR-Zone semblent avoir mis la main sur les caractéristiques du futur processeur DirectX 10 de la société NVIDIA. Le G80 serait donc composé :
    * d'une architecture unifiée comme le R600
    * de 700 millions de transistors (278 millions pour le G71 de la GeForce 7900GTX)
    * d'une fréquence maximale de fonctionnement de 1 500 MHz
    * de deux fois plus de pixels pipelines, soit 48 pipelines
    * de douze fois plus d'unités de vertex, soit 96 Vertex Shaders
    * du support de la mémoire GDDR4
    * de 768 Mo de mémoire (512 Mo + 256 Mo)
    * d'une interface mémoire 384 bits (256 bits +128 bits)
    * du support des FP16 HDR + MSAA
    * d'un nouveau mode AA, le VCAA
    * de 8 TCP et de 128 co-processeurs
 
Le nom commercial serait GeForce 8800. La carte serait déclinée en deux versions :
    * la GeForce 8800 GTX avec 7 puces TCP, une interface mémoire 384 bits, un refroidissement hydride air/liquide avec un prix d'environ 650 euros
    * la GeForce 8800 Gt avec 6 puces TCP, d'une interface mémoire 320 bits (256 +64), d'un refroidissement à air classique pour un prix d'environ 500 euros
 
Ces spécifications semblent prometteuses sauf pour le système de refroidissement qui annonce clairement la couleur : le processeur va relativement chauffer et donc consommer pas mal d'énergie. NVIDIA ne devrait pas être loin des 180 Watts annoncés pour le R600 d'ATI. Il n'y a toujours aucune information sur la date de sortie...


 
Il faudra un Noctua pour refroidir le gpu ?
J'oubliais l'alim dédié de 600W aussi ...
 
Y'aura une version AGP :whistle:  :lol: ==> [ ]


Message édité par C13-Fury le 20-09-2006 à 10:20:52

---------------
Reviews Jouets et Figurines - Fulguropop, culture pop - Toyzmag, actu' jouets et figurines -
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed