Geforce 4 et MPEG2, bin alors ? (Marc) - Hardware
Marsh Posté le 08-02-2002 à 14:56:24
Les GeForce 4 Ti decodent le mpeg a 50% en Hardware
Les GeForce 4 Mx decodent le mpeg a 100% en Hardware
Y a pas d'erreurs, il parle pas des memes cartes
[jfdsdjhfuetppo]--Message édité par Ernestor--[/jfdsdjhfuetppo]
Marsh Posté le 08-02-2002 à 15:23:20
Oui il précise bien que les 2 puces sont complètement différentes, donc c'est pas étonnant si l'un est à 50% l'autre non.
Marsh Posté le 08-02-2002 à 15:36:09
Bah ça sert à quoi une decomp mpeg2 100% hard ?
T'as un P2-266 ?
Marsh Posté le 08-02-2002 à 15:45:27
Gnaag a écrit a écrit : Bah ça sert à quoi une decomp mpeg2 100% hard ? T'as un P2-266 ? |
Quand il faut décoder le DTS ES ou le Dolby EX, vaut mieux que le MPEG soit en hard...
Les GeForce 4 Ti decodent le mpeg a 50% en Hardware
Les GeForce 4 Mx decodent le mpeg a 100% en Hardware
C'est dingue ça, c'est koi cette stratégie marketing !
Enfin merci pour vos réponses, mais je trouve que c'est très mal expliquer dans le test, le GeForce4 est le premier GPU NVIDIA à disposer d?un décodage MPEG-2 Vidéo 100% hardware (enfin !). ...on parle de quoi alors là ?
Marsh Posté le 08-02-2002 à 16:12:22
Chez nVidia, les Mx sont moins performantes mais avec des fonctionnalites en plus. C'etait le cas avec les GeForce 2 Mx qui offrait du bi-ecran contrairement au GeForce 2 classique.
Et pour ce qui est de :
le GeForce4 est le premier GPU NVIDIA à disposer d?un décodage MPEG-2 Vidéo 100% hardware (enfin !)
Il s'agit bien de la GeForce 4 Mx. Tres legere ambiguite effectivement.
Marsh Posté le 08-02-2002 à 16:44:18
mais ça apporte koi le décodage Hardware sur un CPU moderne ???
Marsh Posté le 08-02-2002 à 16:46:29
vivi g oublié le MX dans la phrase sorry (mais bon vu le contexte ct logique)
Marsh Posté le 08-02-2002 à 17:01:18
Y'a une carte de decompression DivX et Mpeg qui va bientot sortir.
J'ai lu ca hier sur jesaisplus quel site de news hardware.
A quand la decompression hardware des DIVX sur nos cartes videos ?
J'ai deja vu ce que donne une carte de decompression mpeg reliée à la télé = 100 x plus beau que n'importe quelle video decodée sur un geforce 3 et un p4 2200
Marsh Posté le 08-02-2002 à 17:20:27
Austin a écrit a écrit : Quand il faut décoder le DTS ES ou le Dolby EX, vaut mieux que le MPEG soit en hard... Les GeForce 4 Ti decodent le mpeg a 50% en Hardware Les GeForce 4 Mx decodent le mpeg a 100% en Hardware C'est dingue ça, c'est koi cette stratégie marketing ! Enfin merci pour vos réponses, mais je trouve que c'est très mal expliquer dans le test, le GeForce4 est le premier GPU NVIDIA à disposer d?un décodage MPEG-2 Vidéo 100% hardware (enfin !). ...on parle de quoi alors là ? |
ben tu sait ce k il te reste a faire !
R8500
Marsh Posté le 08-02-2002 à 17:20:29
l'AC-3, le DTS ES, machin truc mumuche, aucune carte vidéo ne le fait ça n'a rien à voir...
le MPEG2 c'est le MPEG2 c'est de la vidéo, pas de l'audio....
de toutes façon, t'as pas besoin de carte son pour faire de l'AC-3 ou du DTS, fo juste une sortie optique/coaxiale à brancher sur un ampli A/V, fo juste une transmission série vers l'ampli c tout.
Marsh Posté le 08-02-2002 à 17:21:08
bjone a écrit a écrit : l'AC-3, le DTS ES, machin truc mumuche, aucune carte vidéo ne le fait ça n'a rien à voir... le MPEG2 c'est le MPEG2 c'est de la vidéo, pas de l'audio.... de toutes façon, t'as pas besoin de carte son pour faire de l'AC-3 ou du DTS, fo juste une sortie optique/coaxiale à brancher sur un ampli A/V, fo juste une transmission série vers l'ampli c tout. |
Marsh Posté le 08-02-2002 à 17:24:16
THE REAL KRYSTOPHE a écrit a écrit : |
bin porqué ?
le DTS ES ça passe bien par un bitstream non ?
fo juste une sortie numérique ?
[jfdsdjhfuetppo]--Message édité par bjone--[/jfdsdjhfuetppo]
Marsh Posté le 08-02-2002 à 17:29:48
nan c pas ca mais je pense k austin sait tres bien ke le DD ou le DTS ca na rien a voar avek la CG
Marsh Posté le 08-02-2002 à 17:39:46
sinon tiré de là:
http://www.nvidia.com/docs/lo/1467 [...] .05.02.pdf
apparement elle fait tout non ?
Marsh Posté le 08-02-2002 à 17:40:52
Prems a écrit a écrit : Et pourtant un vendeur a tenté de me le faire croire un jour |
tu va a la Fnac ?
Marsh Posté le 08-02-2002 à 17:41:09
Euh...
J'aurai juste une petite question. Ok je me doute bien que le rendu sur une Geforce4 ne sera pas aussi beau que sur une ATI pour un connaisseur (enfin je crois). Mais serieux, est ce que la difference est flagrante pour l'utilisateur de PC moyen?
Pas la peine de me dire qu'avec la decompression full-hardware, on a plus de ressource parce que:
1) Je le sais deja :-D
2) En general, la majorite d'entre nous ne font rien d'autre quand ils regardent une video encodee MPG2 (ou alors c'est que j'arrive pas a gerer le multi tache
Bref, la derniere solution, ce sera un impact eventuel sur les performances lors de l'encodage divX?
Serieux je me suis toujours pose la question, et j'aurai bien aime qques eclaircissements. En tout cas, je trouve ca tout de meme decevant de la part de nVidia de sortir des cartes a 500 ?, qui n'integrent meme pas des technologies que les utilisateurs seraient en droit d'attendre. Encore chapeau a ATI pour avoir rendu disponibles ces technologies sur leurs gammes depuis deja plusieurs annees.
Stolenkiss
Marsh Posté le 08-02-2002 à 17:45:08
il y a 3 raisons simples à cela :
1ère raison :
la réponse est très simple : les Ti et les Mx ne sont pas issues du même core (GeForce2 optimisé pour les Mx et GeForce3 optimisé pour les Ti)
2e raison :
avec les Mx, nVidia veut concurrencer l'ATI 7500 dont le principal argument est le MPEG2 100% hardware parceque niveau perf 3D, c'est pas top
3e raison
le GeForce4 Ti a déjà 63 millions de transistors (contre 57 pour le GeForce3), il est toujours en 0.15µm, et poussé à 300Mhz. As-tu remarqué le ventilo énorme des Ti ? En rajoutant le MPEG2 ils seraient obligés de baisser la fréquence et se retrouveraient au niveau d'une 8500, mais le but est clairement d'exploser cette dernière.
Marsh Posté le 08-02-2002 à 17:55:17
radeon2005 a écrit a écrit : il y a 3 raisons simples à cela : 1ère raison : la réponse est très simple : les Ti et les Mx ne sont pas issues du même core (GeForce2MX optimisé pour les Mx et GeForce3 optimisé pour les Ti) 2e raison : avec les Mx, nVidia veut concurrencer l'ATI 7500 dont le principal argument est le MPEG2 100% hardware parceque niveau perf 3D, c'est pas top 8500, mais le but est clairement d'exploser cette dernière. |
Marsh Posté le 08-02-2002 à 18:00:31
Bof franchement si qqun peut me dire qu´il voit VRAIMENT une différence de qualité entre une décompression hw et sw, je serais bien étonné..
J´ai testé H+ contre WinDVD, et à regarder les images en pause franchement pas moyen de voir la moindre différence..
Et puis question vitesse même les CPUs de ya 1 an suffisent amplement, alors je pense que le mpeg2hw sur les GF4 c juste un argument de vente, pas une fonctionnalité qui a un sens en soit..
Marsh Posté le 08-02-2002 à 18:03:51
vache folle a écrit a écrit : Attends, la 7500 est trés bien pour les jeux. Pas aussi bien qu'une 8500 mais c'est quand même acceptable |
désolé sous XP elle rame à mort les drivers ne sont pas du tout optimisés 2000/xp. par contre la qualité d'affichage est top
Marsh Posté le 08-02-2002 à 18:41:01
H4dd3R a écrit a écrit : Bof franchement si qqun peut me dire qu´il voit VRAIMENT une différence de qualité entre une décompression hw et sw, je serais bien étonné.. J´ai testé H+ contre WinDVD, et à regarder les images en pause franchement pas moyen de voir la moindre différence.. Et puis question vitesse même les CPUs de ya 1 an suffisent amplement, alors je pense que le mpeg2hw sur les GF4 c juste un argument de vente, pas une fonctionnalité qui a un sens en soit.. |
heuuu je suis pas top connaisseur mais le topic parle d'un mec qui sort la video sur son retro. si tu decode l'image + le son en DTS bidules truc trop puissant la qualité... bin l'image pourrai ce mettre a saccadé et dans ce cas tu vois vite la différence
donc si tu decompresse le video en hardware tu as tous ton CPU pour decoder le son et la plus de saccade don image nickel ...
Marsh Posté le 08-02-2002 à 18:49:57
Je suis désolé, mais entre une ATI et une GeForce 3, la différence de qualité en lecture DVD est flagrante sur certains titres.
Marsh Posté le 08-02-2002 à 18:52:16
ca donne koi pour la 2D? c du niveau d'ATI ou pas?
Marsh Posté le 08-02-2002 à 19:02:58
H4dd3R a écrit a écrit : Bof franchement si qqun peut me dire qu´il voit VRAIMENT une différence de qualité entre une décompression hw et sw, je serais bien étonné.. J´ai testé H+ contre WinDVD, et à regarder les images en pause franchement pas moyen de voir la moindre différence.. Et puis question vitesse même les CPUs de ya 1 an suffisent amplement, alors je pense que le mpeg2hw sur les GF4 c juste un argument de vente, pas une fonctionnalité qui a un sens en soit.. |
perso sous CinePlayer 4 entre la decompression soft et la decompression hard via DXVA de ma Radeon la différence est flagrante... (CinePlayer possede la meilleur qualité video, associé aux filtres audio de WinDVD ou PowerDVD et c'est parfait, merci ZoomPlayer )
meilleur rendu des couleurs...
pq? certaines hypotheses tendent vers une utilisation d'algo de meilleurs qualité lors du passage en mode dxva, il est aussi possible que l'utilisation de certains algos propres à la radeon soient meilleurs que ceux des players...
sinon il serait bon de ne pas comparer une H+ à une radeon, la qualité n'a rien à voir... une H+ est une pure daube... (j'en ai eu une, le jour ou j'ai switché pour une Radeon j'ai compris pourquoi les gens critiquent la H+... en plus il n'y a pas pire pour dégeulasser l'affichage en résolution élevé...)
apres à propos du DTS et du DD, certains ne se contentent pas du simple fait de l'envoyer à son préamp via la sortie numérique de leur carte son, ils veulent carément se servir de leur ordinateur comme préampli et relier leur ordinateur directement à leur ampli de puissance
bon évidemment c'est pas des live! 5.1 qu'on utilise en régle générale c'est plutot des M-Audio type delta 410
http://www.m-audio.com/products/m-audio/delta410.php
ou Delta 1010 ce qui serait mieux (mais ca risque d'être impossible pour cause de pbs pour controler les canaux)
http://www.m-audio.com/products/m-audio/delt1010.php
perso je suis pas partisan de l'utilisation de l'ordi comme préamp avec des cartes ayant les des dacs interne à l'ordinateur, c'est pour ca qu'une Delta 1010 serait bien car les dacs sont dans le rack externe...
donc au final si tu décode ton DTS sur l'ordi et que tu as aussi le MPEG2 à decoder ce serait pas plus mal que le MPEG2 soit pris en charge par la carte graphique... surtout si ca peut apporter un léger plus sur la qualité...
si vous voulez en apprendre un peux sur le HTPC allez sur :
www.avsforum.com
rubrique Home Theatre Computers
Marsh Posté le 08-02-2002 à 19:09:32
austin a l'epoque un pote avec un video projecteur sony(tritube) assez monstrueux ,on l'avait raccordé avec l'ati rage fury qui decompressait en hard il me semble l'image etait pourrie en passant par le pc !!je me demande si la H+ a la limite mais bon j'ai de gros doutes !!je ne parle pas de technique car a ce niveau là ça se voit comme le nez au milieu de la figure!!
[jfdsdjhfuetppo]--Message édité par rene pierre--[/jfdsdjhfuetppo]
Marsh Posté le 08-02-2002 à 19:16:55
Ernestor a écrit a écrit : Les GeForce 4 Ti decodent le mpeg a 50% en Hardware Les GeForce 4 Mx decodent le mpeg a 100% en Hardware Y a pas d'erreurs, il parle pas des memes cartes |
pourtant il est di ke le Geforce4 MX le coeur d'un Geforce2 non???
Marsh Posté le 08-02-2002 à 19:20:50
rene pierre a écrit a écrit : austin a l'epoque un pote avec un video projecteur sony(tritube) assez monstrueux ,on l'avait raccordé avec l'ati rage fury qui decompressait en hard il me semble l'image etait pourrie en passant par le pc !!je me demande si la H+ a la limite mais bon j'ai de gros doutes !!je ne parle pas de technique car a ce niveau là ça se voit comme le nez au milieu de la figure!! |
l'image entre une Fury et le Tritube était dégeu?
faut voir comment il avait réglé la chose... bon je connais pas la Fury, j'etais sur Nvidia et H+
ce qu'il faut c'est régler au mieux la carte graphique, pour sortir un signal qui soit optimum pour le proj et le type de signal (du genre 72Hz pour le NTSC et 75Hz pour du PAL), il faut aussi débrancher le scaler interne du proj, il faut avoir un cable de tres bonne qualité, idéalement un cable qui sorte en RGBHV sur BNC) et il faut régler correctement l'overlay et au final régler le projecteur...
tout ca prend du temps, mais ca fait parti des fondamentaux pour avoir une bonne image
bon la H+ tu peux l'oublier pour regarder sur un proj... au mieux tu peux l'utiliser pour une TV
Marsh Posté le 08-02-2002 à 19:29:41
teliko77 a écrit a écrit : pourtant il est di ke le Geforce4 MX le coeur d'un Geforce2 non??? |
non GF2 MX + AMELIORATION
[jfdsdjhfuetppo]--Message édité par THE REAL KRYSTOPHE--[/jfdsdjhfuetppo]
Marsh Posté le 08-02-2002 à 19:33:24
franchement la fois ou il a fallut le regler l'engin c'est un type qui est venu et il n'y en a pas un paquet d'apres ce que j'ai compris !! genre le truc il pese 30Kg accroché au plafond !! j'en ai une de H+ mais bon je ne peut pas assurer que ça sorte bien avec lr projo mais sur mon PC c'est tres correct !!
Marsh Posté le 08-02-2002 à 19:40:03
si le projo est bien réglé, il n'y a plus qu'a regler le PC... tres important... genre pas lui envoyer du 800x600 à 85Hz mais aller proche du max de la résolution supporté par le proj, et apres affiner jusqu'a obtenir le truc idéal... bon apres il faut voir la qualité de la Fury et du soft utilisé... mais bon aujourd'hui l'ideal quand on utilise un VideoProj c'est d'utiliser un PC soit comme player soit comme scaler...
Marsh Posté le 08-02-2002 à 19:47:52
en fait je te parle d'un truc qui date de 2ou3ans mais bpon le gars vendait du matos lecteur DVD salon et un soir il n'en avait pas chez lui et on a pensé a le monter avec le PC et franchement c'etait pour que je vois le delire de ce projo!!et c'est vrai qu'on avait une image de 1.50 sur 1.50 a peu pres mais dans une salle a manger on a eu un mal fou a regler l'image deja qui etait assez flou !!!mais j'avoue avoir été impressionné!! t'imagine l'engin!! au depart je ne connaissais pas du tout et ça me paraissait demesuré cet engouement ,jusqu'a ce que je le vois de mes propres yeux!! si je retrouve le modele je te met le lien!!tu dois connaitre apparemment !!
Marsh Posté le 08-02-2002 à 19:55:48
si l'image était flou, il n'est pas impossible que ce soit un pb de mauvaise liaison entre le PC et le proj ... du genre mauvaise qualité de la sortie de la Fury (je sais qu'il y a quelques années les sorties étaient mauvaise sur les ATI mais ca a bien changé depuis) ou un pb de cable...
ils étaient relié comment?
sortie VGA de la Fury entrant en RGBHV sur le proj?
Marsh Posté le 08-02-2002 à 19:57:50
non on avait utilisé la sortie composite de la sortie TV il me semble c'est sur qu'avec ça on ne pouvait pas esperer grand chose mais bon c'etait pour tester!!
Marsh Posté le 08-02-2002 à 19:59:28
Citation : A quand la decompression hardware des DIVX sur nos cartes videos ? |
C'est deja fait, va donc sur www.guru3d.com, tu peux telecharger le lecteur la.
Marsh Posté le 08-02-2002 à 20:01:13
rene pierre a écrit a écrit : non on avait utilisé la sortie composite de la sortie TV il me semble c'est sur qu'avec ça on ne pouvait pas esperer grand chose mais bon c'etait pour tester!! |
c'est sur que si c'était en composite on pouvait difficilement faire pire pour la qualité de l'image
Marsh Posté le 08-02-2002 à 14:45:28
J'utilise mon PC comme Scaler pour mon projecteur Vidéo.
La décompression Mpeg2 en 100% hard est donc un point crucial pour moi, loin devant les benchs de Quake3.
Sur le Test d'hier sur les Geforce 4, je lis :
ou encore de lire un DVD (cette lecture se fait bien entendu comme sur le GeForce3 en semi-hardware, rien n´a changé de ce côté sur le GeForce4 Ti)
Je me dis donc mince, c'est pas pour maintenant.
Mais aujourd'hui, sur le test de la Geforce4 MX, je lis :
De plus, le GeForce4 est le premier GPU NVIDIA à disposer d?un décodage MPEG-2 Vidéo 100% hardware (enfin !). Le GeForce4 MX supporte également comme les puces ATI une méthode de désentrelacement sélectionnant pour chaque Pixel s?il vaut mieux utiliser la méthode du Bob ou du Weave.
Alors quoi ? On oublie l'info d'hier et on garde celle d'aujourd'hui ?