[HFR] Actu : Haswell GT3e = GeForce GT 650M ?

Actu : Haswell GT3e = GeForce GT 650M ? [HFR] - HFR - Hardware

Marsh Posté le 10-01-2013 à 11:15:02   0  

C'est en tout cas le message qu'Intel essaie de faire passer à l'occasion du CES au travers d'une présentation rapportée par nos confrères d'AnandTech à ...
Lire la suite ...

Reply

Marsh Posté le 10-01-2013 à 11:15:02   

Reply

Marsh Posté le 10-01-2013 à 11:16:42   0  

Dans 2/3 générations ça sera viable peut-être ?
Sortir un processeur avec une gtx 760 intégrée ça pète.

Message cité 1 fois
Message édité par coma13 le 10-01-2013 à 11:17:10
Reply

Marsh Posté le 10-01-2013 à 11:19:52   3  

Une grande partie du bond de performance est lié à la mémoire embarquée, je doute qu'il soit possible de renouveler un tel gain à chaque génération.


Message édité par Marc le 10-01-2013 à 11:39:45
Reply

Marsh Posté le 10-01-2013 à 11:20:23   2  

Vu la puissance graphique qu'Intel est en train de développer, je me demande si les acheteurs potentiels (plus particulièrement les joueurs occasionnels sur PC portable) seront convaincus.
 
C'est n'est généralement pas très rassurant de ne pas avoir de carte graphique dédiée lorsqu'on veut faire du jeu 3D. A mon avis il va falloir quelques années pour que les mentalités changent.
 
Edit : tout en ayant a l'esprit qu'Intel se doit d'augmenter les performences de génération en génération car s'il y a stagnation, plus personne n'en voudra.


Message édité par jeanlucl le 10-01-2013 à 11:22:06
Reply

Marsh Posté le 10-01-2013 à 11:40:26   1  

"Can it run Crysis?" :D

Reply

Marsh Posté le 10-01-2013 à 12:02:21   1  

pas vraiment besoin de changement de mentalite... regarder le nombre de gens qui essaient deja de jouer sur iGPU!!
 
Il reste beaucoup de gens, de parents et autres, qui ne s'y connaissent pas trop. On achete et on utilise ou offre, puis ensuite l'utilisateur, parfois jeune, essaie de l'utiliser pour jouer!
 
Moi je dis: bonne nouvelle pour etudiant :-D Papa offre un pc (sans carte graphique car pas prevu pour jouer qd meme, c'est pour les etudes) et etudiant qd meme content car mine de rien ca jouera qd meme pas si mal :-p

Reply

Marsh Posté le 10-01-2013 à 12:21:55   0  

Si la GeforceGT640 desktop est un milieu de gamme ...

Reply

Marsh Posté le 10-01-2013 à 13:00:55   5  

Pour du mobile oui.

Reply

Marsh Posté le 10-01-2013 à 13:19:45   0  

Ca me fait  penser à Apple
Les marques font des processeurs(pour Apple) et des IGP(pour Intel) et d'un coup,on ne sait pas pourquoi les performance double ou triple.Alors que depuis plusieurs année le gain maximum est de 20%(théorique  :o )


---------------
MSI GTX980 Gaming 4G | 2*8Go Gskill | AMD Ryzen 5 5600X
Reply

Marsh Posté le 10-01-2013 à 13:34:00   1  

Deux choses :
- Anandtech... Ils sont comme cul et chemise depuis quelques temps avec Intel. Leur derniers articles sont tellement improbables... Le test de consommation pour prouver d'un chipset complet Intel est mieux qu'un ARM est bourré de complaisance, a commencer par la méthodologie. Et beaucoup de gens se demandent comment ils ont fait pour avoir les points de mesure de la tablette, si ce n'est par l'intermédiaire d'Intel...
- le GT 650M de NVidia n'est pas vraiment le fer de lance technologique de la gamme. De ce coté là, autant AMD que NVidia n'ont pas trop de soucis, c'est un GPU juste lancé pour occuper un segment, 0 coût de développement, juste du recyclage. En cas de menace, suffit de le castrer un peu moins.
 
Au final, on s'attendait a ce que le GT3e avec la RAM sur le chip soit rapide, c'est une évidence. Mais de la a faire croire que le CPU GT3 soit extraordinaire, il y a une marche énorme. Si on garde la RAM sur la carte, on peut tabler sur 1,5x mieux que l'ancienne gamme. Et la RAM embarquée a des inconvénients (cout, capacité entre autre).

Reply

Marsh Posté le 10-01-2013 à 13:34:00   

Reply

Marsh Posté le 10-01-2013 à 13:39:26   3  

Pour le premier point, ces gens qui se posent des questions ne savent pas lire, c'est indiqué noir sur blanc dans le premier article "Intel brought one of its best power engineers along with a couple of tablets and a National Instruments USB-6289 data acquisition box to demonstrate its findings."

 

Pour le second point, je pense que les précisions que nous apportons permettent effectivement de mettre ceci en perspective.


Message édité par Marc le 10-01-2013 à 13:39:52
Reply

Marsh Posté le 10-01-2013 à 14:33:25   1  

Marc a écrit :

Une grande partie du bond de performance est liéE à la mémoire embarquée, je doute qu'il soit possible de renouveler un tel gain à chaque génération.


Ça semble surtout une histoire de puissance brute:
On passe de 16EU à 40EU.
Avec un cout énergétique proportionnel (TDP 57W).
De toute façon, le GT3e est un modèle qui sera envoyé aux testeurs, mais qu'on ne retrouvera pas sur le marché.

Reply

Marsh Posté le 10-01-2013 à 15:11:03   1  

La ram embarquée est sur le packaging pas le die? C'est de la ram exclusive à l'IGP?
 
AMD devrait trouver une solution similaire quand on voit l'influence de la vitesse de la ram sur les perf de leur AGP.  
 

Reply

Marsh Posté le 10-01-2013 à 15:33:26   0  

Marc a écrit :

Pour le premier point, ces gens qui se posent des questions ne savent pas lire, c'est indiqué noir sur blanc dans le premier article "Intel brought one of its best power engineers along with a couple of tablets and a National Instruments USB-6289 data acquisition box to demonstrate its findings."


 
C'est tout a fait ce que je pointe : Un gars d'Intel vient chez eux leur dire qu'il faut prendre la tension et la consommation a ces points là, et pas ailleurs. Comment peux tu derrière valider la conformité au niveau technique d'un article comme celui-là ?

Reply

Marsh Posté le 10-01-2013 à 15:38:23   1  

Tetedepioche a écrit :

La ram embarquée est sur le packaging pas le die? C'est de la ram exclusive à l'IGP?


La description technique exacte est : "an optional on-package cache of up to 128MB in size". C'est donc au maximum 128 Mo de cache qui sont sur le package (pas le die). Les mots importants sont "au maximum" et "cache".

Reply

Marsh Posté le 10-01-2013 à 16:10:49   3  

Singman a écrit :


 
C'est tout a fait ce que je pointe : Un gars d'Intel vient chez eux leur dire qu'il faut prendre la tension et la consommation a ces points là, et pas ailleurs. Comment peux tu derrière valider la conformité au niveau technique d'un article comme celui-là ?


Je suis tout à fait d'accord avec ça, pour autant les points de mesure sont indiqués dans l'article donc si ils étaient faux il y'aurait moyen que AnandTech et surtout Intel se fasse tacler sévèrement là dessus.
 
Pour moi le problème c'est surtout que Intel a fournit les tablettes concurrentes. D'une, pour un même SoC il n'est pas dit que toute les implémentations donne le même résultat, peut être qu'il y'a des tablettes moins bonne que d'autre niveau conso avec un même SoC. De deux, sur un même modèle il y'a peut être une légère variation entre différentes productions côté consommation, comment exclure une éventuelle pré-selection d'Intel ?
 
Il y'a une part de "hasard" dans les tests. Que ce hasard soit mis dans les mains d'Intel, mmmmh :D

Reply

Marsh Posté le 11-01-2013 à 18:32:43   0  

Marc a écrit :


Je suis tout à fait d'accord avec ça, pour autant les points de mesure sont indiqués dans l'article donc si ils étaient faux il y'aurait moyen que AnandTech et surtout Intel se fasse tacler sévèrement là dessus.
 
Pour moi le problème c'est surtout que Intel a fournit les tablettes concurrentes. D'une, pour un même SoC il n'est pas dit que toute les implémentations donne le même résultat, peut être qu'il y'a des tablettes moins bonne que d'autre niveau conso avec un même SoC. De deux, sur un même modèle il y'a peut être une légère variation entre différentes productions côté consommation, comment exclure une éventuelle pré-selection d'Intel ?
 
Il y'a une part de "hasard" dans les tests. Que ce hasard soit mis dans les mains d'Intel, mmmmh :D


Ce "test" d'AnandTech et de TomsHardware est une veritable honte : en plus de ce que tu dis, on peut se demander pourquoi Intel insiste pour comparer des tablettes n'utilisant pas le meme OS ; meme si c'est du Windows, il est evident que MS a bien plus d'experience sur Intel que sur ARM. Il aurait ete tellement plus honnete de prendre deux telephones Android et d'utiliser des applications natives non fournies sur Android (pour eviter un potentiel overtuning de l'OS par un fabricant) comme des benchmarks ou des jeux...
 
Ajoutons a cela l'histoire des 7W et si j'etais parano, je penserais qu'Intel flippe un peu en ce moment :lol:

Reply

Marsh Posté le 20-01-2013 à 00:20:31   0  

Attention, le HD 4000 sur CPU mobile n'a pas les mêmes perfs que le HD 4000 sur CPU Desktop. Ce n'est pas la même vitesse même si tout est actif.
Du coup si c'est par rapport au HD 4000, par exemple les i3 ou i5 17W qu'on le compare, alors le HD 4600 est à peine plus rapide que le HD 4000 sur desktop.
C'est peut-être l'explication : HD 4600, un peu plus rapide que le HD 4000 mais toujours à la même vitesse, même sur plateforme mobile.
Du coup sur desktop, AMD n'aurait rien à craindre pour sa plateforme Trinity, mais serait égalé sur mobile.

Reply

Marsh Posté le 20-01-2013 à 08:03:50   0  

coma13 a écrit :

Dans 2/3 générations ça sera viable peut-être ?
Sortir un processeur avec une gtx 760 intégrée ça pète.


 
Un processeur avec GTX 860 intégré, ce sera possible. Mais les CPU seront des ARMv8 :D
 
Le nvidia Maxwell. Je ne sais pas trop quels sont leurs plans exacts, les grosses puissances seront sur carte PCIe 16x, les petites sur Tegra mais y aura-t-il un plus gros Tegra? un 25/35 watts pour laptop, un 45 watts et 65 watts pour micro-ATX..
 
Je me verrais bien avec un laptop avec un APU nvidia. Les options : Android, Linux, FreeBSD. Ou quelque chose d'hybride entre Android et GNU/linux (surcouche sur l'un ou l'autre)
Valve pourrait nous faire un Steam pour Linux ARM mais j'en doute quelque peu.
 
L'AMD Jaguar est intéressant sinon : le premier HSA :). Mais j'aimerais que le HSA soit supporté sur du non Windows (il le sera sur Xbox 720 mais celle-ci tourne sous.. Windows)
Intel là-dedans? ne vous emballlez pas trop, le GT3 va coûter une blinde :o

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed