[HFR] Actu : AMD montre une carte avec deux GPU Fiji

Actu : AMD montre une carte avec deux GPU Fiji [HFR] - HFR - Hardware

Marsh Posté le 17-06-2015 à 14:10:01   0  

Lors de la conférence "PC Gaming Show" organisée par PC Gamer lors de l'E3, AMD a montré un prototype d'une carte intégrant deux GPU Fiji. Du fait de ...
Lire la suite ...

Reply

Marsh Posté le 17-06-2015 à 14:10:01   

Reply

Marsh Posté le 17-06-2015 à 14:14:37   0  

Hé bah, vive la HBM :o

Reply

Marsh Posté le 17-06-2015 à 14:16:53   0  

Amd annonce plus de 17 tflops on peut donc penser que la carte sera a 1050 mhz comme la fury x ?


Message édité par lulunico06 le 17-06-2015 à 14:17:10
Reply

Marsh Posté le 17-06-2015 à 14:17:07   0  

Enfin du concret ! cool !

Reply

Marsh Posté le 17-06-2015 à 14:17:17   0  

La c'est intéressant lié au 8 go , mais ça sera sans moi (trop cher :kaola: )

Reply

Marsh Posté le 17-06-2015 à 14:18:09   1  

laruche.com est down depuis des semaines (pas de news)?

Reply

Marsh Posté le 17-06-2015 à 14:22:32   1  

Xixou2 a écrit :

laruche.com est down depuis des semaines (pas de news)?


 
Depuis 1 mois et je ne sais pas pourquoi et je vois personne en parler.

Reply

Marsh Posté le 17-06-2015 à 14:23:39   0  

Liquidation judiciaire.


---------------
Tel un automate, le Yoshi noir s'avance vers le chef des Chain Chomps et lui dit : « Le CEC reprend du service : http://www.latelier240.fr/CEC »
Reply

Marsh Posté le 17-06-2015 à 14:23:42   0  

kickvegeta a écrit :

La c'est intéressant lié au 8 go , mais ça sera sans moi (trop cher :kaola: )


 
SVP (tellement de gens font cette erreur) une carte bigpu c'est comme un crossfire! 4go x 2 ce n'est que 4go utilisable!!!!
 
Liquidation judiciaire.
 
merci pour cette info O.O ils ont fait vite! le site est neuf!


Message édité par gungar le 17-06-2015 à 14:24:28
Reply

Marsh Posté le 17-06-2015 à 14:25:23   1  

gungar a écrit :

Xixou2 a écrit :

laruche.com est down depuis des semaines (pas de news)?


 
Depuis 1 mois et je ne sais pas pourquoi et je vois personne en parler.


 
j'ai eu l'info sur leurs page FB, l'editeur du site est actuellement en liquidation judiciaire. donc il n'y as plus de suivi du site. le dossier etant en cours, on ne sais pas si il y aura un repreneur ou pas.
 
dommage pour matbe.

Reply

Marsh Posté le 17-06-2015 à 14:25:23   

Reply

Marsh Posté le 17-06-2015 à 14:32:18   0  

Citation :

Nul doute que la version finale qui arrivera dans quelques mois sera refroidie par un watercooling.


Avec 2 fiji sur un seul pcb, il faudra au moins du phase-change...

Reply

Marsh Posté le 17-06-2015 à 14:56:44   0  

J'ai lu quelque part que directx 12 allais changer la gestion de la memoire en Sli et crossfire, histoire de ne pas dédoubler l'allocation memoire a l'identique sur les deux, rumeur ou vérifier ?

Message cité 1 fois
Message édité par fabounay le 17-06-2015 à 14:57:08
Reply

Marsh Posté le 17-06-2015 à 15:14:20   0  

fabounay a écrit :

J'ai lu quelque part que directx 12 allais changer la gestion de la memoire en Sli et crossfire, histoire de ne pas dédoubler l'allocation memoire a l'identique sur les deux, rumeur ou vérifier ?


Ce n'est pas une rumeur mais il faut que le moteur du jeu soit prévu pour ça donc ça ne se ferra pas pour tout de suite.

Reply

Marsh Posté le 17-06-2015 à 15:46:27   0  

lulunico06 a écrit :

fabounay a écrit :

J'ai lu quelque part que directx 12 allais changer la gestion de la memoire en Sli et crossfire, histoire de ne pas dédoubler l'allocation memoire a l'identique sur les deux, rumeur ou vérifier ?


Ce n'est pas une rumeur mais il faut que le moteur du jeu soit prévu pour ça donc ça ne se ferra pas pour tout de suite.


 
Et ça ne touchera surement que les gros jeux AAA. Parce que vu l'armée de jeu encore en DX9, on risque pas de voir DX12 partout...

Reply

Marsh Posté le 17-06-2015 à 15:51:04   0  

fabounay a écrit :

J'ai lu quelque part que directx 12 allais changer la gestion de la memoire en Sli et crossfire, histoire de ne pas dédoubler l'allocation memoire a l'identique sur les deux, rumeur ou vérifier ?


Ça t'a été très mal dit. D3D12 ne fera pas ça; il donnera aux moteurs 3D le contrôle complet des allocations mémoires vidéos et un contrôle partiel de la gestion des jobs graphiques dispatchées sur les différents GPU.
Ce sera aux moteurs 3D de gérer cela à leur sauce.

Reply

Marsh Posté le 17-06-2015 à 16:25:08   1  

Pour ceux qui se pose la question pour laruche.com
Ils en ont parlé sur NextINpact.
http://www.nextinpact.com/news/929 [...] ciaire.htm

Reply

Marsh Posté le 17-06-2015 à 16:36:43   0  

Et ça a déjà été expliqué par tridam: http://forum.hardware.fr/hfr/Hardw [...] m#t9477277
 

tridam a écrit :

Pour revenir au sujet, je ne pense pas qu'il soit dans l'intérêt de Nvidia de faciliter le support d'un mix entre GeForce et Radeon.
 
Par contre supporter un mix entre GeForce et iGPU Intel, surtout dans le cadre de la plateforme Optimus, est intéressant. Ca permettra à Nvidia d'améliorer l'avantage compétitif de sa plateforme vs AMD, et surtout de redonner un coup de boost au marché du "petit GPU qui ne sert à rien à part ajouter un logo sur les PC". S'il peut être combiné au GPU intégré, il servira un peu moins à rien. De quoi permettre à Nvidia d'essayer de se faire une place dans les ultraportables.
 
Pour AMD l'intérêt est similaire mais concerne surtout sa plateforme Dual Graphics.
 
Sinon concernant l'addition des zones mémoires, en théorie tout est possible. En pratique, il y aura toujours au moins un GPU qui devra contenir toutes les textures. Déporter le post processing, ou une partie de celui-ci, vers un autre GPU pourra peut-être économiser quelques buffers dans la mémoire du GPU principal mais ça ne devrait pas faire de différence énorme au niveau de l'utilisation mémoire de ce dernier.
 
En fait ce qu'il sera surtout possible de faire c'est d'avoir par exemple une carte graphique 8 Go pour le rendu de base (avec le texturing) et une carte graphique 1 Go pour le post processing. Mais je vois mal l'industrie se focaliser sur des solutions aussi spécifiques, d'autant plus que peu de jeux pourront en profiter, surtout au départ. Enfin, à moins qu'AMD et Nvidia ne soient capables de prendre en charge eux-mêmes ce type de rendu en multi-GPU avec des optimisations spécifiques qui "couperaient" à la volée le rendu au bon endroit suivant les GPU utilisés.


Reply

Marsh Posté le 17-06-2015 à 16:37:57   0  

fabounay a écrit :

J'ai lu quelque part que directx 12 allais changer la gestion de la memoire en Sli et crossfire, histoire de ne pas dédoubler l'allocation memoire a l'identique sur les deux, rumeur ou vérifier ?


 
si tu a 2 scène indépendante oui c'est possible genre écran splité avec chaque scène leur propre texture
 
si tu utilise les mêmes textures sur tout ce qui est affiché il faudra surement les dupliqué en mémoire comme actuellement  
 
après peut être une parti du rendu peut être fait par un GPu et une autre partie du rendu par un autre GPU (mais qui du coups fera peut être pas les textures)  
bref plein de possibilité mais ça sera jamais 8 vrais giga dispo de manière simple


Message édité par mazingerz le 17-06-2015 à 16:39:02
Reply

Marsh Posté le 17-06-2015 à 17:40:27   0  

De toute façon l'intérêt du multi-GPU pour le jeu sera toujours limité.
En termes de programmation tout est plus ou moins possible, cependant plus on veut exploiter les deux cartes à fond et plus il y aura d'emmerdes. Il faut bien leur faire échanger des données ou partager des ressources tôt ou tard.
Au final pour moi le multi-GPU se justifie quand on les fait travailler sur des choses différentes, j'entends par là que ça peut être la même appli mais les tâches sont séparées, comme on le ferait par exemple dans une ferme à calcul pour trouver des nombres premiers, ou dans le rendu d'un film d'animation ou les images peuvent être rendues dans le désordre car c'est pas important.
Si c'est pour les faire bosser sur les mêmes images, avec les mêmes ressources 2D et 3D, forcément c'est une tâche fastidieuse et trop dépendante de la partie logicielle, parfois à un tel point que même en alignant plusieurs fois un matériel haut de gamme on peut obtenir des performances ridicules simplement parce que c'est mal supporté.


Message édité par taronyu26 le 17-06-2015 à 17:40:58
Reply

Marsh Posté le 17-06-2015 à 17:49:55   2  

Donc justement leur bi-GPU est fait pour la VR, donc c'est parfait, non?
Tous les systèmes bi-GPU vont avoir un gros intérêt pour la VR, encore plus qu'en multi-écran car justement c'est deux images qu'on calcule et non une image répartie. Les soucis habituels des bi-GPU ne seront plus présent, par contre il y en aura peut-être de nouveaux.

Reply

Marsh Posté le 17-06-2015 à 18:03:37   2  

Ah bon ? Pourtant les deux images représentent deux yeux légèrement éloignées (principe de la stéréoscopie). Donc dans une scène 3D standard, ben les deux images afficheront quasiment les mêmes objets, à part quelque variations éventuelles, on a toujours le problème de partager/dupliquer des ressources.
Même si, effectivement, le rendu des deux images peut être indépendant.
Disons qu'à mon sens c'est mieux mais pas encore tout à fait adapté.

Reply

Marsh Posté le 17-06-2015 à 18:42:10   1  

Comme la 295x2 qui a aussi 2 8 pins elle dépassera les 375 watt.

Reply

Marsh Posté le 17-06-2015 à 18:53:32   1  

merde, pas matbe !!!
 
Stéphane Charpentier deviens quoi ?


Message édité par Xixou2 le 17-06-2015 à 22:35:24
Reply

Marsh Posté le 17-06-2015 à 23:57:25   0  

Reply

Marsh Posté le 18-06-2015 à 01:19:25   0  

Il est plus la depuis longtemps Stéphane. Il est chez BNP Paribas depuis pas mal de temps deja.

Reply

Marsh Posté le 18-06-2015 à 02:14:06   0  

On s'en fout ... ça reste du 28nm (même en bi-gpu)! Dans moins d'un an le 14/16 nm arrive avec la HBMv2 et l'écart sera tellement probant, qu'on n'en reparlera même pas de cette Fidji!Allez ouste, du balai, je veux un bond techno qui fassent baver chacun d'entre nous.

Reply

Marsh Posté le 18-06-2015 à 02:35:04   0  

je préfère un bon 28 nm qu'un 14 nm pourri ;)  
 
il est certain que Fidji fait couler plus d'encre que les autres crapauds  :D

Reply

Marsh Posté le 18-06-2015 à 07:33:27   0  

2x512Go/s !!!

Reply

Marsh Posté le 18-06-2015 à 14:06:42   0  

dave76 a écrit :

On s'en fout ... ça reste du 28nm (même en bi-gpu)! Dans moins d'un an le 14/16 nm arrive avec la HBMv2 et l'écart sera tellement probant, qu'on n'en reparlera même pas de cette Fidji!Allez ouste, du balai, je veux un bond techno qui fassent baver chacun d'entre nous.


Si la Nana arrive d'ici milieu de l'année, c'est qu'on aura rien de plus efficiant avant au moins mi-2016... et donc pas de 14nm.
 
AMHA les "R9 490X" en 14nm/HBM2 c'est pour Septembre/Octobre 2016 //my 2 cents. :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed