Actu : AMD montre une carte avec deux GPU Fiji [HFR] - HFR - Hardware
Marsh Posté le 17-06-2015 à 14:16:53 0
Amd annonce plus de 17 tflops on peut donc penser que la carte sera a 1050 mhz comme la fury x ?
Marsh Posté le 17-06-2015 à 14:17:17 0
La c'est intéressant lié au 8 go , mais ça sera sans moi (trop cher )
Marsh Posté le 17-06-2015 à 14:18:09 1
laruche.com est down depuis des semaines (pas de news)?
Marsh Posté le 17-06-2015 à 14:22:32 1
Xixou2 a écrit : laruche.com est down depuis des semaines (pas de news)? |
Depuis 1 mois et je ne sais pas pourquoi et je vois personne en parler.
Marsh Posté le 17-06-2015 à 14:23:39 0
Liquidation judiciaire.
Marsh Posté le 17-06-2015 à 14:23:42 0
kickvegeta a écrit : La c'est intéressant lié au 8 go , mais ça sera sans moi (trop cher |
SVP (tellement de gens font cette erreur) une carte bigpu c'est comme un crossfire! 4go x 2 ce n'est que 4go utilisable!!!!
Liquidation judiciaire.
merci pour cette info O.O ils ont fait vite! le site est neuf!
Marsh Posté le 17-06-2015 à 14:25:23 1
gungar a écrit :
|
j'ai eu l'info sur leurs page FB, l'editeur du site est actuellement en liquidation judiciaire. donc il n'y as plus de suivi du site. le dossier etant en cours, on ne sais pas si il y aura un repreneur ou pas.
dommage pour matbe.
Marsh Posté le 17-06-2015 à 14:32:18 0
Citation : Nul doute que la version finale qui arrivera dans quelques mois sera refroidie par un watercooling. |
Avec 2 fiji sur un seul pcb, il faudra au moins du phase-change...
Marsh Posté le 17-06-2015 à 14:56:44 0
J'ai lu quelque part que directx 12 allais changer la gestion de la memoire en Sli et crossfire, histoire de ne pas dédoubler l'allocation memoire a l'identique sur les deux, rumeur ou vérifier ?
Marsh Posté le 17-06-2015 à 15:14:20 0
fabounay a écrit : J'ai lu quelque part que directx 12 allais changer la gestion de la memoire en Sli et crossfire, histoire de ne pas dédoubler l'allocation memoire a l'identique sur les deux, rumeur ou vérifier ? |
Ce n'est pas une rumeur mais il faut que le moteur du jeu soit prévu pour ça donc ça ne se ferra pas pour tout de suite.
Marsh Posté le 17-06-2015 à 15:46:27 0
lulunico06 a écrit :
|
Et ça ne touchera surement que les gros jeux AAA. Parce que vu l'armée de jeu encore en DX9, on risque pas de voir DX12 partout...
Marsh Posté le 17-06-2015 à 15:51:04 0
fabounay a écrit : J'ai lu quelque part que directx 12 allais changer la gestion de la memoire en Sli et crossfire, histoire de ne pas dédoubler l'allocation memoire a l'identique sur les deux, rumeur ou vérifier ? |
Ça t'a été très mal dit. D3D12 ne fera pas ça; il donnera aux moteurs 3D le contrôle complet des allocations mémoires vidéos et un contrôle partiel de la gestion des jobs graphiques dispatchées sur les différents GPU.
Ce sera aux moteurs 3D de gérer cela à leur sauce.
Marsh Posté le 17-06-2015 à 16:25:08 1
Pour ceux qui se pose la question pour laruche.com
Ils en ont parlé sur NextINpact.
http://www.nextinpact.com/news/929 [...] ciaire.htm
Marsh Posté le 17-06-2015 à 16:36:43 0
Et ça a déjà été expliqué par tridam: http://forum.hardware.fr/hfr/Hardw [...] m#t9477277
tridam a écrit : Pour revenir au sujet, je ne pense pas qu'il soit dans l'intérêt de Nvidia de faciliter le support d'un mix entre GeForce et Radeon. |
Marsh Posté le 17-06-2015 à 16:37:57 0
fabounay a écrit : J'ai lu quelque part que directx 12 allais changer la gestion de la memoire en Sli et crossfire, histoire de ne pas dédoubler l'allocation memoire a l'identique sur les deux, rumeur ou vérifier ? |
si tu a 2 scène indépendante oui c'est possible genre écran splité avec chaque scène leur propre texture
si tu utilise les mêmes textures sur tout ce qui est affiché il faudra surement les dupliqué en mémoire comme actuellement
après peut être une parti du rendu peut être fait par un GPu et une autre partie du rendu par un autre GPU (mais qui du coups fera peut être pas les textures)
bref plein de possibilité mais ça sera jamais 8 vrais giga dispo de manière simple
Marsh Posté le 17-06-2015 à 17:40:27 0
De toute façon l'intérêt du multi-GPU pour le jeu sera toujours limité.
En termes de programmation tout est plus ou moins possible, cependant plus on veut exploiter les deux cartes à fond et plus il y aura d'emmerdes. Il faut bien leur faire échanger des données ou partager des ressources tôt ou tard.
Au final pour moi le multi-GPU se justifie quand on les fait travailler sur des choses différentes, j'entends par là que ça peut être la même appli mais les tâches sont séparées, comme on le ferait par exemple dans une ferme à calcul pour trouver des nombres premiers, ou dans le rendu d'un film d'animation ou les images peuvent être rendues dans le désordre car c'est pas important.
Si c'est pour les faire bosser sur les mêmes images, avec les mêmes ressources 2D et 3D, forcément c'est une tâche fastidieuse et trop dépendante de la partie logicielle, parfois à un tel point que même en alignant plusieurs fois un matériel haut de gamme on peut obtenir des performances ridicules simplement parce que c'est mal supporté.
Marsh Posté le 17-06-2015 à 17:49:55 2
Donc justement leur bi-GPU est fait pour la VR, donc c'est parfait, non?
Tous les systèmes bi-GPU vont avoir un gros intérêt pour la VR, encore plus qu'en multi-écran car justement c'est deux images qu'on calcule et non une image répartie. Les soucis habituels des bi-GPU ne seront plus présent, par contre il y en aura peut-être de nouveaux.
Marsh Posté le 17-06-2015 à 18:03:37 2
Ah bon ? Pourtant les deux images représentent deux yeux légèrement éloignées (principe de la stéréoscopie). Donc dans une scène 3D standard, ben les deux images afficheront quasiment les mêmes objets, à part quelque variations éventuelles, on a toujours le problème de partager/dupliquer des ressources.
Même si, effectivement, le rendu des deux images peut être indépendant.
Disons qu'à mon sens c'est mieux mais pas encore tout à fait adapté.
Marsh Posté le 17-06-2015 à 18:42:10 1
Comme la 295x2 qui a aussi 2 8 pins elle dépassera les 375 watt.
Marsh Posté le 17-06-2015 à 18:53:32 1
merde, pas matbe !!!
Stéphane Charpentier deviens quoi ?
Marsh Posté le 18-06-2015 à 01:19:25 0
Il est plus la depuis longtemps Stéphane. Il est chez BNP Paribas depuis pas mal de temps deja.
Marsh Posté le 18-06-2015 à 02:14:06 0
On s'en fout ... ça reste du 28nm (même en bi-gpu)! Dans moins d'un an le 14/16 nm arrive avec la HBMv2 et l'écart sera tellement probant, qu'on n'en reparlera même pas de cette Fidji!Allez ouste, du balai, je veux un bond techno qui fassent baver chacun d'entre nous.
Marsh Posté le 18-06-2015 à 02:35:04 0
je préfère un bon 28 nm qu'un 14 nm pourri
il est certain que Fidji fait couler plus d'encre que les autres crapauds
Marsh Posté le 18-06-2015 à 14:06:42 0
dave76 a écrit : On s'en fout ... ça reste du 28nm (même en bi-gpu)! Dans moins d'un an le 14/16 nm arrive avec la HBMv2 et l'écart sera tellement probant, qu'on n'en reparlera même pas de cette Fidji!Allez ouste, du balai, je veux un bond techno qui fassent baver chacun d'entre nous. |
Si la Nana arrive d'ici milieu de l'année, c'est qu'on aura rien de plus efficiant avant au moins mi-2016... et donc pas de 14nm.
AMHA les "R9 490X" en 14nm/HBM2 c'est pour Septembre/Octobre 2016 //my 2 cents.
Marsh Posté le 17-06-2015 à 14:10:01 0
Lors de la conférence "PC Gaming Show" organisée par PC Gamer lors de l'E3, AMD a montré un prototype d'une carte intégrant deux GPU Fiji. Du fait de ...
Lire la suite ...