Comparaison perfs SAN / NAS / DD internes ? - Stockage - Systèmes & Réseaux Pro
Marsh Posté le 27-10-2011 à 12:59:37
si tu utilises les disque locaux et que tu utilisent une infrastructure virtualisé ce n'est pas une bonne option.
Mieux vaut un SAN, ça te permet de faire une baisse de cout grace à la mutualisation. tu ne pourras pas faire de Vmotion (changement de vm entre les hosts)
Marsh Posté le 27-10-2011 à 13:27:37
c'est bien plus complexe que cela, car ca dépend du contrôleur de disques, de la taille du cache, des disques, et pour les NAS/SAN du constructeur et du produit
l'intérêt d'acheter chez un constructeur spécialisé en stockage NAS/SAN cela n'est pas que pour les fonctionnalités software (réplication, snapshots, etc.) mais également pour tous les optimisations apportées pour tirer au maximum les perfs des disques durs mécaniques (placement de données, profil d'application..) et depuis un petit moment des disques SSD
sinon tu peux tenter de faire des simulations en cherchant "IOPS calculator" sur google, mais cela reste théorique
Marsh Posté le 27-10-2011 à 15:13:23
http://communities.vmware.com/thread/73745
c'est un post ou les gens inscrivent les résultats de leurs plateforme
ça peut te donner des idées / indications
Marsh Posté le 27-10-2011 à 15:21:35
Merci pour vos réponses.
skoizer : je n'ai pas de pb de coûts. C'est uniquement pour avoir les meilleures perfs / débits / IOPS max.
couak : OK (contrôleur, cache, disques, etc), mais je voulais un ordre d'idées ... parce que je doute des perfs des SAN (parce que même avec des ports 10Gb, je ne pense pas qu'on atteint du 100% de bande passante)
Marsh Posté le 27-10-2011 à 16:36:01
tu fais fausse route il n'y a pas que la bande passante qui entre en jeu dans l'utilisation d'un stockage
je te renvoie à un post que j'avais écrit : http://forum.hardware.fr/forum2.ph [...] s=0#t80381
Marsh Posté le 27-10-2011 à 17:48:50
OK ... j'ai tout lu
Bon, bah je suis pas + avancé dans mes choix
J'aurais bien voulu un ordre d'idée pour comparer entre un SAN et des HDD
Merci qd mm pour vos réponses
Marsh Posté le 27-10-2011 à 19:27:18
Et faut aussi voir qu'un SAN/NAS c'est du stockage partagé. Si tu montes une infra de virtualisation, tu as peut être envie de faire du clustering pour rendre tes VM hautement disponibles ou pour déplacer rapidement une vm d'un host à un autre et ça seul un SAN/NAS peut te le permettre. Si tes VM sont en locales, pour bouger, faut copier par le réseau les fichiers et pas de haute dispo
Marsh Posté le 27-10-2011 à 21:01:41
egillescom a écrit : OK ... j'ai tout lu |
ce n'est pas comparable comme cela, car cela dépend du matériel, des constructeurs, de l'environnement, etc.
mais si tu y tiens réellement voilà des tests que j'ai mené sur :
1) Dell MD1200 : Tiroir de 12 disques SAS 7200 RPM en RAID5 connecté en SAS 6Gb/s avec un contrôleur RAID possédant 512Mo de cache
C'est l'équivalent d'un bon DAS et théoriquement avec autant de disques le nombre d'IOPS doit être élevé
Sur le châssis d'un serveur, tu auras rarement la possibilité de mettre autant de disques
Pour ce qui est de la lecture/écriture séquentiel à 800Mo/s je pense que c'est une erreur sûrement dû à des reste en cache
2) Hitachi AMS : Baie SAN mid-range avec des disques SAS 15000 RPM, et des connecteurs FC 8Gb/s en front-end
Je me suis contenté de faire un pauvre RAID5 avec 6 disques et j'obtiens de bien ,meilleures perfs
3) Hitachi AMS : l'intérêt de ce SAN, c'est qu'il est possible d'agréger des RAID dans un pool commun et de répartir les données dans ce pool. Du coup les performances augmentent sensiblement grâce à la somme totale des disques. Pour ce test j'ai fais un groupe composé de 2 RAID6 en 8+2 (soit 20 disques au total)
Là y'a pas photo, en mode séquentiel je n'ai pas réussi à aller plus vite que la connectique de mon serveur (2 liens FC 8Gb/s) et j'ai atteint quasiment 1,6Go/s
Avec 20 disques j'ai presque 10.000 IOPS. Je n'ai plus les résultats des tests sur une Baie Dell Equallogic mais pour atteindre ce chiffre j'ai bien dû mettre 30 disques
Marsh Posté le 30-10-2011 à 02:24:56
Tu peux également voir ce que donne les perfs en ZFS
=> http://www.anandtech.com/show/3963 [...] hmarking/8
++
Marsh Posté le 08-11-2011 à 14:08:57
egillescom a écrit : Bonjour, |
Je suis pas tout a fait d'accord ...
Tu peux toujours faire du FCoE mais bon c'est pas la phylosophie premiere du SAN
SAN = reseau dedier mais rien a voir avec un protocole ethernet classique ...
Marsh Posté le 08-11-2011 à 20:46:06
Comment ça Talisker ? Je parle "d'ethernet" parce que c'est le moyen de rattacher le NAS sur les serveurs ... que peut-on utiliser selon toi pour l'interco, autre que des liens ethernet ?
(aussi, cela permet de connaitre précisément la bande passante par le nombre de ports et le débit du port : 1x 2x 3x 4x etc 1Gbits, 10Gbits, etc)
De toute façon, je vais bien voir, on va recevoir des serveurs UCS Cisco et des baies NetApp en prêt la semaine prochaine
Marsh Posté le 08-11-2011 à 22:04:37
egillescom a écrit : Comment ça Talisker ? Je parle "d'ethernet" parce que c'est le moyen de rattacher le NAS sur les serveurs ... que peut-on utiliser selon toi pour l'interco, autre que des liens ethernet ? |
De l'infiniband ?
Marsh Posté le 08-11-2011 à 23:02:36
je te reprends car tu dit que le SAN a le meme type de connections reseau que le NAS ...
oui le NAS c'est de l'ethernet, non le SAN ce n'en est pas, c'est du Fibre Channel ...
Marsh Posté le 08-11-2011 à 23:14:00
ou de l'infiniband
Marsh Posté le 08-11-2011 à 23:14:04
... et même du fiber channel encapsulé dans de l'ethernet
Marsh Posté le 08-11-2011 à 23:17:32
Ah bon ? ça ne peut être que du Fibre Channel pour que l'on puisse utiliser le terme de SAN ? (perso, je n'y connais rien, mais comme le commercial m'a parlé de liaison 10Gbits, j'ai pensé que c'était de l'ethernet 10Gbits)
Marsh Posté le 08-11-2011 à 23:21:43
Au fait : merci Couak pour tes tableaux
Je n'ai pas tout compris, mais globalement, tu arrives à de meilleures perfs (quasi le double) sur ta baie qu'en interne avec "seulement 2 connexions FC 8Gb"
Je me demande quand même ce que ça va donner avec une centaine de VM sur nos serveurs à + de 150 cores avec 4 liaison de 10Gb ...
Marsh Posté le 08-11-2011 à 23:24:32
pas du tout, on parle de SAN quand on monte un réseau de stockage, et de NAS quand on monte un stockage en réseau
une des conséquences est qu'avec un SAN on présente en général aux serveurs des volumes en mode bloc, et qu'avec un NAS on présente des services réseaux comme un serveur de fichiers
après il peut y avoir plusieurs type de connectique sur un SAN : fiber channel pour transporter du SCSI, iSCSI avec des RJ45 cuivre pour transporter du SCSI en IP...
Pour le NAS, comme il est connecté directement au réseau, bah le plus simple est de lui mettre la connectique de ton réseau, et comme en général on met de l'ethernet la conséquence immédiate est d'avoir un NAS connecté en ethernet
Marsh Posté le 08-11-2011 à 23:38:25
egillescom a écrit : Au fait : merci Couak pour tes tableaux |
arrête de te focaliser sur la bande passante... peu importe le nbre de VM et/ou le nbre de cores... tout dépend de ton besoin en bande passante et en IOPS (surtout en IOPS)
en général, le goulot d'étranglement dans une consolidation à outrance comme le permet la virtualisation, c'est la partie la plus lente à savoir le stockage (car les disques ont une partie mécanique, sans entrer dans l'exception du SSD)
Il faut tout simplement que ton stockage puisse absorber la somme des IOPS de tes VM lors du pic d'activité. Si tu veux être sûr qu'il n'y aura pas de problème de lenteur sur ton stockage, y'a pas de secret : tu fais une somme des I/O par seconde de toutes tes machines qui vont intégrer le SAN, et tu regardes si ton SAN va tenir le coup
Déjà rien qu'à vide, un windows server fait du 5 à 10 IOPS, alors si t'as 100 windows server t'as déjà 500 IOPS à absorber
Après tu peux aménager certaines tâches pour éviter de tuer ton stockage, genre ne pas lancer un scan antivirus sur tes 100 VM au même moment, ou ne pas balancer des traitements sur toutes tes base de données à la même heure...
Marsh Posté le 09-11-2011 à 10:39:59
egillescom a écrit : Au fait : merci Couak pour tes tableaux |
tu as quoi aujourd’hui ? quel genre d'appli vas tu héberger sur tes VM ?
exchange ? bdd ? tres sollicité ? application en idle a 95 % du temps ?
la connectique (FC, 2, 4 , 8 ou Iscsi) te donne la bande passante ( combien de Mo tu peux passer a un instant t)
pour avoir bcp d'i/o , faut beaucoup de disques ... comme l'expliquait couak
apres , pour savoir combien de disques tu dois mettre pour avoir des perf respectables (real life dans le post vmware que je t'ai donné) faut regarder le constructeur de la baie et s'il te faut , 10 , 15, 30 , 60 disques en raid et quel type de raid)
ton post est intéressant , on est beaucoup a se poser des questions sur ce genre de problématique
Marsh Posté le 09-11-2011 à 15:19:34
Merci
Le lien VM Ware, je comprends rien à leurs données :
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
TABLE OF RESULTS
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
SERVER TYPE: VM ON ESX 3.0.1
CPU TYPE / NUMBER: VCPU / 1
HOST TYPE: Dell PE6850, 16GB RAM; 4x XEON 7020, 2,66 GHz, DC
STORAGE TYPE / DISK NUMBER / RAID LEVEL: EQL PS3600 x 1 / 14+2 SAS10k / R50
SAN TYPE / HBAs : iSCSI, QLA4050 HBA
\##################################################################################
TEST NAME--
Av. Resp. Time ms--Av. IOs/sek---Av. MB/sek----
\##################################################################################
Max Throughput-100%Read........__17______..........___3551___.........___111____
RealLife-60%Rand-65%Read......___21_____..........___2550___.........____20____
Max Throughput-50%Read..........____10____..........___5803___.........___181____
Random-8k-70%Read.................____23____..........___2410___.........____19____
EXCEPTIONS: VCPU Util. 60-46-75-46 %;
ça veut dire quoi ? c'est en débit en Mo/s ?
Sinon : notre utilisation c'est une maquette de la suite complète System Center 2012 (et donc pas mal d'instances SQL Server) + des fermes Citrix XenDesktop et XenApp pour de la virtualisation de dizaines de milliers de workstations ... voila
Marsh Posté le 09-11-2011 à 16:11:31
egillescom a écrit : Merci |
dizaines de milliers ... ouaa ...
le gars te donne : le type de host esx, le type de stockage, le type de RAID et le type de connection
pour chaque test , (max bande passante lecture, real life, max bande passante moitie lecture , moitie ecriture , et puis aleatoire , je pense pour simuler bdd)
1ere colonne : latence (lowest is better)
2eme colonne : io/s
3eme colonne : debit en Mo/s
voila
est ce plus clair ?
Marsh Posté le 09-11-2011 à 17:40:04
Ah ok !!! Merci !!! Bcp bcp + clair maintenant bah dis-donc, bof bof les débits ... en tout cas, merci, je vais regarder tous les tableaux alors
PS : dizaines de milliers pour la maquette on vise les 250.000 postes virtuels déployés chez nos clients sur 2012 (sur 4 clients grand-compte)
Marsh Posté le 09-11-2011 à 20:18:14
egillescom a écrit : Ah ok !!! Merci !!! Bcp bcp + clair maintenant bah dis-donc, bof bof les débits ... en tout cas, merci, je vais regarder tous les tableaux alors |
en fait quand on te dit de ne pas te focaliser sur la bande passante mais sur les IOPS, tu t'en fous
ne viens pas demander ce qui merde sur ton infra quand tes 100 VM seront sur un stockage avec 8 liens FC 8Gb/s avec 8 HDD 7200RPM en RAID5
Marsh Posté le 09-11-2011 à 20:42:09
quoi ? mais non !!! c'est pas ça pourquoi tu dis ça ?
Je vois juste que 100Mo/s c'est pas bcp, ce sont les perfs de mon HDD Sata2 perso tout pourri à 60e.
Mais je ne connais pas du tout les IOPS ... donc je n'ai aucune référence c'est tout !
Laisse-moi le temps de digérer tout ça
Tiens, du coup : c'est quoi / combien les IOPS sur 1 HDD grand public (du style Caviar Green 1To ou un Seagate ou un Raptor) ?
Marsh Posté le 09-11-2011 à 21:19:06
bah je vais pas me répéter, je te renvoie une seconde fois à un post que j'ai écrit : http://forum.hardware.fr/forum2.ph [...] s=0#t80381
ton disque dur de 7200RPM atteindra grand max 100 IOPS, et si tu fais tourner des VM sur ce disque tu seras content d'attendre les 5Mo/s
Marsh Posté le 10-11-2011 à 09:24:54
disque SATA : 75 IOPS
disque SAS : 175
disque ssd : 50000 ? ( de 10000 a 100 000 ) suivant les modèles
on parle d’ accès concurrents aléatoires , rien a voir avec un transfert d'un fichier de 1 go à 80 Mo/s a la maison
ici nous avons un nas (raid DP de 10 disques SATA 7200) pour faire du stockage de fichiers mais on s'en sert pour nos esx
résultat
Access Specification Name Read IOps Write IOps Read MBps Write MBps
Max Throughput-100%Read 2 724,7 0,0 85,1 0,0
Max Throughput-50%Read 484,1 484,1 15,1 15,1
Random-8k-70%Read 83,3 35,4 0,7 0,3
RealLife-60%Rand-65%Read 109,1 60,3 0,9 0,5
sur un san ibm connecté en 2gb (raid 5 de 6 disques FC 10000 trs/min)
SAN 512 ko Max Throughput-100%Read 5 326,61 0,00 166,46 0,00
SAN 512 ko Max Throughput-50%Read 1 268,49 1 264,04 39,64 39,50
SAN 512 ko Random-8k-70%Read 961,68 399,99 7,51 3,12
SAN 512 ko RealLife-60%Rand-65%Read 812,05 441,28 6,34 3,45
Marsh Posté le 11-11-2011 à 10:45:01
Merci couak, mais j'ai lu et relu ton post, et je n'ai/n'avais pas trouvé ces infos.
Je n'y connais rien, c'est nouveau pour moi (d'où mes questions) j'ai besoin de référen-tiels/ces pour comprendre ... c'est pas évident quand tu débarques !
C'est bien pour ça que j'ai posté ici ...
Merci pour tes explications ledub tout est bcp + clair pour moi désormais !
Je vais faire des tests la semaine prochaine ... on reçoit le matos lundi ou mardi
Marsh Posté le 12-11-2011 à 19:24:27
egillescom a écrit : Ah bon ? ça ne peut être que du Fibre Channel pour que l'on puisse utiliser le terme de SAN ? (perso, je n'y connais rien, mais comme le commercial m'a parlé de liaison 10Gbits, j'ai pensé que c'était de l'ethernet 10Gbits) |
SAN :
inconvénient : impossible de partager les données
NAS :
Partage des fichiers possibles
Citation : pour avoir bcp d'i/o , faut beaucoup de disques ... comme l'expliquait couak |
ou ZFS avec SLOG & L2ARC sur du SSD...
Tu peux voir ce que ça donne : http://www.anandtech.com/print/3963
++
Marsh Posté le 13-11-2011 à 15:10:51
"Switch Gigabit compatible iSCSI" -> dit-m'en plus sur la compatibilité iSCSI, je suis curieux ...
"en fait c'est du 10Gb FCoE "Fiber over Ethernet", une sorte de iSCSI façon Fiber Channel" .. oh oui, je suis Fan de cette explication incompréhensible ...
Finalement, la démocratisation des SAN n'est peut-etre pas une si bonne chose ...
Marsh Posté le 13-11-2011 à 16:00:27
trictrac a écrit : "Switch Gigabit compatible iSCSI" -> dit-m'en plus sur la compatibilité iSCSI, je suis curieux ... |
Switch Gigabit compatible iSCSI :
10Gb FCoE, je ne l'utilise pas
=> http://en.wikipedia.org/wiki/Fibre [...] r_Ethernet
++
Marsh Posté le 22-11-2011 à 13:00:32
Bon en fait, là, on n'a pas encore pu tester ... on n'a pas encore réussi à interco l'UCS avec la baie NetApp ... il nous manquait les Nexus
Marsh Posté le 27-10-2011 à 12:14:16
Bonjour,
Je recherche une doc ou un site ou une étude qui décrirait les différences de performances (et éventuellement les avantages / inconvénients) des différentes solutions de stockages (et leurs interfaces de rattachement) :
- local (en SATA, SSD, SAS, et en RAID etc ...)
- SAN (en iSCSI / FC / etc ...)
- éventuellement NAS (mais je pense que c'est au mieux entre les 2 solutions, car même attachement que le SAN ... par le réseau)
Par exemple : xx HDD SAS xx Tr/min en RAID 5 (ou RAID 6, 10, etc) = xx Mo/s (ou Go/s) // SAN en iSCSI avec 4 ports 10Gbits = xx Mo/s (ou Go/s)
Ceci afin de savoir ce qui serait le + rapide / performant pour une infra de qq serveurs physiques en cluster avec des serveurs virtualisés dedans (sûrement en Hyper-V) ... et savoir si je mets un petit SAN ou des HDD locaux ... actuellement, mon impression est que pour qq serveurs de Hosts (2, 3, 4 machines physiques), j'aurais de meilleures perfs avec des HDD locaux (mais je ne connais pas trop les débits ni pour le RAID ni pour le SAS et encore moins les 2 ) ... alors que le SAN, même avec plusieurs ports en Gbits (en théorique, mais je ne sais pas ce que ça donne en vitesse réelle / en pratique), sera mutualisé et moins performant.
Sinon, si vous avez juste une règle de calcul je veux bien aussi. Ceci pour savoir les IOPS réelles possibles par ces technos
Merci de votre aide