Le RAID 5 soft de Linux est il fiable ? - Divers - Linux et OS Alternatifs
Marsh Posté le 24-07-2003 à 22:57:15
Tu peux y aller, c'est utilisé par les plus grosses sociétés et administrations de France. Tu ne penses pas que quand les sociétés de services vendentdes solutions à base de libre les serveurs sont en autre chose que du RAID et notammment du RAID 5 !
Marsh Posté le 24-07-2003 à 23:03:47
bah je pense surtout que dans ce cas, c'est du RAID SCSI en hardware, parce que justement, pour un gros serveur pro ç apeut être gérable
alors que moi j'ai pas les sous pour ça
Marsh Posté le 24-07-2003 à 23:09:52
Ah, oui, excuse, j'avais pas vu "soft IDE"
Je sais pas alors, peut-être en passant pas l'émulation SCSI ?
Marsh Posté le 24-07-2003 à 23:11:31
GuH> on parle de Raid5 SOFTWARE. 5 disques SCSI à la chaîne de base et pas d'une carte contrôleur spécialisée voire d'un système spécialisé (SAN et autres gouffres financiers )
Edit: pas vu le post ci-dessu
Marsh Posté le 24-07-2003 à 23:15:02
La sécurité est de toute façon moindre (c'est géré par le système et ce n'est donc pas transparent pour lui, une panne de disque peut foutre en l'air la chaîne SCSI tant que tu rebootes pas la "partition" alors qu'en hardware, ça *peut* tenir le coup si le matériel est prévu pour) mais elle est je suppose suffisante.
Est-ce que les drivers sont matures et cie, ça j'en ai pas la moindre idée ...
Marsh Posté le 24-07-2003 à 23:23:29
précision: il ne s'agit pas de mettre l'OS sur le RAID, mais les données
un truc du genre: un HDD U2W SCSI 9 Go pour l'OS
quelques 120 Go IDE en RAID 5 spftware pour le stockage sécurisé
le but étant de se préserver contre la mort d'un disque de manière correcte.
l'alternative, c'est de mettre 2x120 Go en RAID 1 hardware (avec une promise) pour le sécurisé et le reste en RAID 0 software ou même sans RAID du tout
mais bon cette hypothèse fait que j'ai 120 Go de sécurisé alorsq qu'avec le RAID 5, pour le même cout en disques, j'ai le tout de sécurisé
d'ou mon interrogation
Marsh Posté le 25-07-2003 à 04:02:16
préserver les données quitte à relancer ou garder le serveur en état de fonctionnement sans interruption?
J'imagine (je peux me tromper vu mes connaissances très limitées dans le domaine, c'est juste pour cerner) que le Raid5 software lors d'une panne disque protège les données mais qu'en est-il si pendant ce temps la chaîne SCSI est défaillante suite à la défaillance d'un disque?
Marsh Posté le 25-07-2003 à 09:37:11
Si tu veux gérer plein de disque, c'est du coté de LVM que tu dois chercher.
Marsh Posté le 25-07-2003 à 09:37:12
en IDE de toute façon, pour le hotplug c mort donc
nan, je m'en fiche de garder la machine up: en cas de panne hardware, j'interromp tout le temps de remettre un disque dans l'array là ou il manque.
Marsh Posté le 25-07-2003 à 09:46:05
j'ai eu du raid 1 ide en software et le resultat etait pas glorieux
j'avais mis toutes mes partitions en raid 1 et lors d'un crash, j'ai perdu une partie des donnees
mais bon, j'avais meme mis la partition systeme en raid 1
Marsh Posté le 25-07-2003 à 10:49:54
J'ai du raid-5 soft chez moi sur 8 disques IDE, ça tourne très bien ... Un jour un disque a eu une faiblesse, je lui ai fait un lowlevel format, et maintenant c'est reparti sans perdre une seule donnée
Par contre, mauvaise expérience au boulot, sur une config du même genre, 2 disques ont pété simultanément, donc toutes les données ont été perdues vive les sauvegardes
Marsh Posté le 25-07-2003 à 11:58:28
deux disques en même temps, faut quand même avoir bouffé du chat noir non ?
paske bon hormis un IBM 60GXP (c'est tout dire ) que j'avais maltraité, j'ai jamais perdu un disque
alors 2
par contre, j'ai lu (Soft-RAID howto je crois) que si un HDD IDE lâche, assez souvent l'autre disuqe du controleur meurt avec, et donc ils recommande de mettre un seul disque par canal
q1 pour confirmer le risque ?
Marsh Posté le 25-07-2003 à 12:02:49
Piksou a écrit : deux disques en même temps, faut quand même avoir bouffé du chat noir non ? |
C'est exactement ce qui est arrivé
HDE et HDF ont laché en même temps ...
(à force de vouloir faire des économies, on finit par payer très cher)
Marsh Posté le 25-07-2003 à 12:05:12
ok, je note, faire un achat massif de promise et mettre UN disque par canal
Marsh Posté le 25-07-2003 à 13:56:28
Piksou a écrit : ok, je note, faire un achat massif de promise et mettre UN disque par canal |
Attention avec les Promise TX3 (UDMA133, pas de raid):
1 carte: OK
2 cartes: OK, et au démarrage, à la détection des disques, les 2 cartes apparaissent comme une seule, donc on voit un seul écran où les 8 disques sont détectés.
3 cartes: ça marche pas, il ne voit que les 2 premières cartes (sans doute à cause de la fonctionnalité sus-cité)
Avec des HPT370, il n'y a pas de "fusion" quand 2 cartes sont présentes, donc je suppose que ça peut marcher avec 3 cartes.
Marsh Posté le 25-07-2003 à 14:04:00
merci de l'info
anyway, 2 cartes + les contrôleur de la CM = 6 disque, c'est déja bcp
Marsh Posté le 11-09-2003 à 21:43:57
je tape l'inscruste (up )
perso je voudrais installer chez moi du cluster raid 5 assez massif (4-5 DD de 160, 200Go voire 250 ). étant noob sous nux patapai svp (oui certaines des réponses doivent être dans les howto, mais bon si vous savez tant mieux ). n'ayant pas envie de faire ça sous crosoft je pensais le faire en soft sous nux avec du samba+100Mbits pour dialoguer transparent avec mon pc principal.
1/ est ce que les seagate, connus pour poser pb avec les raid matériels, posent des pb avec le raid logiciel de linux ?
2/ est-ce que le raid array 5 soft est évolutif (style on peut augmenter la taille totale du cluster raid d'un disque, moyennant qq heures de réarrangement de données) ? ça m'arrangerai bien en fait plutot que tout revoir après par grosses vagues.
3/ est-ce que lvm et le raid sont assez compatibles ? (qqn de mon entourage a des doutes).
Marsh Posté le 26-01-2005 à 21:20:20
Piksou a écrit : deux disques en même temps, faut quand même avoir bouffé du chat noir non ? |
t'as lu ca ou ? car je pense que bcp de config ont deux disques par canaux et jamais entendu d'histoire comme quoi les deux disques ont laché en meme temps...
Par quel phenomene ils lacheraient ? sinon aucun de mes raid ne sert a quoi que ce soit .
Marsh Posté le 26-01-2005 à 21:31:11
Citation : |
Je repond a sa place.
C'est ecrit en gros dans les readme des raidtools, bref, ce
sont les auteurs eux meme qui recomende de pas mettre deux disques ide sur un meme controleur.
Et c'est un fait, en ide le moindre probleme sur un disque peut entrainer un probleme sur le bus, reset etc, et effectivement y a de gros risques de perdre le raid.
Sinon, j'ai une experience perso du raid 5 software avec linux, et je trouve que c'est tres fiable. J'ai un dique qui a posé probleme (c'etait des disques scsi). Et le raid5 s'ets reconstruit je sais pas combien de fois, jusqu'a ce que je fasse des tests sur le disque en question et que je constate qu'il avait des secteurs defectueux.
Bref, ca marche bien.
Marsh Posté le 26-01-2005 à 21:39:55
Citation : |
si tu as des exemples de cartes et de prix, je suis preneur.
parce que j'ai le meme probleme et je ferai bien de racheter un controleur supplementaire.
Marsh Posté le 26-01-2005 à 22:04:49
l'ideal serait donc d'avoir deux controlleurs, et 2 * 4 disques pour deux raid, et mettre sur chaque nappe deux disques de raid différents .
Mais bon y a des retour d expérience concernant ce genre de pb ?
Marsh Posté le 26-01-2005 à 22:27:50
Pas mal comme idée... j'avais pas pensé a ca, mais... ouai, pas mal. Par contre il faut trouver la tour qui permete d'avoir aurant de disques (10 donc, 2 fois 4 pour les raid5 plus 2 en raid1 pour le systeme tant qu'a faire
sans parler de l'alimentation..
mais je garde l'idée pour plus tard...
pour le moment je vais me contenter de mes 2 raid5 dans deux serveurs differents
Marsh Posté le 27-01-2005 à 12:21:30
La bonne solution, si le temps ne presse pas, c'est d'attendre l'arrivée massive des cartes nForce4 pour Amd64 avec 8 ports SATA + 2 ports IDE. En plus le SATA permet le hotplug (si le disque a un contrôleur SATA natif, pas une puce de translation), donc c'est top. Niveau prix:
Aujourd'hui = CM (80) + Athlon 1,2GHz (50) + 1Go Ram (120) + 4x Promise (4x30) + 10x 200Go pata (10x90) + Alim (50) + carte Gigabit (40) = 1360
Demain: nForce4 (150) + Amd64 (100) + 1Go Ram (120) + 10x 200Go sata (10x100) + Alim (50) = 1400
C'est à la louche, mais ça donne une bonne idée du prix d'un stockage redondant d'1,8To servi sur Gigabit. Moins d'un euro du Go, notamment.
Marsh Posté le 27-01-2005 à 12:22:36
[Albator] a écrit : C'est exactement ce qui est arrivé |
Sur la même nappe... Funeste erreur !
Marsh Posté le 27-01-2005 à 19:30:12
Atlantis a écrit : ... |
Oui, J'ai un LVM sur un raid 5 (3 DD SCSI) sans problème.
Root-on-LVM-on-RAID HOWTO
Marsh Posté le 24-02-2005 à 10:31:19
il existe des cartes RAID 2 en IDE
c'est pas de RAID 5 mais c'est mieux que rien ...
c'est tjr un compremis entre prix / disponibilité/ sécurité
en fouinnant un peu, ou pourait peut etre trouver un vieux serveur RAID5 SCSI a base de pentium 1 ou 2
Marsh Posté le 07-12-2005 à 18:42:34
pour pas cher maintenant on trouve des cartes IDE ATA 133 faisant du RAID5 ( highpoint RocketRaid 454 http://www.highpoint-tech.com/France/indexf.htm).
Perso je viens de m en acheter une, a l'occasion je vous ferais un retour dessus car j attends le proc la ram et les DD pour monter le file server qui va bien .
Mais bon j'ai vu que certaines cartes meres grand public gerait dorenavant le RAID5 en natif......
Marsh Posté le 08-12-2005 à 22:00:10
Mon experience a propos du RAID5/6 Software sous linux :
J'ai monte un bon nombre de serveur de stockage a utilisation personelle/familliale (stockage musique, films etc.) de 4 a 16 disques.
En fait le driver raid 5 et 6 de linux est tres stable et bien foutu. Ce qui l'est moins ce sont les drivers et/ou le design des controleurs sata bas de gamme (je ne fait que du RAID soft sur du sata maintenant) : un crash d'un disque peut bloquer le systeme (le driver essaye de lire les donnees du disque en boucle).
Jusqu'a aujourd'hui, j'ai un bon nombre de disques qui sont tombes en panne (surtout chez Maxtor) - Seagate et surtout hitachi s'en sortent beaucoup mieux (dans tous les cas disque bien ventile) - je n'ai jamais perdu les donnees, meme si sur les machines de 16 disques j'ai prefere mettre le systeme en RAID6. Par contre il faut bien apprendre a se servir de mdadm et un onduleur bien installe est quasi obligatoire pour eviter les periodes de maintenance.
Marsh Posté le 08-12-2005 à 23:29:35
jinkazama a écrit : Mon experience a propos du RAID5/6 Software sous linux : |
Merci pour cet avis intéressant
J'envisage à terme (surtout une question de temps) de monter un serveur GNU/Linux destiné à stocker un volume important de données (avec des fichiers pouvant être >10 Go) ; vu le besoin en nombre de disques (une dizaine au moins) je pense m'orienter naturellement vers du RAID soft niveau 5 voire 6.
Pour l'instant je me suis pas vraiment penché sur la question (pour ne pas dire pas du tout ), qu'en est-il de la mise en oeuvre d'un tel système (pour du sata quelle version de noyau mini ? système de fichier conseillé (perso je pensais à XFS), installation avec lvm et mdadm ? -je compte faire tourner tout ça sous Debian, c'est réalisable lors de l'installation ou faut-il monter son système RAID après ?) et quelles sont les perfs (en terme de perfs as-tu pu comparer du RAID5 soft tournant sur des disques scsi par rapport au sata ? quel temps à ton avis faut-il compter pour la reconstruction d'un système avec, dison, 10 disques de 200 Go chacun en cas de panne ?).
Bref je me pose pas mal de question, à la limite il est toujours possible de trouver des tutos ou de la doc qui va parler de ses aspects, mais rien ne remplace l'expérience concrète d'un utilisateur (surtout vu les systèmes de ce type que tu as mis en place) ?
PS:
Les marques recommandées pour les disques sont sujettes à troll, mais bon : en IDE/SATA il faut, amha, se méfier de Western Digital et Maxtor. Seagate me paraît être un bon choix, Hitachi j'en ai moins vu donc je n'ai pas d'avis particulier dessus (j'en ai un depuis 2 ans dans mon portable, pas de prob jusqu'ici). Niveau SCSI beaucoup moins de mauvaises surprises, c'est carrément plus fiable vu le taux de panne sur ces disques (j'ai encore quelques Quantum -Wiking/Atlas/Atlas10k ou IBM chez moi qui tournent toujours sans prob ; sinon les Seagate Cheetah sont quasiment increvables).
Marsh Posté le 09-12-2005 à 06:11:02
Niveau des disques, Seagate c'est garantie 5 ans (enfin ceux que j'ai achete pour faire un des serveurs) : c'est pas mal pour ce genre de systeme
Niveau OS : le top est la partition /boot sur une compact flash (16Mo mini) connecte sur le port IDE1 Master, un raid software sur les x disques (1 seule partition), LVM par dessus. J'utilise sarge dans tous les cas. J'ai d'abord installe sur un disque IDE tout pourris (10Go), recompile le kernel (2.6.12 mini, 2.6.12.6 maxi si tu fait un initrd avec le initrdtools de debian, tu peut monter au dessus mais il faut utiliser yaird car a partir de 2.6.13 devfs est supprime du kernel. En dessous de 2.6.12 le driver libata est bugge et tu as des corruptions de donnees. Je te conseille donc une installation en debootstrap tant que sarge ne tourne pas sur un 2.6.12 mini
Pour le fs, JFS ou XFS pour les gros fichiers (musiques, films), reiserfs pour les petit fichier et/ou pour pouvoir reduire la taille de ta partition au cas ou tu veut rajouter autre chose sur ton systeme (genre une partition dedie au iSCSI ou augmenter la taille de /, il faut pouvoir reduire celle de /home). Tu as aussi GFS si tu exportes tout ton disque en iSCSI.
Niveau perf, ca depends de ton bus et de ton controleur. Avec des silicon image, je fait du ~60Mo /sec en RAID5, avec ceux integre au nforce4, je fait du ~100Mo /sec. Avec une carte 3ware PCI-X en controleur simple (pas de RAID hard), je fait du 250Mo/sec sur 12 disques en RAID5.
Pour reconstruire un systeme sans activite disque : sur un systeme de 12 disques 160Go : ca met environ 4 heures.
Mon dernier test :
12 disques en RAID5 soft sur une 3Ware PCI-X exportes en iSCSI : environ 180Mo/sec sur un lien gigabit trunked (j'ai du achete des cartes gigabit qui tiennent la route, les merde integres au CM genre Marvell ne font que du 20-30Mo/sec sous linux alors qu'une bonne 3Com en PCI-X fait du ~90Mo/sec)
J'en conclu donc : RAID Soft sur materiel grand public (nforce4 avec 8 ports sata) pour une utilisation perso (environ 20-30Mo/sec a travers le reseau en gigabit). RAID Soft sur materiel pro (3Ware 4-12 ports par exemple) pour un bon debit, une bonne stabilite (meme ne RAID soft avec ce genre de matos on peut faire du hotswap et le systeme ne gele pas quand un disque meur) et une bonne perenite (si vous changez de controleur, votre systeme RAID soft est toujours utilisable.
RAID Hard pour les tres bonne performnace et la maintenance facilite. Inconvenient : votre controleur meurt, il faut trouver le meme ou un de la meme gamme.
Perso, dernirmeent j'aime bien le RAID6 soft sur controleur 3Ware : les perfs sont acceptable, la securite (contre hard failure) est top et ca ne coute pas trop cher.
PS : Il faut un bon CPU/RAM pour avoir un systeme rapide.
Marsh Posté le 09-12-2005 à 13:35:09
Merci pour tes réponses claires et rapides
jinkazama a écrit : |
A ce niveau, je pense faire fonctionner le système sur 2 disques en RAID1 (mirroring) et d'utiliser le RAID5 ou 6 sur les disques dédiés au stockage, j'imagine que c'est possible reste à savoir si j'y arriverai Sinon niveau noyau, je compte backporter un noyau 2.6.14 pour Sarge et le compiler spécialement pour cet usage (pour l'initrd c'est de toute façon réglé : pas de module, je compte mettre en dur sur ce noyau uniquement le strict nécessaire pour faire fonctionner ce serveur).
jinkazama a écrit : |
Je connais XFS en environnement UNIX (Irix pour être précis), c'est un très bon système de fichier, robuste et particulièrement performant avec de gros volumes de données. Sous GNU/Linux, je ne l'ai pas encore essayé, mais j'imagine que ça doit bien fonctionner également, je ferai sans doute quelques tests au préalable.
jinkazama a écrit : |
Je préfère dépenser un peu plus et avoir du matériel efficace, par conséquent je prendrais très certainement une carte RAID de type 3Ware. Ton avis et tes tests sont intéressants et démontrent qu'il existe bien des différences entre les chipsets grand public (et plus précisément entre les marques -ce que j'ai déjà dis à propos du SATA : avec certains contrôleur c'est de la merde) et les chipsets pro (bon on s'en serait douté).
Marsh Posté le 09-12-2005 à 23:31:26
probleme du raid matériel il faut toujorus avoir la carte compatible avec le raid, en cas de defaillance de la carte => pu de raid.
raid logiciel, normalement on change les disques de pc il doit etre reconnu si c'est un systeme capable de reconnaitre ce raid.
Marsh Posté le 12-12-2005 à 13:35:13
Clarkent a écrit : probleme du raid matériel il faut toujorus avoir la carte compatible avec le raid, en cas de defaillance de la carte => pu de raid. |
C'est vrai et nous en avons fait les frais (commande d'une vielle carte aux US livre par Fedex : ca douille pour un truc qui ne va servir que 2 heures).
Par contre le probleme du RAID logiciel, ca n'est pas un probleme du RAID en lui meme, c'est le probleme de la mauvaise qualite des controleurs sata.
Le top est donc une carte 3Ware (ou dans le genre) en RAID logiciel : les perfs sont excellentes (bus PCI-X), la gestion des disques aussi (hot swap supporte et un plantage de disque est detecte comme en HARD : pas de blockage du systeme). En ce moment on peut trouver des cartes 3Ware d'occaz a un tres bon prix (~500 Euros pour 12 ports).
Marsh Posté le 14-12-2005 à 15:57:29
Je remonte ce topic car j'ai un serveur de fichier avec un raid 5 soft sous windows et je trouve que les tps de synchro quand je débranche puis rebranche un dd sont trop long, faut il obligatoirement passer sous un format type xfs pour beneficier d'un temps de synchro moindre ou avec du fat32 ça passe aussi ?
Marsh Posté le 14-12-2005 à 16:37:01
il est vrai que c'est tres lent, mais bon ca se comprend vu qu'il lui faut parcourir tous les disques.
Par contre je en savais pas qu'en XFS c'était plus rapide.
Marsh Posté le 14-12-2005 à 22:14:25
Bah je dis xfs parce que c le premier nom de type de partition unix qui m'est venu en tête, mais bon j'ai lu un truc sur le net comme koi il fallait 4h pour que 12*160go se synchronise sous linux, moi c le temps que met le mien avec seulement 3*250 sous windows
Marsh Posté le 15-12-2005 à 00:18:05
bein ca doit mettre plusieurs heures avec 3*250.
Je vois rien de tres etonnant.
Marsh Posté le 15-12-2005 à 01:14:19
bah ça devrait être inferieur aux 12*160go logiquement, non ?
Marsh Posté le 15-12-2005 à 01:23:43
euh bein la je pourrai pas te dire, car parcourir 3 disques ed 250giga, donc 2/3 plus grand que 160, est ce que c'est plus long ou moins long que 12*160. Bein si c'est bien fait en parallèle, a mon avis c'est plus court. Calculé la parité c'est tout de même assez simple, et a mon avis le plus long ce sont les accès disque, enfin je crois, je ne suis sur de rien.
Marsh Posté le 24-07-2003 à 21:49:22
Voilà, à la rentrée je pense mettre un RAID 5 soft IDE sur mon serveur perso (seule solution pour avoir une grande capacité de stockage souple et fiable)
question: c'est vraiment fiable ou au premier pb ça me faire faux bond ? des gens ici ont utilisé et peuvent donner un avis ?
---------------
« Le verbe "aimer" est le plus compliqué de la langue. Son passé n'est jamais simple, son présent n'est qu'imparfait et son futur toujours conditionnel. » Jean Cocteau