RAID matériel ou logiciel ? - Disque dur - Hardware
Marsh Posté le 05-01-2004 à 11:39:42
juste quelques points vite fait.
Je n'ai pas répondu à ton enquête car tu mélange raid et norme disque et tu ne précise pas ce que tu entend par raisonnable...
Les cartes controleur raid scsi se trouvent à des prix raisonnable maintenant (certes parfois en occasion mais c'est possible), entre 150 et 300 euros la carte. A ce prix tu as le haut de gamme du raid : extension de RAID, reconstruction en tache de fond, mixité des niveaux de raid... Donc fin du débat sur le prix des cartes... surtout si dans la balance tu mets le prix de la formation du spécialiste pour configurer de façon certaine et déterministe ton RAID soft sous linux.
raid logiciel:
1) certains ont observés.... un certain glacote ? non ? Et si tu as comparé il faut nous dire entre quoi et quoi (le raid hard c'était quoi, config ? non ?
2) pérénnité au niveau du hard : oui et encore je ne suis pas convaincu. Quelqu'un a t-il un retour d'expérience sur une migration de raid sur une autre carte d'un autre constructeur ? infos needed
Pérénité du soft : oui si tu reste sous linux. Le raid hard passe en revanche sans pb d'un linux à windows à Sun à AIX à OS/2 à DOS... Donc pour moi les avantages/inconvénients se valent : le tout est de le savoir au moment où tu met ta conf raid en oeuvre...
3) ouaip... celà ne joue que dans le cas où tu as un pb avec ton raid... N'oublions pas que ce je cherche aavnt tout dans le raid c'est le raid ! et pas tout les jolie trucs autours... Le support est souvent raisonnablement conservés par les constructeur lors des rachats... de plus je change plus souvent de matos (et de disques) que les entreprises ne disparraissent...
4) intérêt limité pour certains points. Celà fait partie des attraits que je qualifie d'exotique, n'interressant que les adeptes d'extrêmismes Pour le mixte de raid, les cartes raid scsi le font aussi depuis longtemps...
5) pas d'accord avec toi. Ce qui fait le prix de la carte raid scsi c'est le nombre de canaux scsi, la taille du cache et support scsi (fibre optique ou cuivre). Actuellement tu as une acrte très bien pour moins de 300 euros (expérience inside). Mais globalement le raid hard est plus cher que le soft SAUF si tu dois passer des jours à le mettre en oeuvre et que le bidule ne se fait pas oublié
6) Les cartes raid scsi le font aussi. Certaines taches que tu cites sont la part des drivers gérant le raid et ne font pas partie du concept raid soft/hard lui-même ! Il ne faut pas mélanger le raid fait ou non en hard et les outils de gestion du raid lui-même (soft ou hard)...
7) Je t'ai déjà expliqué que la réallocation dynamique de cluster défectueux est déjà en place au niveau des disques scsi (et IDE) depuis longtemps. Les cartes raid scsi permettent celà de façon transparente...
8) comme tu le dis on s'éloigne du sujet !
9) faux ! et comme dans ma remarque 7) ne mélange pas les outils de gestion du raid et le raid lui même (soft ou hard). Les drivers raid hard disposent d'excellents outils de gestion, voir de console d'admin distante avec alarmes !
10) Tu ne sais jamais ce que vas faire une mise à jour. Tu peux la tester sur une autre bécanne et vlan ça plante quand même sur la tienne (vécu inside). Donc les mises à jours soft ont un haut degré de méfiance de ma part surtout lorsqu'elles touchent mes données Donc pas de différence pour moi entre hard ou soft : une mise à jour est toujours un risque !
Ok (à peu près) pour ton résumé sur quel raid choisir. Il en manque mais l'essentiel est là.
Marsh Posté le 05-01-2004 à 11:41:52
jsute un truc : réellement un RAID 1 avec 2 disques n'est pas un raid 5 avec 2 disques. Dans un raid 5 avec 2 disque (si celà existait) un disque contiendrait le code de redondance contrairement au raid 1 ou les 2 disques sont identiques
mais c'est du détail...
Marsh Posté le 05-01-2004 à 12:10:51
En fait le sondage ne veut rien dire. En effet, en fonction de son budget, des contraintes (performances, tolerances de panne..etc...), le choix du Raid (0,1,5..), de la technologie SCSI, IDE, Hardware ou software sera completement different.
Qt à comparer le Raid Hard au Soft, pour avoir pratiquer les 2 (sous HP-UX, Sun, NT4, 2K et linux) y'a pas photos. En terme de fiabilité, pérenité et performance je choisis le Raid Hardware et jamais je ne conseillerais à mes clients un Raid software.
Marsh Posté le 05-01-2004 à 12:44:08
vomito a écrit : LE Raid 0+1 IDE n'est pas proposé? |
nan on parle du vrai raid la
Marsh Posté le 05-01-2004 à 12:48:06
ReplyMarsh Posté le 05-01-2004 à 13:21:30
Pourquoi le Raid 0+1 serait-il à bannir
Marsh Posté le 05-01-2004 à 13:43:14
Kryten a écrit : Pourquoi le Raid 0+1 serait-il à bannir |
perte de place trop importante
Marsh Posté le 05-01-2004 à 13:51:03
Et, pour le RAID 5, toutes les données sont mélangées entre les disques ?
Marsh Posté le 05-01-2004 à 13:55:16
les RAID5 c'est bien Mon reve 3*36Go en RAID5
Sinon y'a le matrix raid aussi sur l ICH6 ca pourrai bien le faire (Raid0 sur le debut des dd, RAID1 sur le reste)
Marsh Posté le 05-01-2004 à 14:02:49
Kryten a écrit : Et, pour le RAID 5, toutes les données sont mélangées entre les disques ? |
oui (si l'on peut dire ).
Marsh Posté le 05-01-2004 à 14:03:31
M300A a écrit : les RAID5 c'est bien Mon reve 3*36Go en RAID5 |
4*73 Go en raid 5
Marsh Posté le 05-01-2004 à 14:19:47
janus_75 a écrit : juste quelques points vite fait. |
Je n'ai pas défini raisonnable pour ne pas entrer dans les détails. J'avais 2x2 choix (IDE/SCSI et hard/soft), j'ai fait 4 cases, quel est le problème ?
0) Prix d'une carte RAID scsi: 300? OK, je pensais plus.
1) Pérennité matérielle: les constructeurs de cartes RAID ont stratégiquement intérêt à ce que leurs formats soient incompatibles, afin de capturer le client. Quant à savoir s'ils le font, no idea, comme tu le dis, info needed.
Pérennité logicielle: je ne vois pas l'intérêt d'installer AIX sur un serveur de fichier réseau de taille raisonnable. Tu branches ton serveur sur le réseau, tu l'administre avec les outils habituels, et c'est tout. Cela dit si vraiment tu veux mettre autre chose, evms est supporté sous Linux, AIX, freeBSD et compile sous Solaris ...
2) "certains ont observé": non ce n'est pas moi, je l'ai lu tout-à-l'heure, je cherche ...
3) Souplesse: bah si c'est critique. Quand je paie mes disques, j'ai envie de maximiser l'usage que j'en fait. Pas besoin de faire du RAID5 pour /temp, un RAID 0 suffit. En revanche j'a envie de mettre le journal (du système de fichier, pas de l'OS) sur un RAID-1. Et le reste sur un RAID-5.
Autre exemple: j'ai 3 disques 200Go et 1 de 120Go. En software je peux faire deux arrays, l'un avec 4 partitions de 120go et l'autre avec 3 de 80 Go. Tu as au total (4-1)x120 + (3-1)x80 = 520Go d'espace utilisable. Comment ferais-tu avec une carte hardware ? Est-ce possible (je ne sais pas) ?
4) Je doute qu'aucune carte RAID permette de faire du RAID sur le réseau, par exemple. Hors c'est très utile: quitte à faire des redondances, autant les faire sur deux machines physiquement distantes (incendies, pannes électriques, etc.). L'exemple de la clef USB aussi.
5) Si tu as pour 300? une carte SCSI hardware, OK rien à dire.
Moi je préfère faire du RAID IDE (software donc) car les disques sont moins cher, mais si la différence en RAID SCSI soft et RAID SCSI hard c'est 300? - prix d'une carte SCSI de base, alors pourquoi pas le faire en hard.
6) Reconfiguration. Oui j'ai dit que certaines cartes le faisaient. Mais si tu installes une carte qui ne le fait pas, tu es grillé, c'est tout. Avec du software, pas de probème. Plus généralement avec du raid software on peut supposer que toute fonctionnalité raisonnable sera raisonnablement implémentée. Avec un pilote et un matériel proprio, ça dépend du bon vouloir du fabricant ...
7) Réallocation: et moi je t'ai déjà répondu ! Cela dit c'est un
peu hors sujet.
8) OK.
9) OK (j'ai édité).
10) Pas du tout d'accord ! Il y a quand même une différence entre du code open source maintenu par IBM et un binaire obscur prévu pour une puce dédiée (voire pas spécifiée). A la limite si tu connais un peu tu peux diagnostiquer (voire corriger) toi-même le problème. Et même si tu es un pur end-user, je préfère largement un code public. Sans parler encore une fois de la modularité: tu mets à jour le morceau que tu veux, seulement celui qui te posait problème. Pas d'histoire de "avec le nouveau driver xxx marche mais yyy ne marche plus".
Sur le RAID-0: RAID5(2) = RAID1(2); RAID5(n) = RAID0(n-1) + tolère une panne. RAID5(2) n'a rien à voir avec RAID0(2).
Marsh Posté le 05-01-2004 à 14:21:11
vrobaina a écrit : En fait le sondage ne veut rien dire. En effet, en fonction de son budget, des contraintes (performances, tolerances de panne..etc...), le choix du Raid (0,1,5..), de la technologie SCSI, IDE, Hardware ou software sera completement different. |
1) OK, raisonnable n'est pas très bienvenu. Tant pis pour le sondage.
2) Tu as des arguments stp ? J'accepte tout-à-fait d'avoir tort, mais je préfère comprendre pourquoi plutôt que l'argument d'autorité "moi qui suis censé savoir te dis que ...".
Marsh Posté le 05-01-2004 à 14:33:17
Kryten a écrit : Pourquoi le Raid 0+1 serait-il à bannir |
Tu as 4 disques.
1) RAID 0+1: 2 disques de données et 2 de redondances.
Tu perds 50% de l'espace, 50% de débit, et tu es protégé contre une seule panne.
2) RAID5: 3 disques de données et 1 de redondance (bon en fait les redondances sont dispatchées sur tous les disques mais peu importe).
tu perds 25% d'espace disque, 25% de débit, et tu es protégé contre une panne.
Conclusion: le RAID 0+1 n'a de sens que lorsque tu avais fait un RAID0 et que tu veux le protéger sans faire le moindre effort de reconfiguration: tu rajoutes 2 disques, tu cliques, et c'est fini.
Mais bon raidreconf sait très bien te convertir un RAID0 en RAID5 ...
Marsh Posté le 05-01-2004 à 14:37:19
glacote a écrit : |
Marsh Posté le 05-01-2004 à 14:44:43
glacote a écrit : |
Marsh Posté le 05-01-2004 à 15:10:25
glacote a écrit : |
Marsh Posté le 05-01-2004 à 16:56:02
Sondage: OK pour les choix, mais je ne peux pas rajouter des questions maintenant. Je n'ai pas mis SATA car je prétends obstinément que c'est de la foutaise. (sauf éventuellement pour mettre un Raptor, et encore là je préfère un Cheetah SCSI).
SSA/FibreChannel je pensais que ça faisait implicitement partie de "SCSI".
1) Pérennité matérielle: si tu le dis, OK. Mais ça me paraît économiquement absurde pour les fabricants. Tant mieux s'ils le font. A quel prix, au fait ?
Pérennité logicielle: bon OK evms est supporté par à peu près tous les OS sauf ceux de Microsoft. Si c'est juste pour faire un serveur de fichier, pourquoi diable le faire sous Windows ? Mets une autre machine pour Active Directory, PDC, applications, etc., et laisse ce malheureux serveur de fichier tranquille. Par exemple sous Linux, c'est gratuit.
Evidemment mon argument ne marche pas si on ne connaît pas un minimum Unix/Linux.
3) Raid en plusieurs morceaux: OK si certaines cartes savent le faire. C'est en tout cas le cas pour certaines IDE.
Mais ça restera toujours moins souple: RAID distant (deux machines physiquement distantes), RAID sur un spare en USB2 (ça permet de garder un disque à promener sans devoir ouvrir la machine et sans être obligé d'en acheter un autre), RAID au milieu d'un fichier, sténographie (RAID sur les bits de poids faibles d'un WAV), etc. Non ce n'est pas exotique: exemple de la clef USB.
4) OK pour le "réseau" sur FibreChannel. Mais ce n'est pas du réseau, c'est juste un câble SCSI qui est physiquement un peu spécial. Moi je te parle de faire du RAID par-dessus n'importe quel tcp: par exemple par dessus du IPSec, sur du bête Ethernet 100Mb pas cher, etc. Beaucoup moins cher, beaucoup plus souple, mais moins performant que du FibreChannel.
EDIT: au fait, le iSCSI, ce n'est pas justement du "SCSI over tcp" ?
5) Performances:
A mon avis, sous réserve que les débits des disques SCSI et IDE soient comparables tu auras les mêmes performances. je voudrais bien qu'on compare effectivement:
Machine A: Duron 1.4GHz, 1Go RAM, carte SCSI hardware, réseau 100Mb/s, 4x Cheetah 10,000 tr/min
Machine B: Duron 1.4GHz, 1Go RAM, cartes IDE pATA, pas RAID, réseau 100Mb/s, raid software, 6x Seagate 7200 tr/min.
Je me trompe peut-être, mais il me semble que si ton Duron sert juste à calculer les XOR, il n'est largement pas saturé. En l'occurence c'est la config que je suis en train de monter, donc je pourrais confirmer ou infirmer ça rapidement ...
Bien entendu si tu veux que ta machine serve à autre chose qu'à faire seulement serveur de fichiers, là c'est différent. Mais mon argument c'est de dire: rajoute une autre machine juste pour faire serveur de fichier, mets-lui 2 ou 3 cartes réseaux à 10?, un bon switch et basta.
6) Reconfiguration: OK. Quand j'avais cherché ça sous google je n'avais trouvé que d'obscurs serveurs Dell hors de prix. C'était à l'origine la principale raison pour laquelle j'avais éliminé le hardware: j'envisage de racheter des disques tous les 2-3 mois, pour faire grandir mon RAID à mesure que la densité des disques progresse.
Question: à quel prix ? 300? ?
7) Je suis bien d'accord avec toi qu'un admin à autre chose à faire que de s'amuser à patcher. C'est pour ça que de pouvoir ne changer que la partie qui ne marche pas, et pas la totalité du driver, c'est bien (if it ain't broke, don't fix it).
Je suis aussi OK sur le fait que parcourir le code source c'est un peu rebutant. Mais au moins, tu n'est pas dépendant du bon vouloir du fabricant.
Mon acte de foi (criticable, donc) c'est que le code du RAID software est aussi bon/fiable/performant, si ce n'est meilleur, que celui du RAID hardware. A partir de là, je préfère du software (souplesse, pérennité, etc.) là où d'autres préfèreront du hardware (simplicité, voire performances).
Marsh Posté le 05-01-2004 à 17:15:34
un topic assez similaire :
http://forum.hardware.fr/forum2.ph [...] =#t2912021
Marsh Posté le 05-01-2004 à 17:21:03
4) OK, RAID over tcp c'est peut-être un peu hors sujet.
Mais ça permet quand même ça:
- prends un réseau de postes clients, chacun son disque
- un réseau rapide
- un petit serveur de base, avec un seul disque
- chaque poste exporte une de ses partitions sur le réseau
- le petit serveur en fait un gros RAID
- qu'il repartage ensuite en NFS ou smb.
Ca a l'air d'une usine à gaz, mais c'est hyper-pratique car facile à mettre en oeuvre au niveau matériel. A la limite le "serveur" peut même être un des postes clients. Voire ... tous les postes clients font serveur RAID, chacun sur un petit morceau des disques de tout le monde.
Bon, il faut voir ce que ça donnerait en pratique ...
6) bon là on touche du doigt un vrai problème: s'agit-il d'un pro qui veut monter une machine en production, sachant que 1/2 journée de son temps coûte plus cher qu'une carte SCSI tip-top, ou bien parle-t-on d'un hardware enthusiast qui veut se la péter devant ses amis avec son beau RAID-5 sans en avoir les moyens (moi) ?
11) RAID1(2) / RAID5(2): très exactement en RAID5 les redondances sont alternativement sur l'un ou l'autre disque. Mais vu que "redondances" = XOR, et que XOR avec un seul bloc ça fait ce fameux bloc, en fait on a très exactement RAID1(2) = RAID5(2).
En pratique on ne parle pas de RAID5(2) mais de RAID1(2) car la formulation de ce qui se passe est bien plus simple (c'est "visuel" ).
5)
Marsh Posté le 05-01-2004 à 17:31:40
janus_75 a écrit : jsute un truc : réellement un RAID 1 avec 2 disques n'est pas un raid 5 avec 2 disques. Dans un raid 5 avec 2 disque (si celà existait) un disque contiendrait le code de redondance contrairement au raid 1 ou les 2 disques sont identiques |
Euhhh ... Ca ne correspond pas + ou - au raid 1.5 ?
Marsh Posté le 05-01-2004 à 17:35:00
ReplyMarsh Posté le 05-01-2004 à 17:52:25
glacote a écrit : |
Marsh Posté le 05-01-2004 à 17:53:10
Optitribe a écrit : |
connait pas celui là ? je ne peux pas te dire...
Marsh Posté le 05-01-2004 à 17:56:19
glacote a écrit : |
Je présume que c'est du point 11 que tu parles mais je ne comprends pas tout ...
D'après ce que j'ai pu lire et comprendre ,contrairement au raid 1 , le raid 1.5 ne permet pas de réutiliser le disque miroir sans contrôleur raid (HPT 372N) mais il est théoriquement plus performant que le raid 1 et consomme moins de ressources CPU que le raid 0.
L'avantage de ce système c'est que tu as besoin d'uniquement 2 disques et vu que c'est géré au niveau hardware tu peux installer plusieurs systèmes d'exploitation différents sur la même machine.
Marsh Posté le 05-01-2004 à 18:13:29
glacote a écrit : |
Marsh Posté le 05-01-2004 à 18:18:03
Optitribe a écrit : |
non je me suis même trompé dans mon analyse : en fait en raid 5 tu aurais alternativement du code redondant (Xor) sur les 2 disques alors qu'en raid 1, le code est duppliqué.
Le disque dédié à la redondance c'est le RAID 4 je crois. C'est à ça que tu fais référence avec le 1.5 ?
Marsh Posté le 05-01-2004 à 18:19:52
Optitribe a écrit : |
ok. Mais je ne vois vraiment pas comment celà fonctionne... Je connaissais le RAID 30 ou 50 de Mylex mais le 1.5
Marsh Posté le 05-01-2004 à 18:33:32
janus_75 a écrit : |
C'est le seul test que j'ai trouvé sur le sujet ...
http://www6.tomshardware.com/stora [...] index.html
Marsh Posté le 05-01-2004 à 20:25:10
Petite question concernant le raid5 : est-ce-que ça fait aussi gagner en temps d'accès ? Genre avec 6 disques, les temps d'accès sont multipliés par 5 ?
Marsh Posté le 05-01-2004 à 21:19:52
Le temps d'accès reste proche du temps d'accès du disque le moins performant...
Marsh Posté le 05-01-2004 à 21:30:16
Optitribe a écrit : |
ok ! interressant mais peu probant en IDE... En revanche je me demande ce que celà donnerait avec du SCSI Mylex a développé un peu la même chose sur sa gamme AcceleRAID... Donc je peux maintenant te répondre : non ce n'est pas la même chose que ce dont on parlait (mix de raid).
Nous : avec les mêmes disques tu fais du raid 0 avec une partie de l'espace dispo et du raid 5 avec le reste, par exemple
Eux : tu répartie les données comme du raid 1, mais tu lis comme du raid 0 en gros...
Marsh Posté le 05-01-2004 à 21:38:51
Sur le RAID 0+1: les 50% de pertes (en débit et en espace) s'entendant par rapport à 4 dsiques.
Avec un RAID 0+1 tu as n/2 fois la capacité unitaire
et n/2 fois le débit unitaire.
Avec un RAID5 tu as n-1 fois la capacité unitaire et n-1 et n-1 fois le débit unitaire.
Bref je pense que là-dessus on veut dire la même chose: le RAID 0+1 c'est strictement moins bien que le RAID-5 (à la légère surcharge CPU du RAID5 près si RAID softwqre).
Je suis d'accord avec toi sur le fait qu'en RAID5 tu ne perds qu'un n-ième de la capacité totale; donc plus tu as de disque, moins tu perds. Accessoirement, plus tu as d disques, meilleur est le débit. (= n-1 fois le débit nominal). Donc un bon RAID5 a beaucoup de (petits) disques. Le seul problème: la fréquence des pannes, la consommation électrique, l'encombrement.
Pour mon waterbloc je me suis limité à 8 slots: j'accepte de perdre 1/7 = 15% de l'espace total, pour une consommation totale d'environ 100W et un encombrement de 5àx10x20 cm.
Marsh Posté le 05-01-2004 à 21:43:42
axey a écrit : Petite question concernant le raid5 : est-ce-que ça fait aussi gagner en temps d'accès ? Genre avec 6 disques, les temps d'accès sont multipliés par 5 ? |
Pas vraiment.
Non au sens ou dans e pire des cas il faut attendre la latence complète de celui des n disques qui a la donnée que tu recherches.
Oui cependant dans le cas d'un serveur qui fait de multiples accès concurrents et décorrélés, au sens o où les accès sont répartis sur n disques, donc en espérance tu a n fois moins de chance de demander une latence complète, donc ta latence espérée est n fois plus faible.
Mais c'est très théorique et peu réaliste. En pratique tu gagnes en débit, en fiabilité, mais rien en latence.
Seule solutin pour réduire la latence: le cache (celui de l'OS, hein, pas celui tout pourri intégré aux disques ), ou alors les disques avec deux bras de lecture (qui existaient dans les années 90, mais abandonnés malheureusement pour des raisons marketing; cf
[url=http://forum.hardware.fr/forum2.php3?config=hardwarefr.inc&post=598888&cat=1&cache=&sondage=0&owntopic=0&p=1&trash=0&subcat=110]ce
topic[/url].
Marsh Posté le 05-01-2004 à 21:46:12
glacote a écrit : |
Marsh Posté le 05-01-2004 à 21:47:30
glacote a écrit : |
Marsh Posté le 05-01-2004 à 09:21:26
En complément à ce topic.
RAID matériel[br]
On branche ses disques sur une carte contrôleur, branchée sur le port PCI. Elle dispose de son propre BIOS, et cache au système les vrais disques pour ne déclarer qu'un gros disque virtuel (RAID).
Avantages:
1) simplicité: tu branches la carte, tu branches les disques, tu bootes, tu configures une fois pour toute, et tu installes ton OS.
Il faut néanmoins installer les pilotes de la carte, que ce soit sous Windows ou sous Linux.
2) performances: sujet à débat, mais certains prétendent que le RAID hardware est plus performant.
3) tu bénéficies le plus souvent de l'assistance technique du fabricant de la carte, vu son prix. Un numéro de téléphone est parfois bien secourable ...
RAID logiciel
Les disques sont installés, partitionnés, etc. normalement et indépendamment les uns des autres. Le système d'exploitation peut alors regrouper plusieurs partitions (sur des disques différents évidemment) pour faire du RAID. Le CPU fait alors tous les calculs, en utilisant la RAM centrale.
Sous Linux on utilise souvent evms.
1) performances: sujet à débat. Certains ont observé que leur RAID logiciel était bien plus performant que le RAID matériel intégré au contrôleur. Les arguments principaux: le RAID logiciel profite des 512Mo de RAM à 4Go/s, l'algo de gestion du cache de l'OS est forcément meilleur que celui intégré au BIOS, voire le CPU est plus puissant que la puce contrôleur dédiée.
EDIT: attention ce point est controversé (c'est un peu glacote contre reste du monde).
2) pérennité: on ne perd pas ses données quand on change de matériel. Avec le RAID hardware c'est souvent le cas (le vendeur cherche à nous lock-in avec son matériel)
3) cas particulier du RAID Linux: comme c'est Open Source, même si le développeur du produit que tu utilises abandonne/disparaît/se reconvertit dans la patisserie, le coût d'entrée sur le marché d'un concurrent qui voudrait récupérer ses clients est faible puisque les sources sont publiques. Exemple: le développement de LVM était plus ou moins mort depuis 2 ans; récemment IBM a lancé evms, un outil concurrent; comme ils avaient les sources, les formats, etc., ils ont ajouté à evms une couche de compatibilité avec LVM. Tu peux donc récupérer tous tes RAID LVM avec evms, sans perte de données ni de fonctionnalités.
En bref: pas d'exposition au risque de défaillance du fournisseur.
4) souplesse: tu es complètement libre de faire ce que tu veux.
De couper tes disques pour faire des morceaux en RAID-0, d'autres en RAID-1 (table d'allocation par exemple), d'autres en RAID-5.
Tu peux faire du RAID avec un disque USB2 (comme ça tu peux couper ton RAID et emmener ton USB2 avec toi pour transporter tes données facilement et sans avoir à acheter un nouveau disque), avec un lecteur réseau, voire avec une clef USB (pratique pour avoir une image parfaite de ses données personnelles sur clé USB, qu'on peut transporter pour synchroniser ses données entre le boulot et la maison: on déclare le disque local invalide, le RAID le reconstruit à partir de la clef USB, on bosse, et on retire la clef. Pas besoin de pseudo logiciel de synchronisation des fichiers ou autre). Tu peux aussi faire tu RAID sur des disques cryptés, et/ou en utilisant les secteurs inalloués au milieu d'une partition FAT, en utilisant les bits de poids faibles d'un fichier .vob (sténographie), etc.
EDIT: (> PeK) les cartes mylex et MSI MegaRAID permettent de faire plusieurs RAID indépendants entre plusieurs jeux de partition: un morceau en RAID0, un en RAID5, etc.
5) c'est beaucoup moins cher: pour le prix d'un contrôleur SCSI hardware (> 500?) on a CM + Duron 1.4GHz + 1Go DDR + Alim + contrôleur IDE de base supplémentaire. Quant aux cartes RAID plus sophistiquées on monte rapidement au-delà des 1000? ...
6) reconfiguration à-la-volée: quand on rajoute un disque à un RAID-5, il faut redistribuer tous les blocs du disque:
par exemple avec l'algo left-symetric il faut passer de
Disque a c e g
Bloc 1 2 3 x
4 5 x 6
à
Disque a c e g i
1 2 3 4 x
5 6 7 x 8
C'est non-trivial, seules les cartes hardware haut-de-gamme le font. Le raid logiciel (sous Linux en tout cas) sait le faire.
7) Réallocation à la volée des secteurs défectueux: le gestionnaire RAID peut désactiver les secteurs qui causent des erreurs I/O et y substituer d'autres secteurs. Ca s'ajoute à la réallocation faite par le disque dur lui-même; mais sans limite de taille: là où le disque n'a qu'1% de marge, le RAID logiciel peut réallouer tant qu'il reste de la place. Et c'est plus souple: on peut par exemple réallouer sur un autre disque, envoyer un mail à partir d'un certain seuil, convertir en RAID-1 automatiquement en cas de seuil critique, etc.
Ce n'est pas une fonction RAID à proprement parler mais c'est intégré à evms par exemple, on en profite gratuitement une fois qu'on s'est cassé les pieds à configurer le RAID logiciel avec evms.
8) clichage (snapshot): on "prend une photographie" d'une partition à un instant donné. A chaque modification, les valeurs précédentes sont consservées sur une autre partition. On peut donc revenir en arrière (roll-back) très facilement. Intérêts: pour tester une application / une mise-à-jour / un patch, et pouvoir tout annuler si finalement ça ne marche pas. Autre intérêt: je mets un honey pot sur le réseau et fais un snapshot de son système sur une autre machine. Lorsqu'un intrus attaque la machine, j'observe tout ce qu'il fait. C'est bien mieux que de mettre le système en lecture seule (car alors l'intrus sait que ça échoue).
Là encore ce n'est pas propre au RAID mais intégré gratuitement à evms, autant en profiter.
9) simplicité de l'administration: les outils logiciels sont souvent plus sophistiqués et plus conviviaux (GUI) que le BIOS de la carte RAID.
EDIT: janus_75 n'est pas d'accord et a sans doute raison. Merci de ne pas tenir compte de cette remarque.
10) mises-à-jour: tu sais exactement ce qui se passe, tu mets à jour comme tu le veux. Sous Windows, tu changes juste de pilote.
Sous Linux, tu recompiles le pilote, tu le rmmod puis modprobe et c'est tout. Les outils d'administration, tu les recompiles, puis tu relances le service. A la limite tu peux mettre la nouvelle version de la bad-bloc reallocation avec l'ancienne version du RAID-5 si tu trouves que ça marche mieux : c'est modulaire (en tout cas sous Linux).
NB: quel niveau de RAID choisir avec n disques ?
1) RAID0: aucune protection des données, débit = n x 50Mo/s,
capacité = n.
2) RAID1: protection contre n-1 pannes, débit <= 50Mo/s,
capacité = 1.
3) RAID0+1 (complètement débile): protection contre
n/2 pannes, débit <= n/2 x 50Mo/s, capacité = n/2
Merci de laisser tomber définitivement le RAID 0+1,
surtout sur des cartes pseudo-hardware IDE no-name où le CPU
fait tout de toute façon.
4) RAID5: protection contre une panne, débit <= (n-1) x 50Mo/s,
capacité = n-1. Un RAID5 à n disques a pratiquement les
performances d'un RAID0 à n-1 disques mais en protégeant
contre la première panne de disque.
Le seul niveau de RAID raisonnable, à moins de se moquer de ses données, est donc le RAID-5. Le RAID-1 avec 2 disques, c'est exactement un RAID-5 avec 2 disques. Le RAID-1 avec > 2 disques, c'est très fiable mais hors de prix: autant faire du RAID-5 et avoir un disque dur d'avance (spare disk) qui se substitue immédiatement au premier disque en panne, c'est moins coûteux.
Message édité par glacote le 05-01-2004 à 14:25:10