J'ai tout cassé mon RAID - Logiciels - Linux et OS Alternatifs
Marsh Posté le 23-12-2012 à 19:35:55
Pour la suite, on va dire que ton RAID est md0, le disque sur la carte merdique est sdb1, et qu'un des disques en spare est sdc1
A mon avis déjà il faudrait voir pour faire sortir le disque qui se trouve sur la carte additionnelle, mais il faudrait savoir si ce disque est en spare ou non... et là il faut jouer du :
cat /proc/mdstat |
et un
mdadm --detail /dev/md0 |
Et savoir à quoi correspond ton disque sur la carte additionnelle (sda...)
1- Alors imaginons, coup de chance ton disque sur la carte merdique (sdb1) est en spare -> tu le sors du RAID. Pour ça, pas 36000 solutions, on le déclare en panne et on l'enlève.
mdadm --manage /dev/md0 --set-faulty /dev/sdb1 |
Avec la dernière commande, tu ne dois voir que tes 4 disques utilisés, et celui en spare.
watch cat /proc/mdstat |
Doit rester fixe. Si oui, c'est tout bon, le RAID n'est pas en reconstruction, on peut éteindre proprement et rallumer.
2- Là pas de pot, le disque est en utilisation
Il reste possible aussi de le sortir, mais la reconstruction va être très longue... Donc :
mdadm --manage /dev/md0 --set-faulty /dev/sdb1 |
Là, on déclare notre disque sdb1 (celui sur la carte en carton) en panne, et on le sort du RAID. Entretemps le 1er disque en spare (sdc1) a pris "la place" de sdb1, et notre dernière commande nous permet de suivre la reconstruction du RAID.
Enfin normalement tu n'as pas à remettre un des disques en spare en utilisation sur le RAID en cas de panne, c'est à mdadm de le faire.
Si tu veux les ajouter, il faut les sortir, les remettre, agrandir, et retailler le système de fichier. Soit (avec md0 notre RAID, sdc1 notre disque de spare) :
mdadm --manage /dev/md0 --set-faulty /dev/sdc1 |
A noter que --raid-devices=5 correspond à l'utilisation de 5 disques, si tu en ajoutes un 6ème, il te faudra donc marquer : --raid-devices=6
Marsh Posté le 23-12-2012 à 21:37:00
Ouch
En gros, j'ai compris ce que tu écris, et à quelques lettres près, c'est ça
donc, la grappe, c'est bien md0
Le hdd sur la carte pourrave, c'est /dev/sdg (et il est en spare)
Un autre hdd en removed (après mdadm --detail /dev/mmd0) , c'est /dev/sdc (je crois que c'est pas bon du tout ça ), et ça a changé, quand j'ai intervertis les connecteurs, pour voir si ça venait de ceux-ci (tout remis comme c'était avant, ensuite).
Citation : |
Bien qu'il soit en "removed", tu pense que je peux déclarer /dev/sdc en faultly, et procéder comme tu dis ?
si c'est le cas, je tente. Il y a déjà quelques jours que je n'arrive pas ...
Marsh Posté le 23-12-2012 à 22:06:28
Tu es sûr qu'avec :
watch cat /proc/mdstat |
Tu ne vois pas ton RAID en train de se reconstruire ? ça peut prendre trèèèèèès longtemps avant d'être déclaré disponible tu sais
(sachant aussi qu'il est déconseillé de procéder à la moindre opération de modification de la structure du RAID, et qu'il est fortement conseillé d'avoir un bon onduleur pour éviter les coupures de courant)
Alors /dev/sdg est le disque sur la carte foireuse ? Il est en spare ? Donc à virer, aller hop.
mdadm --manage /dev/md0 --set-faulty /dev/sdg |
Par contre :
gilou54 a écrit : Un autre hdd en removed (après mdadm --detail /dev/mmd0) , c'est /dev/sdc (je crois que c'est pas bon du tout ça ), et ça a changé, quand j'ai intervertis les connecteurs, pour voir si ça venait de ceux-ci (tout remis comme c'était avant, ensuite). |
Le truc à jamais faire sur un RAID, sans vérifier auparavant comment sont déclarés les disques dans le fstab
De ce que je lis, dans ton RAID déclaré en tant que md0, tu as :
Citation : Number Major Minor RaidDevice State |
4 disques utilisés, 1 disque en spare, et sdc... bah pas utilisé. Mais bon, AMHA, une fois le RAID dispo, backup sur un autre support, et suppression de ce RAID pour en faire un "propre".
Marsh Posté le 24-12-2012 à 01:37:52
Ça fait des semaines que j'essaie de lui faire faire des trucs propres, mais c'est peine perdue je crois et encore, la description de ses exploits est... sobre comparée à ce qu'a été la réalité
Mais bon, si t'arrivais à le dépanner ça serait bien urbain de ta part, parce que perso je sèche
Marsh Posté le 07-01-2013 à 18:41:29
Hello
Je reviens après [les fêtes de fin d'année, un test de récup depuis windows (échoué), et enfin l'application de la mort qui tue => RAZ des super blocks et mdadm --créate ...]
à l'heure actuelle, OMV est en train de tenter de reconstruire le RAID.
Dernière tentative. Après, j’admets avoir perdu mes données, et je recommence à zéro.
En tous cas, merci pour le coup de main
Marsh Posté le 07-01-2013 à 23:02:51
Tu n'as pas reçu une corde pour Noël ?
Marsh Posté le 12-01-2013 à 17:29:51
du nouveau ?
Marsh Posté le 13-01-2013 à 11:25:14
Les nouvelles sont simples.
Après la réinstallation d'OMV, celui ci a tenter de reconstruire le RAID, en fonction des modifications que j'avais faites via mdadm.
Mais je n'ai récupéré aucune données.
Tant pis.
J'ai effacé tous les disques et reconstruit un RAID6 avec 7 disques, que j'augmenterai à 8 quand j'aurais le câble KiVaBien.
Heureusement, dans la semaine qui a précédé, j'avais sauvegardé une bonne partie de mes données perso, et je n'ai perdu (quand même) que certains de mes n° de série MS, reçus via MSDNAA.
voilà, merci quand même d'avoir essayé de m'aider
Marsh Posté le 13-01-2013 à 11:46:30
Un conseil si tu n'as pas encore beaucoup de données sur ton raid et que tu as un peu (beaucoup) de temps libre :
Au lieu de nommer les disques de ton raid par /dev/sdx nomme les par /dev/disk/by-id/... comme ca quand un des disques est en panne tu sait lequel est en panne plus facilement et si par exemple le disque en /dev/sdc devient /dev/sdb ça ne pose plus de problemes.
Marsh Posté le 13-01-2013 à 21:04:06
Reply
Marsh Posté le 22-12-2012 à 23:36:22
Bonjour,
Alors tout d'abords, je mets une chose au clair, je suis une GROSSE burne en ce qui concerne Linux
Ce fait étant établi, je vais essayer d'exposer mon problème à peu près clairement
Je me suis monté un NAS perso, avec comme système/interface OpenMediaVault (basé sur Debian), et j'ai créé, à ce moment là, un RAID5 de 4 disques.
Tout à merveilleusement fonctionné.
J'ai ensuite étendu ce RAID à 5, puis 6 disques.
Les problèmes ont commencés ici..
Le 6ème disque étant branché sur une carte SATA additionnelle, il a été "déconnecté" une fois, puis plusieurs.
A chaque fois, j'ai recréé le RAID (enfin, j'ai, OMV surtout).
Puis je me suis souvenu que cette carte additionnelle avait posée des pb à ma fille quelques mois auparavant, et je me suis dis que ce n'était pas près de passer.
J'ai donc voulu copier mes datas sur mon ancien NAS Synology EN MÊME TEMPS que le NAS OMV reconstruisait le RAID (oui, vous pouvez me jeter des cailloux) en pensant qu'il valait mieux ne pas trop trainer.
Évidemment, tout s'est crashé (je résume)
Plus d'accès à mes données sur le NAS OMV, bien avant que la copie n'est pu commencer. Donc, plus de données.
En grattouillant avec un copain qui tente de m'aider, et en me mangeant de la doc sur mdadm (beaucoup en anglais, pour un mec qui ne parle pas un mot d'anglais ), j'ai pu obtenir des informations.
La 1ère est que, apparemment, il y a encore quelque chose sur les disques.
La 2ème est que (mdadm --examine) les 6 disques sont tous là, mais 2 sont considérés comme inactif et en spare
Et ça e pose un pb car je ne sais pas comment en remettre AU MOINS un dans la grappe RAID, ce qui me permettrait de récupérer mes données, et repartir à zéro, en changeant la carte qui tue.
J'aurais donc besoin de l'aide de quelqu'un qui saurait m'aider à redémarrer le RAID.
OK, c'est pas dit en terme ultra technique, mais je crois que c'est compréhensible.
J'attends votre aide (ô seigneur, ha non, merde) avec impatience.
Si vous avez besoin de plus d'infos, ben, demandez
---------------
www.horusinformatique.fr