superblock raid5 - Installation - Linux et OS Alternatifs
Marsh Posté le 24-01-2007 à 12:36:16
Il m'était arrivé quelque chose d'approchant : 3 disques sur un array de 5 + 1 spare en RAID5 étaient devenus indisponibles d'un coup. Heureusement ils n'étaient pas en panne (même si je ne sais toujours pas pourquoi ils ont eu ce hoquet), par contre au redémarrage mdadm ne voulait plus assembler l'array car les superblocks n'étaient plus à jour. Dans ce cas j'ai du forcer l'assemblage via le paramètre --force, et après reconstruction les données étaient de retour.
Pour ton problème je ne sais pas si ça fonctionnera à cause de ton histoire de uuid différents, peut-être faudra-t-il rajouter le paramètre --update=uuid pour que ça passe. Dans tous les cas bonne chance, vaut mieux croiser les doigts quand on est obligé de faire ce genre de manip...
Marsh Posté le 25-01-2007 à 13:20:31
le parametre --force est explicitement spécifié comme très dangereux dans la doc de mdadm.
Je plussoie quand à la dangerosité de la manipe.
Marsh Posté le 26-01-2007 à 17:59:42
en faite le pb est aussi le suisant :
j ai un kernel 2.6.18.3 sans module raid5 qui me permet de booter sur root(raid1) et home(raid1)
le boot ce passe normalement avec mdadm-autostart=> md2 et md1
lorsque je demarre en 2.6.19 avec le module raid5 sa plante dans initramfs
de meme si j aoute en 2.6.19 start_durty_upgraded=1 au boot
impossible d executer les commandes mdadm raid5 en 2.6.18 .... deadlock
quelques conseils ...
merci
Marsh Posté le 27-01-2007 à 12:27:57
Quelle distrib ? Personnellement je ne m'embête pas avec les modules, la gestion du RAID 5 est chez moi compilée dans le noyau.
Marsh Posté le 27-01-2007 à 15:24:11
je travaille sous debian en generale uniquement avec www.kernel.org
je vais essayer un kernel officiel debian dans la semaine ...
en faite il semble apres analyse des traces qu il a un pb au boot pour charger un module en 2.6.19 ... .
Marsh Posté le 22-01-2007 à 20:24:05
j ai un pb de redemarrage de mon raid 5 avec 4 disques apres un arret brutale ..
mdadm --assemble /dev/md0 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: superblock on /dev/sdc1 doesn't match others - assembly aborted
sdc et sdd ont un uid different de sda et sdb
mdadm --examine /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 00.90.00
UUID : 189bd492:b44c19c4:5bc32464:37034fe1
Creation Time : Mon Jan 1 14:03:18 2007
Raid Level : raid5
Device Size : 488383936 (465.76 GiB 500.11 GB)
Array Size : 1465151808 (1397.28 GiB 1500.32 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0
Update Time : Thu Jan 18 20:05:54 2007
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : b13fa492 - correct
Events : 0.52
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 0 8 1 0 active sync /dev/sda1
0 0 8 1 0 active sync /dev/sda1
1 1 8 17 1 active sync /dev/sdb1
2 2 8 33 2 active sync /dev/sdc1
3 3 8 49 3 active sync /dev/sdd1
mdadm --examine /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 00.90.00
UUID : 189bd492:b44c19c4:5bc32464:37034fe1
Creation Time : Mon Jan 1 14:03:18 2007
Raid Level : raid5
Device Size : 488383936 (465.76 GiB 500.11 GB)
Array Size : 1465151808 (1397.28 GiB 1500.32 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0
Update Time : Thu Jan 18 20:05:54 2007
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : b13fa4a4 - correct
Events : 0.52
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 1 8 17 1 active sync /dev/sdb1
0 0 8 1 0 active sync /dev/sda1
1 1 8 17 1 active sync /dev/sdb1
2 2 8 33 2 active sync /dev/sdc1
3 3 8 49 3 active sync /dev/sdd1
mdadm --examine /dev/sdc1
/dev/sdc1:
Magic : a92b4efc
Version : 00.90.00
UUID : 189bd492:b44c19c4:cc409ef3:5afe03cc
Creation Time : Mon Jan 1 14:03:18 2007
Raid Level : raid5
Device Size : 488383936 (465.76 GiB 500.11 GB)
Array Size : 1465151808 (1397.28 GiB 1500.32 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0
Update Time : Thu Jan 18 20:05:54 2007
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 45b7d331 - correct
Events : 0.52
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 2 8 33 2 active sync /dev/sdc1
0 0 8 1 0 active sync /dev/sda1
1 1 8 17 1 active sync /dev/sdb1
2 2 8 33 2 active sync /dev/sdc1
3 3 8 49 3 active sync /dev/sdd1
mdadm --examine /dev/sdd1
/dev/sdd1:
Magic : a92b4efc
Version : 00.90.00
UUID : 189bd492:b44c19c4:cc409ef3:5afe03cc
Creation Time : Mon Jan 1 14:03:18 2007
Raid Level : raid5
Device Size : 488383936 (465.76 GiB 500.11 GB)
Array Size : 1465151808 (1397.28 GiB 1500.32 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0
Update Time : Thu Jan 18 20:05:54 2007
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 45b7d343 - correct
Events : 0.52
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 3 8 49 3 active sync /dev/sdd1
0 0 8 1 0 active sync /dev/sda1
1 1 8 17 1 active sync /dev/sdb1
2 2 8 33 2 active sync /dev/sdc1
3 3 8 49 3 active sync /dev/sdd1
j ai essayer de redemarrer au boot avec l option start_durty_upgraded=1
cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 hdc1[0]
29294400 blocks [2/1] [U_]
md1 : active raid1 hda5[0] hdc5[1]
128343168 blocks [2/2] [UU]
unused devices: <none>
merci