Les disques changent de nom !!! [resolu] [RAID Soft - SATA et SCSI] - réseaux et sécurité - Linux et OS Alternatifs
Marsh Posté le 09-09-2005 à 17:40:53
J'ai edite le titre, le probleme est le meme en SCSI puisque ca viens du systeme de nommage dans /dev.
Les disques sont nommes /dev/sda /dev/sdb /dev/sdc /dev/sdd... en fonction de leur ID sur la chaine SCSI ou SATA, mais quand un disque est retire (panne disque entrainant un crash et un reboot par exemple) le nom des disques est modifie et ca fout la merde dans le RAID Soft.
Comment est on est sense gerer ca?
Marsh Posté le 09-09-2005 à 19:17:48
Passe à udev pour bien gérer tes disques, il doit y a voir des sujets sur le forum sur udev
Marsh Posté le 09-09-2005 à 21:25:05
initiators a écrit : J'ai edite le titre, le probleme est le meme en SCSI puisque ca viens du systeme de nommage dans /dev. |
pas a udev et établit des regles dans le fichiers rules de udev. Tu peux identifier tes disques avec pas mal de chose (identité dans la chaine, nom, fabricant, numéro de série, etc...) et tu lui assignes un node fixe, plutot que de lui laisser le choix.
C est la seule solution, y a pleins de tutos sur le net pour ca.
Marsh Posté le 09-09-2005 à 21:57:40
montre nous ton /etc/fstab /etc/lilo.conf
tu utilise bien mdadm pour gérer le raid?
Marsh Posté le 10-09-2005 à 19:03:42
Je ne sais pas mais je n'ai jamais eu de problème avec.
D'autre part devfs va être prochainement abandonné au profit de udev sur la distribution Archlinux, donc c'est que cela doit être assez stable, bien que cette distribution ne soit pas destinée à la prod.
Marsh Posté le 10-09-2005 à 19:52:49
Ben je ne connais pas bcp de distro récente, basée sur du 2.6, qui n utilisent pas udev. Redhat incluse.
Marsh Posté le 10-09-2005 à 22:47:49
le 2.6 est fait pour fonctionner avec udev. et ça dès les version de développement 2.5. Si vous faites le choix de ne pas utiliser udev, il faut l'assumer.
Marsh Posté le 10-09-2005 à 23:30:31
A vrai dire j ai pas tres bien compris la question.
Meme si le choix est laissé de pouvoir utiliser devfs en 2.6, j en vois pas trop l interet.
Marsh Posté le 11-09-2005 à 03:22:31
J ai jamais essayé ca, j ai toujours monté proc quelque part, meme pendant une install chrootée de gentoo.
Ca sert a quoi de demonter /proc?
Marsh Posté le 28-09-2005 à 20:52:54
C'est OK avec udev.
C'est quand meme un peu bizarre parce qu'un cat /proc/mdstat m'affiche toutes les partitions comme des /dev/sd?? alors que je les ai appele /dev/disk? grace a udev, mais ca marche.
Marsh Posté le 28-09-2005 à 21:07:17
initiators a écrit : C'est OK avec udev. |
Il faut faire attention a la syntaxe avec udev, il est tres tatillon dessus.
Et attention à l ordre de tes regles aussi, udev c est first match: des qu il en a une qui correspond, quoi que tu dises apres il n en tiendra pas compte.
Marsh Posté le 29-09-2005 à 00:35:07
En fait c'est pas /dev/sd?? mais /dev/.static/dev/sd?? (ou un truc du genre).
Mes regles udev sont OK, mes /disk? et /disk?part? sont bien la. Mais md m'affiche toujours /dev/.static/dev/sda2 alors que j'ai mis /dev/disk1part2 dans le fichier de config.
Marsh Posté le 29-09-2005 à 00:59:52
Donne moi tes regles. T es passé par du Symlink?
Marsh Posté le 29-09-2005 à 10:38:57
vi /etc/udev/rules.d/001_raid.rules
Code :
|
ls /dev/sd*
Code :
|
ls /dev/disk*
Code :
|
vi /etc/fstab
Code :
|
vi /etc/mdadm/mdadm.conf
Code :
|
cat /proc/mdstat
Code :
|
mdadm --detail /dev/md1
Code :
|
Marsh Posté le 29-09-2005 à 19:11:11
Ok
T utilisais devfs avant? Parce que udev garde les anciennes arborescences dans /dev/.static dans ce genre de cas.
Me demande pas pourquoi par contre, je sais pas.
Tu as quoi d autres dans le répertoire udev/rules?
Marsh Posté le 09-09-2005 à 15:53:54
Je suis en train de tester le RAID Soft SATA sur des serveurs que je suis en train d'installer, et j'ai des gros problemes.
C'est des Dell Power Edge 800. J'ai donc un controleur 4 ports SATA integre a la carte mere, avec 4 x 250 Go SATA. A l'install je fait trois partitions par disque 1 Go, 1 Go, et 248 Go. J'ai donc 4 x 1 Go SWAP, 3 x 1 Go RAID1 (1 Go utile, et la partition de 1 Go du 4eme disque en spare) pour /boot, et 3 x 248 Go RAID5 (496 Go utiles, et la partition de 248 Go du 4eme disque en spare) pour /.
Une fois Sarge installe je vois bien mes /dev/sda /dev/sdb /dev/sdc /dev/sdd et /dev/md0 /dev/md1, 3 disques actifs pour le RAID et un en spare, tous est OK.
J'arrete mon serveur je debranche /dev/sdb, je redemarre. Et la gros probleme, les disques restant sont reconnu comme /dev/sda /dev/sdb /dev/sdc et le process de boot s'arrete avec un kernel panic.
Message édité par initiators le 28-09-2005 à 20:49:38