[RAID Soft - SATA et SCSI] Les disques changent de nom !!! [resolu]

Les disques changent de nom !!! [resolu] [RAID Soft - SATA et SCSI] - réseaux et sécurité - Linux et OS Alternatifs

Marsh Posté le 09-09-2005 à 15:53:54    

Je suis en train de tester le RAID Soft SATA sur des serveurs que je suis en train d'installer, et j'ai des gros problemes.
 
C'est des Dell Power Edge 800. J'ai donc un controleur 4 ports SATA integre a la carte mere, avec 4 x 250 Go SATA. A l'install je fait trois partitions par disque 1 Go, 1 Go, et 248 Go. J'ai donc 4 x 1 Go SWAP, 3 x 1 Go RAID1 (1 Go utile, et la partition de 1 Go du 4eme disque en spare) pour /boot, et 3 x 248 Go RAID5 (496 Go utiles, et la partition de 248 Go du 4eme disque en spare) pour /.
 
Une fois Sarge installe je vois bien mes /dev/sda /dev/sdb /dev/sdc /dev/sdd et /dev/md0 /dev/md1, 3 disques actifs pour le RAID et un en spare, tous est OK.
J'arrete mon serveur je debranche /dev/sdb, je redemarre. Et la gros probleme, les disques restant sont reconnu comme /dev/sda /dev/sdb /dev/sdc et le process de boot s'arrete avec un kernel panic.


Message édité par initiators le 28-09-2005 à 20:49:38
Reply

Marsh Posté le 09-09-2005 à 15:53:54   

Reply

Marsh Posté le 09-09-2005 à 17:40:53    

J'ai edite le titre, le probleme est le meme en SCSI puisque ca viens du systeme de nommage dans /dev.
 
Les disques sont nommes /dev/sda /dev/sdb /dev/sdc /dev/sdd... en fonction de leur ID sur la chaine SCSI ou SATA,  mais quand un disque est retire (panne disque entrainant un crash et un reboot par exemple) le nom des disques est modifie et ca fout la merde dans le RAID Soft.
 
Comment est on est sense gerer ca?

Reply

Marsh Posté le 09-09-2005 à 19:17:48    

Passe à udev pour bien gérer tes disques, il doit y a voir des sujets sur le forum sur udev :)

Reply

Marsh Posté le 09-09-2005 à 21:25:05    

initiators a écrit :

J'ai edite le titre, le probleme est le meme en SCSI puisque ca viens du systeme de nommage dans /dev.
 
Les disques sont nommes /dev/sda /dev/sdb /dev/sdc /dev/sdd... en fonction de leur ID sur la chaine SCSI ou SATA,  mais quand un disque est retire (panne disque entrainant un crash et un reboot par exemple) le nom des disques est modifie et ca fout la merde dans le RAID Soft.
 
Comment est on est sense gerer ca?


 
pas a udev et établit des regles dans le fichiers rules de udev. Tu peux identifier tes disques avec pas mal de chose (identité dans la chaine, nom, fabricant, numéro de série, etc...) et tu lui assignes un node fixe, plutot que de lui laisser le choix.
 
C est la seule solution, y a pleins de tutos sur le net pour ca.

Reply

Marsh Posté le 09-09-2005 à 21:57:40    

montre nous ton /etc/fstab /etc/lilo.conf
 
tu utilise bien mdadm pour gérer le raid?

Reply

Marsh Posté le 09-09-2005 à 21:57:56    

cat /proc/mdstat

Reply

Marsh Posté le 10-09-2005 à 18:18:08    

C'est assez stable pour etre installe en prod udev ?

Reply

Marsh Posté le 10-09-2005 à 19:03:42    

Je ne sais pas mais je n'ai jamais eu de problème avec.
 
D'autre part devfs va être prochainement abandonné au profit de udev sur la distribution Archlinux, donc c'est que cela doit être assez stable, bien que cette distribution ne soit pas destinée à la prod.

Reply

Marsh Posté le 10-09-2005 à 19:52:49    

Ben je ne connais pas bcp de distro récente, basée sur du 2.6, qui n utilisent pas udev. Redhat incluse.

Reply

Marsh Posté le 10-09-2005 à 22:47:49    

le 2.6 est fait pour fonctionner avec udev. et ça dès les version de développement 2.5. Si vous faites le choix de ne pas utiliser udev, il faut l'assumer.

Reply

Marsh Posté le 10-09-2005 à 22:47:49   

Reply

Marsh Posté le 10-09-2005 à 23:30:31    

A vrai dire j ai pas tres bien compris la question.
 
Meme si le choix est laissé de pouvoir utiliser devfs en 2.6, j en vois pas trop l interet.

Reply

Marsh Posté le 10-09-2005 à 23:40:57    

bah tu peux aussi démonter /proc :)

Reply

Marsh Posté le 11-09-2005 à 03:22:31    

J ai jamais essayé ca, j ai toujours monté proc quelque part, meme pendant une install chrootée de gentoo.
 
Ca sert a quoi de demonter /proc?

Reply

Marsh Posté le 28-09-2005 à 20:52:54    

C'est OK avec udev.
 
C'est quand meme un peu bizarre parce qu'un cat /proc/mdstat m'affiche toutes les partitions comme des /dev/sd?? alors que je les ai appele /dev/disk? grace a udev, mais ca marche.

Reply

Marsh Posté le 28-09-2005 à 21:07:17    

initiators a écrit :

C'est OK avec udev.
 
C'est quand meme un peu bizarre parce qu'un cat /proc/mdstat m'affiche toutes les partitions comme des /dev/sd?? alors que je les ai appele /dev/disk? grace a udev, mais ca marche.


 
Il faut faire attention a la syntaxe avec udev, il est tres tatillon dessus.
 
Et attention à l ordre de tes regles aussi, udev c est first match: des qu il en a une qui correspond, quoi que tu dises apres il n en tiendra pas compte.

Reply

Marsh Posté le 29-09-2005 à 00:35:07    

En fait c'est pas /dev/sd?? mais /dev/.static/dev/sd?? (ou un truc du genre).
 
Mes regles udev sont OK, mes /disk? et /disk?part? sont bien la. Mais md m'affiche toujours /dev/.static/dev/sda2 alors que j'ai mis /dev/disk1part2 dans le fichier de config.

Reply

Marsh Posté le 29-09-2005 à 00:59:52    

Donne moi tes regles. T es passé par du Symlink?


Message édité par Gf4x3443 le 29-09-2005 à 00:59:59
Reply

Marsh Posté le 29-09-2005 à 10:38:57    

vi /etc/udev/rules.d/001_raid.rules
 

Code :
  1. # Nommage fixe des disques pour le RAID
  2. BUS="scsi", ID="0:0:0:0", KERNEL="sd?",  NAME="disk1"
  3. BUS="scsi", ID="0:0:1:0", KERNEL="sd?",  NAME="disk2"
  4. BUS="scsi", ID="1:0:0:0", KERNEL="sd?",  NAME="disk3"
  5. BUS="scsi", ID="1:0:1:0", KERNEL="sd?",  NAME="disk4"
  6. # Nommage fixe des partitions pour le RAID
  7. BUS="scsi", ID="0:0:0:0", KERNEL="sd[a-z][1-9]",  NAME="disk1part%n"
  8. BUS="scsi", ID="0:0:1:0", KERNEL="sd[a-z][1-9]",  NAME="disk2part%n"
  9. BUS="scsi", ID="1:0:0:0", KERNEL="sd[a-z][1-9]",  NAME="disk3part%n"
  10. BUS="scsi", ID="1:0:1:0", KERNEL="sd[a-z][1-9]",  NAME="disk4part%n"


 
 
ls /dev/sd*
 

Code :
  1. ls: /dev/sd*: Aucun fichier ou répertoire de ce type


 
 
ls /dev/disk*
 

Code :
  1. /dev/disk1       /dev/disk2       /dev/disk3       /dev/disk4
  2. /dev/disk1part1  /dev/disk2part1  /dev/disk3part1  /dev/disk4part1
  3. /dev/disk1part2  /dev/disk2part2  /dev/disk3part2  /dev/disk4part2
  4. /dev/disk1part3  /dev/disk2part3  /dev/disk3part3  /dev/disk4part3


 
 
vi /etc/fstab
 

Code :
  1. # /etc/fstab: static file system information.
  2. #
  3. # <file system> <mount point>   <type>  <options>       <dump>  <pass>
  4. proc            /proc           proc    defaults        0       0
  5. /dev/md1        /               ext3    defaults,errors=remount-ro 0       1
  6. /dev/md0        /boot           ext3    defaults        0       2
  7. /dev/disk1part1 none            swap    sw              0       0
  8. /dev/disk2part1 none            swap    sw              0       0
  9. /dev/disk3part1 none            swap    sw              0       0
  10. /dev/disk4part1 none            swap    sw              0       0
  11. /dev/hda        /media/cdrom0   iso9660 ro,user,noauto  0       0
  12. /dev/fd0        /media/floppy0  auto    rw,user,noauto  0       0


 
 
vi /etc/mdadm/mdadm.conf
 

Code :
  1. DEVICE /dev/disk?part?
  2. ARRAY /dev/md1 level=raid5 num-devices=4 UUID=1b32d770:14ab0a2c:af208525:cf494d6d
  3.    devices=/dev/disk1part3,/dev/disk2part3,/dev/disk3part3,/dev/disk4part3
  4. ARRAY /dev/md0 level=raid1 num-devices=4 UUID=306eaffc:e1da87d6:95aa4777:7ee4e4dc
  5.    devices=/dev/disk1part2,/dev/disk2part2,/dev/disk3part2,/dev/disk4part2


 
 
cat /proc/mdstat
 

Code :
  1. Personalities : [raid0] [raid1] [raid5]
  2. md0 : active raid1 sda2[0] sdd2[3] sdc2[2] sdb2[1]
  3.       979840 blocks [4/4] [UUUU]
  4. md1 : active raid5 sda3[0] sdd3[3] sdc3[2] sdb3[1]
  5.       723792192 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
  6. unused devices: <none>


 
 
mdadm --detail /dev/md1
 

Code :
  1. /dev/md1:
  2.         Version : 00.90.01
  3.   Creation Time : Fri Sep  9 11:56:07 2005
  4.      Raid Level : raid5
  5.      Array Size : 723792192 (690.26 GiB 741.16 GB)
  6.     Device Size : 241264064 (230.09 GiB 247.05 GB)
  7.    Raid Devices : 4
  8.   Total Devices : 4
  9. Preferred Minor : 1
  10.     Persistence : Superblock is persistent
  11.     Update Time : Thu Sep 29 10:35:19 2005
  12.           State : clean
  13. Active Devices : 4
  14. Working Devices : 4
  15. Failed Devices : 0
  16.   Spare Devices : 0
  17.          Layout : left-symmetric
  18.      Chunk Size : 64K
  19.            UUID : 1b32d770:14ab0a2c:af208525:cf494d6d
  20.          Events : 0.961797
  21.     Number   Major   Minor   RaidDevice State
  22.        0       8        3        0      active sync   /dev/.static/dev/sda3
  23.        1       8       19        1      active sync   /dev/.static/dev/sdb3
  24.        2       8       35        2      active sync   /dev/.static/dev/sdc3
  25.        3       8       51        3      active sync   /dev/.static/dev/sdd3


Reply

Marsh Posté le 29-09-2005 à 19:11:11    

Ok
 
T utilisais devfs avant? Parce que udev garde les anciennes arborescences dans /dev/.static dans ce genre de cas.
 
Me demande pas pourquoi par contre, je sais pas.
 
Tu as quoi d autres dans le répertoire udev/rules?

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed