info mdadm[résolu] - Logiciels - Linux et OS Alternatifs
Marsh Posté le 04-11-2010 à 13:00:51
le raid est de nouveau reconstruit et je vous donne les infos de contrôl :
un cat /proc/mdstat me renvoi :
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md_d0 : active raid5 sdb1[1] sdd1[2] sdc1[0]
976767872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
un mdadm --detail /dev/md_d0 me renvoi :
/dev/md_d0:
Version : 00.90
Creation Time : Wed Nov 3 10:29:35 2010
Raid Level : raid5
Array Size : 976767872 (931.52 GiB 1000.21 GB)
Used Dev Size : 488383936 (465.76 GiB 500.11 GB)
Raid Devices : 3
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Nov 4 15:50:22 2010
State : active
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : 060b1184:0d7223e9:9bbf105d:0a373554 (local to host fog-bjp)
Events : 0.236
Number Major Minor RaidDevice State
0 8 33 0 active sync /dev/sdc1
1 8 17 1 active sync /dev/sdb1
2 8 49 2 active sync /dev/sdd1
un fdisk -l me renvoi :
Disk /dev/sda: 80.0 GB, 80026361856 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000ddd4a
Device Boot Start End Blocks Id System
/dev/sda1 * 1 9328 74920960 83 Linux
/dev/sda2 9328 9730 3227649 5 Extended
/dev/sda5 9328 9730 3227648 82 Linux swap / Solaris
Disk /dev/sdb: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000d5061
Device Boot Start End Blocks Id System
/dev/sdb1 1 60801 488384001 fd Linux raid autodetect
Disk /dev/sdc: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00023422
Device Boot Start End Blocks Id System
/dev/sdc1 1 60801 488384001 fd Linux raid autodetect
Disk /dev/sdd: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00094a3d
Device Boot Start End Blocks Id System
/dev/sdd1 1 60801 488384001 fd Linux raid autodetect
Disk /dev/md_d0: 1000.2 GB, 1000210300928 bytes
2 heads, 4 sectors/track, 244191968 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 131072 bytes
Disk identifier: 0x950b84c7
Device Boot Start End Blocks Id System
aprés un mdadm --detail --scan --verbose >> /etc/mdadm/mdadm.conf le contenu du fichier de config est le suivant :
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
# This file was auto-generated on Wed, 03 Nov 2010 10:27:29 +0400
# by mkconf $Id$
#ARRAY /dev/md/d0 level=raid5 num-devices=3 metadata=0.90 UUID=060b1184:0d7223e9:9bbf105d:0a373554
#devices=/dev/sdd1
ARRAY /dev/md/d0 level=raid5 num-devices=3 metadata=0.90 UUID=060b1184:0d7223e9:9bbf105d:0a373554
devices=/dev/sdc1,/dev/sdb1,/dev/sdd1
Aprés le montage du raid dans un repertoire, je peux ecrire desus et en faisant un df j'ai le retour suivant :
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/sda1 73744616 950920 69047648 2% /
none 2054516 252 2054264 1% /dev
none 2060232 0 2060232 0% /dev/shm
none 2060232 44 2060188 1% /var/run
none 2060232 0 2060232 0% /var/lock
/dev/md_d0 961439944 204568 912396984 1% /images
Avec tout ces tests je pense que le raid est bien construit, mais la je crains que quand je vais relancer la machine je me retrouve avec le même problème(le raid qui n'est plus activer.
Voila si vous avez des infos ou d'autres contrôl avant de relancer la machine
Marsh Posté le 04-11-2010 à 13:30:01
bon je viens de re-demarrer la machine et la c ok, je pense que le problème venais du fichier /etc/mdadm/mdadm.conf
Marsh Posté le 04-11-2010 à 11:55:17
Bonjour,
Je suis en train de configurer une machine a base d'ubuntu server 10.10. Je voudrais monter un raid 5 avec 3 disque dur de 500Go. J'ai donc installer mdadm, fais la config du raid et pas de soussi, le raid est bien créer, je peux le formater et le monter dans un repertoire. Le problème se pose quand je rédemarre la machine, le raid n'est plus reconnu et impossible de le monter. Je me demander si le problème ne venait pas de mon fichier mdadm.conf qui contient les lignes suivantes :
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
# This file was auto-generated on Wed, 03 Nov 2010 10:27:29 +0400
# by mkconf $Id$
ARRAY /dev/md/d0 level=raid5 num-devices=3 metadata=0.90 UUID=060b1184:0d7223e9:9bbf105d:0a373554
devices=/dev/sdd1
Je vais essayer de le re-créer automatiquement avec la ligne de commande suivante et voir ce que cela donne(sa va faire 4 fois que je ré-fais le raid avec le même résultat au reboot plus de raid) : mdadm --detail --scan --verbose >> /etc/mdadm/mdadm.conf
Si vous avez des infos merci d'avance
Message édité par dcharles le 04-11-2010 à 13:30:31