Portál AbcLinuxu, 10. května 2025 05:44

Dotaz: Obnova raid5 po disk failu

26.2.2012 12:42 krishna
Obnova raid5 po disk failu
Přečteno: 564×
Odpovědět | Admin

Zdravím, Včera jsem zjistil, že mi raid jede v degradovaném režimu. Tohle už se mi předtím párkrát stalo, protože jeden z (pěti) disků mého RAID 5 pole se občas (1 za měsíc) odpojil. Na to obyčejně pomohl restart a disk se zase připojil. Nicméně to se teď nestalo, ani raid se nespustil v degradovaném režimu. Zkusil jsem ho znovu sestavit přes

mdadm --create /dev/md1 --level=5 --raid-devices=5 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 missing

 

Někde jsem se dočetl, že tímhle způsobem bych neměl přijít o data, nicméně:

 

~ # cat /proc/mdstat

Personalities : [raid1] [raid6] [raid5] [raid4] md10 : active (auto-read-only) raid5 sda1[3] sdb1[2] sdc1[1] sdd1[0] 1953529856 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/4] [UUUU_] ~ # mount /dev/md10 /mnt/RAID5-DATA/ mount: you must specify the filesystem type

 

~ # mount /dev/md10 /mnt/RAID5-DATA/ -t ext3

mount: wrong fs type, bad option, bad superblock on /dev/md10, missing codepage or helper program, or other error In some cases useful info is found in syslog - try dmesg | tail or so

 

~ # fsck.ext3 /dev/md10

e2fsck 1.41.12 (17-May-2010) fsck.ext3: Superblock invalid, trying backup blocks... fsck.ext3: Bad magic number in super-block while trying to open /dev/md10 The superblock could not be read or does not describe a correct ext2 filesystem. If the device is valid and it really contains an ext2 filesystem (and not swap or ufs or something else), then the superblock is corrupt, and you might try running e2fsck with an alternate superblock: e2fsck -b 8193

 

 

~ # mke2fs -n /dev/md10

mke2fs 1.41.12 (17-May-2010)

Filesystem label=

OS type: Linux

Block size=4096 (log=2)

Fragment size=4096 (log=2)

Stride=128 blocks,

Stripe width=512 blocks

122101760 inodes, 488382464 blocks

24419123 blocks (5.00%) reserved for the super user

First data block=0

Maximum filesystem blocks=0

14905 block groups

32768 blocks per group, 32768 fragments per group

8192 inodes per group

Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 102400000, 214990848

 

 

~ # dumpe2fs /dev/md10 |grep -i superblock dumpe2fs 1.41.12 (17-May-2010) dumpe2fs: Bad magic number in super-block while trying to open /dev/md10 Couldn't find valid filesystem superblock

 

 

Poradíte co s tím? Děkuji

Nástroje: Začni sledovat (0) ?Zašle upozornění na váš email při vložení nového komentáře.

Odpovědi

26.2.2012 12:53 ewew | skóre: 40 | blog: ewewov_blog
Rozbalit Rozbalit vše Re: Obnova raid5 po disk failu
Odpovědět | | Sbalit | Link | Blokovat | Admin
Aký tam máš systém ? Ak debian tak sa pozri do tejto man stránky . Ak si dal vytvoriť nový RAID tak asi si data zrušil.
Root v linuxe : "Root povedal, linux vykona."
26.2.2012 13:09 krishna
Rozbalit Rozbalit vše Re: Obnova raid5 po disk failu
Debian Squeeze

Nemyslim si, protože když jsem vytvářel RAID pole poprvé, tak to trvalo asi 12 hodin, teď se vytvořilo okamžitě.
26.2.2012 18:19 trubicoid2
Rozbalit Rozbalit vše Re: Obnova raid5 po disk failu
jo, data tam jeste budou, pouze superbloky vzaly za svy

jeste doplnim, jak radim "a pak vytvoris novy pole presne takovy..." tak tim myslim jen vytvorit degradovany pole na tech 4 diskach

26.2.2012 18:17 trubicoid2
Rozbalit Rozbalit vše Re: Obnova raid5 po disk failu
Odpovědět | | Sbalit | Link | Blokovat | Admin
jako skladat pole znova kvuli tomu, ze jeden disk vypadnul a pole je degradovany je blbost. ale jelikoz si vytvoril novy pole degradovany jen ze 4 disku (to nevim proc), tak se nic neprepsalo, prepsaly by se ty parity, jen kdybys sestavil z 5 disku

podle me se novy pole sestavilo trochu jiny, nez bylo to puvodni, proto na nem nevidis FS, mozna chunk je jinej? ted je default 512k, ale driv urcite bylo min, ja pamatuju 64k

takze jestli jsi jeste nic nedelal s patym diskem, tak se podivej, jaky pole je na nem, nebo v /etc/mdadm/mdadm.conf

a pak vytvoris novy pole presne takovy, jako stary pole, zalezi na poradi disku, velikosti chunk a verzi superblocku

proste tim novym vytvorenim pole si znicil superblock na 4 diskach a na tom 5. snad zustal spravnej, i kdyz se mi zda, ze mdadm superblocky pozna a rika, ze bys nemel novy pole delat

nicmene pro priste se vypadly disk pridava prostym mdadm /dev/md0 --re-add /dev/sdf1, pripadne je pred tim nutny ho oznacit za --fail nebo udelat --remove, nekdy ne, proste podle toho...

AraxoN avatar 26.2.2012 21:13 AraxoN | skóre: 47 | blog: slon_v_porcelane | Košice
Rozbalit Rozbalit vše Re: Obnova raid5 po disk failu
Odpovědět | | Sbalit | Link | Blokovat | Admin
mdadm --create /dev/md1 --level=5 --raid-devices=5 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 missing
Mal si použiť assemble, nie create:

mdadm --assemble ...
27.2.2012 17:25 Milan Roubal | skóre: 25
Rozbalit Rozbalit vše Re: Obnova raid5 po disk failu
Odpovědět | | Sbalit | Link | Blokovat | Admin
podivej se do logu systemu, kdy se naposledy korektne nastartovalo to pole, z jakyma parametrama bylo vytvorene. Pouziti --create misto --assemble vytvori to pole zcela znovu. To vadi v pripade, kdy se parametry lisi. Ja jsem mel naposledy problem v tom, ze puvodni pole bylo bez parametru super, tedy superblok byl ve verzi 0.9 a nove vytvorene pole pak melo verzi 1.2 a tedy prepsalo prvni 2 MB na disku. Kdyz jsem to pole vytvoril znovu s korektnima parametrama vcetne korektni verze superbloku, tak jsem byl schopen fileystem a data zachranit pres fsck.

Založit nové vláknoNahoru

Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.