Portál AbcLinuxu, 7. listopadu 2025 22:22
A jako filesystem ext3fs - co jineho?
Je to standard
Právě řeším podobný problém. Provedl jsem pár měření pomocí bonnie++ na stařičkém HW řádiči IBM ServeRAID a nějakých 3 stařičkých discích 4,5G. To vše na stařičkém IBM PC Server 330 na SCSI. Vyšlo mi, že RAID 5 má na mém řádiči dost chudé parametry.
K tomu výsledku testu: e3def je ext3fs přimountovaný bez -o parametrů, rfs je reiserfs, sr0 znamená RAID0, sr5 RAID5.
Nějaké informace lze nalézt na wikipedii.
Tak nevím, pro co se rozhodnout. Ani pro jaký fs. Za poslední 3 dny jsem o tom přečetl spousty článků a diskuzí a k rozhodnosti to vůbec nepřispělo.
Ještě jsem chtěl říct, že by to sloužilo jako neoficiální univerzální kolejní server, tedy nějaké nároky na nepřetržitý chod nejsou. Asi tam hodím RAID 5 s nějakým FS, když by to nestačilo kapacitně nebo rychlostně, tak to předělám na RAID 0.
Kdyby se někdo chtěl zbavit HD pro SCSI SE, nějaké, co by se mi hodili tak bych si je vzal. Ale nesmí to bejt drahý. Momentálně tam jsou IBM DDRS-34560 E182115 HG. A Nevím, kde a jestli se dají sehnad hotswap rámečky pro tento stroj. Ale teď už jsem hodně offtopic tak sorry. Kontaktujte mě třeba na ICQ 110926226, nebo na mailu spamplease(cuchan)centrum.cz
Ještě by mě zajímalo, jak nastavit stride u ext3 a proč. podle manuálu:
stride=stripe-size
Configure the filesystem for a RAID array
with stripe-size filesystem blocks per
stripe.
Ale vůbec nevím, jak to přeložit.
Pole má parametry:
RAID level : 5
Size (in MB) : 8606
Write cache status : Write through (WT)
Number of chunks : 3
Stripe-unit size : 8 KB
Array A stripe order (Channel/SCSI ID)
: 1,0 1,1 1,2
Bavíme se o HW RAID, ále znova jsem hledal a našel:
[root@bigboy tmp]# cat /proc/mdstat
Personalities : [raid5]
read_ahead 1024 sectors
md0 : active raid5 hdg1[2] hde1[1] hdf2[0]
4120448 blocks level 5, 32k chunk, algorithm 3 [3/3] [UUU]
unused devices: <none>
[root@bigboy tmp]#
Your new RAID device now has to be formatted. The next example uses the -j qualifier to ensure that a journaling filesystem is created. Here a block size of 4KB (4096 bytes) is used with each chunk, which is comprised of 8 blocks. It is very important that the chunk-size parameter in the /etc/raidtab file match the value of the block size multiplied by the stride value in the command below. If the values don't match, you will get parity errors:
[root@bigboy tmp]# mke2fs -j -b 4096 -R stride=8 /dev/md0
mke2fs 1.32 (09-Nov-2002)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
516096 inodes, 1030160 blocks
51508 blocks (5.00%) reserved for the super user
First data block=0
32 block groups
32768 blocks per group, 32768 fragments per group
16128 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736
Writing inode tables: done
Creating journal (8192 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 26 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
[root@bigboy tmp]#
Takže já bych měl nastavit asi stride=2, když budu mít block=4kB a stripe-unit size = 8kB. Jo?. Jde mi o to, že jsem četl, že v určitém případě by mohl být zatížen pouze jeden HD při práci (myslím) s inody. U xfs se nastavuje něco podobného taky, ale používají se tam dva paremetry su,sw, nebo sunit,swidth myslím, u reiserfs jsem nic takového nenašel, znamená to, že tím nemůže trpět, nebo není pro RAID vhodný?
...get parity errors...
Zatím jsem žádné nedostal. Je to vlastnost jen SW RAID, nebo jsem měl štěstí na správnou konfiguraci?
Tiskni
Sdílej:
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.