Portál AbcLinuxu, 2. května 2025 08:43
Pro KVM to, ale zatím není.. (intenzivně testováno)I v blokovém módu (nebo jaxe tomu nadává, kdy to jede nad LVM místo nad systémem souborů) a s nativním backendem v qemu?
MD: Gigabyte F2A85XM-D3H (8 x SATA 6Gb/s portov, 4 USB 3.0 porty) - 67 eur CPU: AMD A4-5300, 3.40 GHz - 44 eur RAM: 2x2 GB za 25 eur HDD: 3x2TB - 264 eur + skrinka a zdroj lubovolny.dobre startovacie parametre, primerany vykon, rozsiritelnost a spotreba do 30 W v idle vsetko cakom-prask aj s diskami.
Já mám pole RAID6 ze čtyř 2TB
Když už jsi ochotný jít na 50% kapacity disků, tak bych šel raději do RAID10 s tím, že mohou umřít až dva disky (každý z jednoho zrcadla). Kapacita bude stejná a jako odměna mnohem vyšší rychlost.
Podle mého názoru a zkušeností nemá příliš smysl u NAS řešit možnost výpadků dvou disků současně, ale mnohem rozumnější využít ty disky (které by jinak tvořili redundanci) na offline zálohu těch dat, protože největší procento vytažení zálohy není ani tak v selhání HW, ale k vůli chybě administrátora.
Já mám doma políčko z pěti 1T disků v Raid5 + všechna data na zálohách na externích diskách. Jednou, dvakrát do roka v tom poli chcípne jeden disku, ale to se vymění (dá to se vyměnit v podstatě do druhého dne). Jednou se stalo, že odešly dva různé disky 14 dnů po sobě. I kdyby to pole chcíplo (v případě, že bych nestihl vyměnit disk), tak mám zálohy.
Ehm. Zásadní rozdíl je v tom, že u RAID 6 ti mohou chcípnout kterékoliv dva disky. Kdežto u RAID10 sázíš na to, že ti pojde z každé půlky pouze jeden. Pokud se trefí oba na tu jednu půlku, tak prostě ostrouháš.
To je samozřejmě pravda, ovšem otázkou je, jak často se stane, že odejdou dva disky současně (v časovém rozmezí 1 den) a jak je náročné ta data vytáhnout ze zálohy. Pořád mi vychází, že je lépe ty disky věnovat na beztak nutnou zálohu, než na redundanci.
Momentálně jsem zvědav, jak dopadne raid6 v rámci Btrfs.
Já též. Za pár měsíců chtě nechtě budu muset nakoupit 4x3TB disky a pokud bych tam mohl dát BTRFS R5, byl bych moc rád. Aktuálně je to ext4 nad md, a moc mi tam chybí snapshoty.
Opravdu mi hlava nebere jak formátování jednoho zařízení může rozbít jiné, na které se mohl maximálně zapisovat log.Poté, co jsem viděl bug ve virtio-blk a v kernelu, kdy virtuálka (kvm) přepisovala bloky VG, které vůbec nepatřily , bych si opravdu nebyl jistej, že za to může zrovna ext.
V KVM mám všechny stroje bezdiskovéTakže si připojují FS samy zevnit přes NFS/iSCSI/...?
Robustnější řešení (co je mi známo) nikdo nemá.V takhle malém asi ne, ale u větších nasazení RHEVu je něco podobného standardem, a u kritických se to replikuje do dalšího datacentra, kde čekají stroje na příležitost zasáhnout...
Tuhle jsem to propočítal - za stávajícího stavu to může běžet cca 4 roky, aniž by došlo místo.Tak to mi připadá jako vlastnost tenkých obrazů (thin provisioning) obecně, bez ohledu na implementaci. Dnes tomu ubližuje to, že ne všechny články řetězce FS ve VM --> úložiště umí zahazovat nepoužívané bloky (TRIM, SAME_WRITE, ...), tudíž se obrazy neustále zvětšují a velká část snapshotů se tak na disk zapisuje zbytečně.
Tiskni
Sdílej:
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.