Portál AbcLinuxu, 30. dubna 2025 13:07
tak to je celkem vysoka, vzhledem k tomu ze vetsina motorkaru ma 45+
SSD? A Btrfs jen v single modu? Pravděpodobnost že přijdeš o dataCo je na kombinaci btrfs + ssd spatneho? Mate nejake konkretni poznatky?
Vypadá to tedy, že mi Btrfs právě zachránil zadek, protože mne upozornil na poškozená data, která by běžný filesystém přešel bez jakéhokoliv varování!Není nad tím v dmesg taky hláška, že disk vrátil vadný blok, tedy by se to odchytlo i bez btrfs? Já mám mismatche na serveru s ECC, asi tak jeden za 100 TB a půl roku, a vůbec nechápu, jak se to může stát. Disky přece používají samoopravné kódy a SATA komunikace po kabelu je taky chráněna CRC. Škoda, že btrfs ani MD nepíšou třeba obsah toho bloku nebo nějak víc informací (byl to bitflip? je celý blok nulový?) a protože je to RAID, tak ho to hned opraví z druhé kopie a nejde to diagnostikovat.
Vypadá to tedy, že mi Btrfs právě zachránil zadek, protože mne upozornil na poškozená data, která by běžný filesystém přešel bez jakéhokoliv varování!Není nad tím v dmesg taky hláška, že disk vrátil vadný blok, tedy by se to odchytlo i bez btrfs?
Právě že není, ve výpisu dmesg není nic, co by naznačovalo, že by se čtením z toho disku bylo cokoliv v nepořádku. (Minimálně tedy nyní, co tam případně bylo při tom prvotním zápisu dat už teď bohužel nezjistím.) Chytá to až Btrfs na úrovni kontroly kontrolního součtu dat.
Možná ale nebude od věci nechat na tom stroji řádně proběhnout memtest.
Hlavně tím, jak do sebe cpe hromadu věcí, co IMO mají být v LVM/DM.Některé vlastnosti by při rozdělení na jednotlivé vrstvy nešly dosáhnout (nebo ne tak elegantně). On totiž btrfs není "mechanické" sloučení raid, partition managera, jak se to často chybně vykládá, btrfs na vrstvy nelze rozdělit. Vše vychází z jednoduchého konceptu cow, nad kterým lze poměrně elegantně kouzlit. Samozřejmě, projekty LVM / MD tady budou stále dál, nezmizí (už jen proto, že exportují blokové zařízení).
To je takový problém dodělat ty checksumy do ext4?Je. ext4 i xfs mají checksumy metadat.
btrfs na vrstvy nelze rozdělitVšechno jde, jenom děti se musí nosit... Teda když se chce - a už jsem to psal, tady se nechtělo, protože by to znamenalo míň slávy a víc spolupráce s někým jiným.
Jenže data + checksum v jednom bloku neřeší všechno, co dokáže pokrýt Btrfs/ZFS s checksumy ukládanými odděleně od hlídaných dat. Jak zjistíme, že jsme přečetli sice nepoškozená data, ale ze špatného místa disku, tzn. něco jiného, než se mělo přečíst? Co se stane, pokud nějaký zápis na disk omylem a bez povšimnutí neprojde? Pak později přečteme z úložiště blok ze správného místa, checksum dat v něm bude i sedět, ale budou to nějaká jiná data, tj. původní obsah toho bloku, který jen omylem nebyl přepsán novými daty.
Jak zjistíme, že jsme přečetli sice nepoškozená data, ale ze špatného místa disku, tzn. něco jiného, než se mělo přečíst?Aha, tak už chápu, proč je tam 4 bajty checksum a 4 bajty číslo sektoru.
Co se stane, pokud nějaký zápis na disk omylem a bez povšimnutí neprojde?Jo, to se nechytí.
Leda byste měl pro každý takový archív uloženy někde bokem opravné ecc kódy, o čemž silně pochybuji že máte.
par2 c archv.7z
Pane, že jste svým způsobem blázen už nějaký čas víme, ale že to jde až daleko, to jsem netušil.1-5 má pravdu V 6) bych nesouhlasil, podle mě se většina práce koncentruje právě na ext a btrfs, tak jako kdyby jiné FS neexistovaly. V 7) bych doporučil nemít jen kontrolní součty, ale rovnou samoopravné kódy. Například pomocí programu par2. 8) Kup si víc nespolehlivých. Osobně mě štve, že SLC karty a SSDčka nestojí méně než 3x víc než TLC (jak by se řeklo logicky), ale 10x víc.
V 6) bych nesouhlasil, podle mě se většina práce koncentruje právě na ext a btrfs, tak jako kdyby jiné FS neexistovaly.
Docela se máklo na xfs a RedHat to má jako default (RHEL 7).
To je lesk a bída současných počítačů. 4) Architektura operačních systémů je také snaha „poručit větru dešti“ s tím, že se ignorují fyzikální zákony. Monolitický operační systém, který má kernel obsahující řádově 10 miliónů řádků zdrojového kódu, a který musí pro dobrý chod být bez chyby – fyzikální zákony naprosto vylučují to, že by zde chyba nebyla, přesněji, že by v kernelu nebyly obrovské mraky chyb. (To platí pro Linux i Windows.)Ha, kdyby jen fyzikální, to by ještě šlo řešit redundancí a vzájemnou kontrolou. Problém je v tom, že u netriviálních programů teoreticky vůbec nejde zjistit, jestli chyby obsahují nebo ne, viz problém zastavení. Sice je možné pokusit se o formální verifikaci, kdy se koreknost programu posuzuje pomocofí matematických metod, jenže bohužel je to zatraceně náročné (z toho důvodu se to dělá jen u věcí, kde se to opravdu vyplatí), zadruhé i samotná matematika má své limity, viz Gödelovy věty o neúplnosti (osobně si myslím, že existuje hluboké spojení těchto vět a výše zmíněného problému zastavení, možná dokonce i problému P versus NP).
Poslední procesory jsou vyrobeny tak nízkými nanometryA proč zrovna 45nm? Proč ne stovky mikrometrů jako pro družice? Odkud se vzalo zrovna 45?
MB a RAM paměti se pro běžné desktopy vyrábějí bez ECC – to by se lidé divili, kdyby ECC bylo!!! To by bylo smutku!!!Zkušenosti s něco přes 1TB RAM a 8 let běhu (jistě, velikost paměti postupně rostla) hovoří něco jiného. Opravitelné chyby ECC jsou velmi vzácné (na prstech jedné ruky do roka). Neopravitelnou jsem neviděl ani jednu. To už je častější, že odejde celý modul. Když jsem doma viděl detekovanou ECC v L3 CPU, tak to byl svátek. Zatím jen jednou (a to se v té paměti motá víc dat vyšší rychlostí, než v systémové ram).
Architektura operačních systémů je také snaha „poručit větru dešti“ s tím, že se ignorují fyzikální zákony.Jasně. Jinak chtěl bych vidět někoho, kdo reálně využívá celé jádro. To, že je to monolit nic neznamená, jelikož nikdo nemá zavedené všechny moduly a ani omylem nepoužívá vše, co jádro v celku nabízí. Jednotlivé běhy budou využívat jen zlomek z celkového kódu (a to navíc ještě tu nejpoužívanější a nejotestovanější část).
Lidi na úložných médiích zajímá jedinéTo se možná týká disků pro spotřebu, ale ne pro DC.
ty se pořádně odladilyCo to konkrétně znamená pořádně odladit fs? Všechny používané fs jsou po implementační stránce odladěné. Další a zásadnější problém je s požadavkem na jeden fs. Žádný FS nemůže z principu vyhovovat všem situacím, všem pracovním zátěžím. Některé požadavky jdou přímo proti sobě. Jde to vidět i na NTFS, na nějaký průměrný případ průměrného desktopu je připraven dobře. To jo. Ale všude jinde je to katastrofa, stejně jako by to byla katastrofa pro kterýkoliv jiný fs mimo jeho sweet point. Toto je důvod, proč mít víc fs. Aby bylo z čeho vybírat pro danou konkrétní situaci.
Zálohu jsem vyřešil tak, že zálohuji komprimované balíčky ZIP/RAR/7Z, které samy o sobě obsahují kontrolní součty.Gratulujeme. Pořád používají CRC32 na celý soubor? Úžasné. V BTRFS je to na každý 4kiB blok. Zatím CRC32, místo je až na 256b a prostor pro jiné funkce. Bokem mám navíc i sha512 sumy celých souborů (to jsem původně začal používat už dřív pro detekci silent data corruption na disku, za hromadu let ani jeden problém).
Problém je, že spolehlivá záložní média nejsou.Jsou. Otázkou je, nakolik se vyplatí do nich investovat (= jak drahá data potřebujeme zálohovat).
A proč zrovna 45nm? Proč ne stovky mikrometrů jako pro družice? Odkud se vzalo zrovna 45?Protože stovky mikrometrů mělo naposledy originální Pentium a 22 let staré procesory už se blbě shání a provozují?
Jde to vidět i na NTFSUž se vlastně Windows naučily dělat ekvivalent MD RAIDu, LVM a snapshotů?
Už se vlastně Windows naučily dělat ekvivalent MD RAIDu, LVM a snapshotů?Minimálně u snapshotů je situace snad i lepší než na linuxu. VSS (Volume Shadow Copy) je k dispozici od Win XP / Server 2003. Jsou to snapshoty na úrovni FS se všemi výhodami s tím spojenými. Tj. něco, co v linuxu "máme" až s Btrfs. LVM snaphoty se tomu fakt neblíží. Snapshoty mají i GUI integraci (předchozí verze souborů), což navíc nativně funguje i přes síť (k tomu lze tedy donutit i Sambu nad ZFS nebo Btrfs). Kromě toho ACL systém na NTFS je rozhodně mocnější než POSIX ACLs, u kterých už jsem sám na limity několikrát narazil. Situace se srovnatelnými nfsv4 ACL je v linuxu hodně smutná... MD RAIDu a LVM odpovídají tzv. dynamické disky (Dynamic Disks and Volumes, https://technet.microsoft.com/en-us/library/cc737048(v=ws.10).aspx) - k dispozici od Win 2000. Dříve tam byla nějaká omezení při provozu v clusteru nad SAN, a bylo třeba používat místo toho např. Veritas Volume Manager, aktuální stav už moc neznám.
Protože stovky mikrometrů mělo naposledy originální Pentium a 22 let staré procesory už se blbě shání a provozují?Neplést si mikro a nano
Protože stovky mikrometrů mělo naposledy originální Pentium a 22 let staré procesory už se blbě shání a provozují?Neplést si mikro a nano. Plácl jsem schválně stovky mikrometrů a upřímně ani nevím, jestli někdy byl cpu takhle velkou planární metodou vyroben (asi ne).
A jo, to jsem si nevšim. Stovky mikrometrů asi fakt ne. Si mě splet tím Pentiem, prototože to IIRC bylo tak na 800 - 500 nm (hmm, wikipedia říká že 0.8 µm až 0.25 µm u nějakých pozdních mobilních verzí, mainstream skončil na 350nm, kde začalo Pentium II).
U Intelu 8080 byla "minimum feature size" 6 µm, u 4004 10 µm. Takže asi tak. Ono taky co je stovka mikrometrů, že jo? To by se toho na wafer moc nevešlo.
Jinak, on má někdo skutečný problém s velikostí dnešních tranzistorů v cpu? Jak se to projevuje?Myslím že nemá a nijak :) Řeší to samozřejmě výrobci čipů, protože musí víc bojovat s úniky proudu a je to těžší vyrobit, ale nám plebsu to může být jedno, i když možná někdo má iluze vlastní důležitosti a říká si, že on přece potřebuje něco lepšího.
Si mě splet tím PentiemPentium plácl Jenda, já nic, já muzikant
Myslím že nemá a nijak :) Řeší to samozřejmě výrobci čipů, protože musí víc bojovat s úniky proudu a je to těžší vyrobit, ale nám plebsu to může být jedno, i když možná někdo má iluze vlastní důležitosti a říká si, že on přece potřebuje něco lepšího.Asi tak.
Různé radioaktivní či nabité částice, které se vyskytují úplně všudeKristalova koule patrne emituje mnozstvi osklivych castic. Doporucuji poridit dostatecne silnou olovenou krabicku, do ktere budete kouli pred zapnutim pocitace vkladat. Timto resenim se dostanete klidne na 14 nm.
Pekny clanek a zjisteni.
FYI, WD heliove disky nevyrabi, vsechna slava jde na vrub nedavno plne spolknute HGST. A stejne tak Seagate pred casem pohltil diskovou divizi Samsungu, takze honit se za znackou nema v dnesni dobe moc smysl. Jen je potreba si davat bacha
Jsem neustále ve skluzu ve čtení RSS, takže jsem k tomu došel proklikem až dnes ráno v šalině – tak HGST už má i heliem plněné 10 TB, ale ty už navíc používají taky SMR. :-/
Tak Seagate už se taky uchýlil i k použití helia.
Stručný závěr: Btrfs ještě chce nějaký vývoj, ale už teď vážně zvažte jeho použitíUž teď? Po 6 letech vývoje?
Už teď? Po 6 letech vývoje?Já používám btrfs pátým rokem. Nevím, proč by mělo být k smíchu, že někdo něco doporučuje po 6 letech vývoje, přičemž:No, sice se tomu směju, ale ono je to reálně spíš smutné, btrfs by mělo být vlajkovou lodí, ale moc to tak zatím nevypadá.
imho není nad XFSFS z roku 1993, na linux portovaný 2001. Tedy 22 od narození, 14 let od portace. Pořád ještě je těch 6 let k smíchu?
Cool fíčury jako checksums, snapshoty, subvolumes atd. sice vypadají lákavě, ale pokud FS nemá robustnost, tak nemá nic. V tomhle ohledu imho není nad XFS, spolehlivější a odolnější FS neznám.
Pokud chce člověk pod Linuxem stabilní otestovaný filesystém, má Ext*/XFS. Jenže to nyní přestává stačit, takže bez těch cool features by Btrfs neměl smysl (nabízel by jen větší nestabilitu bez jakékoliv přidané hodnoty oproti uvedeným filesystémům). Smysl nového filesystému je právě v tom, že bude umět nové kousky. Že odladění a prověření časem a reálným provozem trvá dlouho, to je realita současného vývoje software, která u souborových systémů platí dvojnásob (i když by se mi také líbilo, pokud by stabilizace a vývoj Btrfs šel rychleji).
Kdybych jó chtěl tyhle pokročilý featury, tak bych spíš koukl po ZFS.
Jenže Btrfs má pod Linuxem docela výraznou výhodu ve standardní integraci – je to GPL kód v jádře. ZFS z licenčních důvodů takto pěkně fungovat nemůže, navíc do Linuxu „nezapadá“ – pokud vím, tak se ZFS není dobře integrovatelný s VFS, ZFS svazek se pod Linuxem nedá připojit klasicky přes mount, ale musí se používat jedna ze ZFS obslužných utilit (pokud si toto myslím špatně, prosím o opravu, nejsem si tím 100% jistý). A nakonec Btrfs má oproti ZFS i některé návrhové výhody (bohužel se mi nedaří dohledat, kde jsem četl takový pěkný seznam funkcí, které Btrfs má a ZFS ne a popis toho, jak ZFS designově vychází ze správy dat v paměti, což vede k některým nevýhodám, např. problémů při odebírání zařízení, které se jednou začalo používat apod. ).
To ale samozřejmě nic nemění na tom, že ZFS je v reálném světě výrazně odladěnější a otestovanější, takže bych se ZFS pod Linuxem asi neměl větší problém ani pro opravdové produkční nasazení (i když...), kdežto u Btrfs bych se toho zatím stále bál, jak jsem nakonec zdůvodnil v původním zápisku.
ZFS není dobře integrovatelný s VFS
Tady má BTRFS taky škraloup:
Pokud přečtete velký soubor, tak při druhém čtení už je celý v iocache (pokud se tam vleze) a je to maximálně rychlé.
Jenže, pokud uděláte snapshot dané subvolume a čtete stejný soubor na tom snapshotu, tak se opět čte z disku, i když to jsou stejné bloky. Takže tentýž soubor skončí v iocache podruhé.
Opakovné čtení souboru na subvolume test ("zdrojové"):
dd if=test/file of=/dev/null bs=1M 4474+1 records in 4474+1 records out 4692282082 bytes (4.7 GB) copied, 0.737969 s, 6.4 GB/s
Po snapshotu (subvolume test na subvolume test1) :
btrfs sub snap test test1 Create a snapshot of 'test' in './test1'
První čtení z této test1 subvolume ("cílové"):
dd if=test1/file of=/dev/null bs=1M 4474+1 records in 4474+1 records out 4692282082 bytes (4.7 GB) copied, 10.1259 s, 463 MB/s
Další čtení:
dd if=test1/file of=/dev/null bs=1M 4474+1 records in 4474+1 records out 4692282082 bytes (4.7 GB) copied, 0.73834 s, 6.4 GB/s
Toto není problém při běžném použití, ale pokud se čte napříč snapshoty, které vznikly z jedné subvolume (a tedy obsahují většinou shodná data a odkazy na stejné bloky), tak se zbytečně čtou tytéž bloky stále dokola.
A nakonec Btrfs má oproti ZFS i některé návrhové výhody (bohužel se mi nedaří dohledat, kde jsem četl takový pěkný seznam funkcí, které Btrfs má a ZFS ne a popis toho, jak ZFS designově vychází ze správy dat v paměti, což vede k některým nevýhodám, např. problémů při odebírání zařízení, které se jednou začalo používat apod.).
Dneska jsem na to náhodou asi znovu narazil. Myslím, že jsem měl na mysli toto: A short history of btrfs [LWN.net]
Kdybych jó chtěl tyhle pokročilý featury, tak bych spíš koukl po ZFS.U ZFS mě štvalo, že nejdou do zpoolu dávat různě velká zařízení, ani vlastně nejde dynamicky zmenšovat (nevím jestli jde vůbec zvětšovat).
Co se mi hodně líbí je dir quota, to nic jinýho nemá.Ale má - Btrfs.
A nějak konkretizovat by to šlo? Tj. kterých z těch mnoha bugů se máme nyní konkrétně bát?
Tiskni
Sdílej:
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.