Fedora se stala oficiální distribucí WSL (Windows Subsystem for Linux).
Společnost IBM představila server IBM LinuxONE Emperor 5 poháněný procesorem IBM Telum II.
Byla vydána verze 4.0 multiplatformního integrovaného vývojového prostředí (IDE) pro rychlý vývoj aplikaci (RAD) ve Free Pascalu Lazarus (Wikipedie). Přehled novinek v poznámkách k vydání. Využíván je Free Pascal Compiler (FPC) 3.2.2.
Podpora Windows 10 končí 14. října 2025. Připravovaná kampaň Konec desítek (End of 10) může uživatelům pomoci s přechodem na Linux.
Již tuto středu proběhne 50. Virtuální Bastlírna, tedy dle římského číslování L. Bude L značit velikost, tedy více diskutujících než obvykle, či délku, neboť díky svátku lze diskutovat dlouho do noci? Bude i příští Virtuální Bastlírna virtuální nebo reálná? Nejen to se dozvíte, když dorazíte na diskuzní večer o elektronice, softwaru, ale technice obecně, který si můžete představit jako virtuální posezení u piva spojené s učenou
… více »Český statistický úřad rozšiřuje Statistický geoportál o Datový portál GIS s otevřenými geografickými daty. Ten umožňuje stahování datových sad podle potřeb uživatelů i jejich prohlížení v mapě a přináší nové možnosti v oblasti analýzy a využití statistických dat.
Kevin Lin zkouší využívat chytré brýle Mentra při hraní na piano. Vytváří aplikaci AugmentedChords, pomocí které si do brýlí posílá notový zápis (YouTube). Uvnitř brýlí běží AugmentOS (GitHub), tj. open source operační systém pro chytré brýle.
Jarní konference EurOpen.cz 2025 proběhne 26. až 28. května v Brandýse nad Labem. Věnována je programovacím jazykům, vývoji softwaru a programovacím technikám.
Na čem aktuálně pracují vývojáři GNOME a KDE Plasma? Pravidelný přehled novinek v Týden v GNOME a Týden v KDE Plasma.
Red Hat oznámil vydání Red Hat Enterprise Linux 7. Nová verze aktualizuje software, přidává nové technologie a celou řadu vylepšení. Podrobné informace jsou k dispozici v poznámkách k vydání. Ve stejný den tvůrci CentOS, distribuce založené na RHEL, zpřístupnili gitový repozitář obsahující zdrojové kódy příští verze distribuce a skripty umožňující rekompilaci balíčků, jejich modifikaci a vývoj.
Tiskni
Sdílej:
Na Summitu rikali, ze btrfs jeste neveri natolik, aby si to dovolili supportovat.to by mě docela zajímala původní formulace, neb se mi nezdá, že bychom se takto veřejně přiznali, že to žere data
GNOME mne nepali, zajimalo me naposledy tak kolem verze 1.0, ale nastesti tam je porad KDEno ... sice tam KDE je, ale stylem "můžete si sice u auta nechat vyměnit kola, ale když si tam dáte jiné, tak ty původní vám přivaříme na střechu, a rezervu si musíte nechat původní"
Na AIXu se uz pouziva JFS2. Linuxovy port JFS ale vznikl portaci zdrojaku z OS/2 a ta je ted uplne mrtva.
Zajímalo by mne, odkud se tohle tvrzení (že Linux používá JFS1 a AIX novější JFS2), pořád bere, když i ten nejjednodušší dotaz do Googlu nebo na Wikipedii vede na stránky se správnou informací. Je to téměř přesně naopak, původní JFS byl v podstatě neportovatelný a fungoval jen na AIX. Linuxový port vznikl právě na základě nové verze JFS2, která se sice poprvé objevila v OS/2 Warp, ale pak ji převzal i AIX (a používá ji dodnes).
ext4 proste uz nestiha s dobou (nie je stavane na vela TB storage).
btrfs by v produkcnom stave dnes uz mozno aj bol (on je vlastne aj podporovany, len nie default), ale na default chybaju ludia (a podla mna ani ako default file system nema az tak moc zmysel).
The Btrfs (B-Tree) file system is supported as a Technology Preview in Red Hat Enterprise Linux 7.
Ja by som v tom nehladal ziadne konspiracne teorie. Proste nemaju vyvojarov, co by to podporovali. Povodne mali Josefa Bacika, ale ten odisiel. Mali este jedneho btrfs vyvojara (na meno si uz nespomeniem), ale ten pokial viem tiez odisiel, takze na podporu btrfs neostal nik. Tipujem, ze plna podpora pre btrfs pride priblizne v dobe, ked sa im podari zohnat nejakeho vyvojara btrfs (resp. aspon dvoch).
Pri XFS je situacia uplne ina -- je tu Dave Chinner a Eric Sandeen, Christoph Hellwig je contractor a este su tu dvaja zacinajuci XFS vyvojari (Carlos Maiolino a Brian Foster).
Tak som si na druhe meno spomenul, je to Zach Brown a on v RH ostal. Kazdopadne sam na plnu podporu zrejme nestaci.
Ale nejdriv by si s nim musela poradne poradit Anaconda :))).Ach jo ....
Pokud tam jsou stale mozne problemy s bezpecnosti dat, jak naznacuje Kavolkavol naznačuje? - kavol na to má bugreport (hm, když už o tom mluvíme, měl bych přetestovat 1044456) a v souvislosti s tím potkal další problémy (ach ano, opět systemd)
1093909 -- na 99.9 % nejde o bug; to, ze fuser ani lsof nic neukazuju znamena len, ze mount nie je blokovany kvoli userspace aplikacii. Mount moze byt stale blokovany v kerneli -- submount, dm, md, loop device, ...
1044456, 1052207 -- afaik btrfs nema (na rozdiel od XFS) godown utilitu, takze dana oblast (cca power failure) nie je a z principu ani nemoze byt poriadne otestovana.
1093909 -- na 99.9 % nejde o bug; to, ze fuser ani lsof nic neukazuju znamena len, ze mount nie je blokovany kvoli userspace aplikacii. Mount moze byt stale blokovany v kerneli -- submount, dm, md, loop device, ...ovšem ten bug není o tom, co ukazuje nebo neukazuje fuser/lsof, ale o tom, že to nejde umountnout, a tedy nejde nad tím pustit fsck
1044456, 1052207 -- afaik btrfs nema (na rozdiel od XFS) godown utilitu, takze dana oblast (cca power failure) nie je a z principu ani nemoze byt poriadne otestovana.jen upřesním, že u 1052207 nešlo o power failure bo to bylo na notebooku, ten je jaksi z principu sám sobě upskou co chtěl básník říci tvrzením "z principu nemůže být řádně otestovaná" nevím, podle mého to jenom potvrzuje, že btrfs fakt není připraven na reálné nasazení (ať "produkční" nebo BFU)
ovšem ten bug není o tom, co ukazuje nebo neukazuje fuser/lsof, ale o tom, že to nejde umountnout, a tedy nejde nad tím pustit fsck
To, ze je mount blokovany podmountom, dm, md, loopou alebo niecim podobnym nie je bug -- nemozem odpojit file system ak z neho pouzivaju data ine moduly v kernel space. To o fuser/lsof bolo len vysvetlenie preco nemusia nic ukazovat a aj tak nejde o bug.
Bug by to bol len v pripade, ze by umount nebol blokovany nicim inym v kernel space -- blokoval by umount priamo btrfs modul sam o sebe.
jen upřesním, že u 1052207 nešlo o power failure bo to bylo na notebooku, ten je jaksi z principu sám sobě upskou
Disconnect a reconnect disku je cca to iste ako power failure.
co chtěl básník říci tvrzením "z principu nemůže být řádně otestovaná" nevím, podle mého to jenom potvrzuje, že btrfs fakt není připraven na reálné nasazení (ať "produkční" nebo BFU)
Ze pokial viem chyba tool, aby sa mohli poriadne otestovat power failure scenare. FS, ktore ten tool nemaju budu na problemy s power failure doplacat este dlho po tom, co vzniknu. XFS bol v podobnej situacii par rokov dozadu (velke problemy s power failure), tak kvoli lepsej testovatelnosti vyvojari vyvinuli tool, ktory simuluje power failure za behu systemu (nie, vyberanim snury zo zastrcky sa to fakt poriadne otestovat neda).
A ano, tym vravim, ze btrfs ma slabiny v danej oblasti. Druha vec je, ze vdaka vstavanym snapshotom power failure bugy pri btrfs nie su az tak zhave.
A ano, tym vravim, ze btrfs ma slabiny v danej oblasti. Druha vec je, ze vdaka vstavanym snapshotom power failure bugy pri btrfs nie su az tak zhave.To mohu potvrdit, neboť s tím mám osobní zkušenost - pravidelně se mi rozbíjelo pole kvůli vadné zástrčce na SATA kabelu. Stačilo jemně pohnout kabelem, a disk byl z pole fuč. Pořád jsem rebuildoval pole a že to trvá než dá SW RAID6 4TB dohromady. Pak jsem na to přišel a raději změnil zapojení. Přesto jsem o data z Btrfs nad tímto polem nikdy nepřišel. Bohužel jinak to dopadlo když mi chcípnul jeden z disků pole, nad kterým byl ext4. Záznam o souborech sice zůstal zachován, ale data z některých byla fuč. Naštěstí zde byla druhá polovina DRBD, takže zmizela jen data co se nestihla odreplikovat než to kleklo.
To, ze je mount blokovany podmountom, dm, md, loopou alebo niecim podobnym nie je bug -- nemozem odpojit file system ak z neho pouzivaju data ine moduly v kernel space. To o fuser/lsof bolo len vysvetlenie preco nemusia nic ukazovat a aj tak nejde o bug. Bug by to bol len v pripade, ze by umount nebol blokovany nicim inym v kernel space -- blokoval by umount priamo btrfs modul sam o sebe.to já nevím, čím konkrétně je to blokované, ale z uživatelského hlediska to bug je, že se to nedokáže uvolnit (pozn. netvrdím, že to je bug v umountu - jestli je to používané, je v pořádku, že se to odmítne odpojit, pak je ale problém, že je to používané, i když to nemá být používané)
ehm, za prvé, to (dis-/reconnect) je ale bug 1044456, nikoli bug 1052207 za druhé, dovolil bych si nesouhlasit, resp. tedy to "cca" je hodně velké - u power failure jde vše do kytek, u reconnectu může mít kernel vše co nezapsal stále v pamětijen upřesním, že u 1052207 nešlo o power failure bo to bylo na notebooku, ten je jaksi z principu sám sobě upskouDisconnect a reconnect disku je cca to iste ako power failure.
(nie, vyberanim snury zo zastrcky sa to fakt poriadne otestovat neda).tak naokraj, přesně tohlento jsme ale v minulém zaměstnání dělali
Druha vec je, ze vdaka vstavanym snapshotom power failure bugy pri btrfs nie su az tak zhave.s touto bagatelizací bych si dovolil nesouhlasit - ani v jednom z uvedených případů jsem ten systém už nerozjel a data z něj nevydoloval (no, to není tak úplně přesné, v druhém případě se z toho dalo nabootovat a vše číst, problém nastával až po nějakém množství zápisů, přičemž tento se neustále po každém rebootu snižoval; ale úplně se to rozpadlo teprve právě po pokusu použít btrfsck)
to já nevím, čím konkrétně je to blokované, ale z uživatelského hlediska to bug je, že se to nedokáže uvolnit (pozn. netvrdím, že to je bug v umountu - jestli je to používané, je v pořádku, že se to odmítne odpojit, pak je ale problém, že je to používané, i když to nemá být používané)
Len to je chyba uzivatela (pripadne zvysku systemu), ze to nevie. Kernel modul fs nemoze odpojit particiu, z ktorej sa cita. A citat z nej mozu kludne ine kernel moduly, ktorym to bolo povedane z user-space ci uz priamo uzivatelom alebo nejakym init scriptom. Pre zaciatok by som aspon pustil umount -R, ktory to odpoji rekurzivne (ak nepojde ani to, tak to stale nemusi znamenat, ze to je chyba niekde v systeme, este to moze blokovat kadeco ine inicializovane z user space).
ehm, za prvé, to (dis-/reconnect) je ale bug 1044456, nikoli bug 1052207
za druhé, dovolil bych si nesouhlasit, resp. tedy to "cca" je hodně velké - u power failure jde vše do kytek, u reconnectu může mít kernel vše co nezapsal stále v paměti
Ono myli, ze 1052207 je klonom 1044456.
Je pravda, ze nedavno sa pri usb a reconnecte zacali fs spravat trocha inak a dokazu pokracovat. Nestudoval som este ako to docielili, ale moj skromny tip je, ze v tom ma prsty systemd (udev cast), ktore dovoli za urcitych okolnosti znovunapojit zariadenie a pri zapisoch v dobe, ked bol disk odpojeny sa potom len vyhodi I/O error. V tom pripade je to zrejme skor podobne I/O errorom a uprimne netusim ako je na tom btrfs v tej oblasti (netestoval som). Implementacie vsetkych FS byvaju v tychto pripadoch celkom zabugovane (pri XFS sa na tom aspon robilo, neviem ako najnovsie upstream jadra, ale v RHEL 7 su tam stale nejake zname problemy -- aj ked nie korupcia, len pad systemu).
V starsich jadrach je to to iste, co power failure (tam sa robil shutdown, k reinicializacii nedochadzalo -- ani nemohlo, udev po reconnecte hodil nove zariadenie).
s touto bagatelizací bych si dovolil nesouhlasit - ani v jednom z uvedených případů jsem ten systém už nerozjel a data z něj nevydoloval
Tak, samozrejme treba tie snapshoty aj pravidelne robit. Pre produkcnu sferu (lahke) snapshoty ako zabezpecenie celkom stacia (samozrejme, nie vsade). Pre bezneho uzivatela je to uz horsie.
A ano, tym vravim, ze btrfs ma slabiny v danej oblasti. Druha vec je, ze vdaka vstavanym snapshotom power failure bugy pri btrfs nie su az tak zhave.Pro zurnalovany filesystem ma takovy tool velky smysl, protoze je obtizne naskladat operace do zurnalu tak, aby pri preruseni v libovolnem okamziku bylo vzdy mozne po obnove (replay) dosahnout nejakeho konzistentniho stavu. I s velkym usilim mohou zustavat chyby, na ktere se prichazi zridka a tezko se zjistuje, jak se to do toho stavu mohlo dostat. Je mozne formalne popsat zurnal a paralelni operace na nem provadene a pak testovat tento model. Viz Using model checking to find serious file system errors "[...] We applied it to four widely-used, heavily-tested file systems: ext3, JFS, ReiserFS and XFS. We found serious bugs in all of them, 33 in total. [...]". Stale je ale potreba testovat implementaci, model muze pomoci odhalit zasadni chyby v navrhu nebo prilisnou konzervativnost, ktera muze vest k neefektivite (zmineno tez v tom paperu). Pridavat pak novou featuru (napriklad checksumovani metadat) je docela peklo, vsechna cest xfs vyvojarum. Btrfs ma jiny model konzistence, takze simulovat a testovat preruseni ma smysl jen mezi zapisy superblocku. Coz je by default 30 vterin (periodicky transaction commit), jinak se muze dit casteji. Posledni zasadni (znama) chyba, ktera mohla zpusobit to, ze na disk byly zapsany bloky z ruznych transakcnich epoch, ackoli mely nalezet k jedne, byla opravena v kernelu 3.2. Navic bylo potreba mit vice disku, u jednoho se neprojevovala, plus nejake podminky na mergovani bloku v blocklayeru. Pro ucely overovani vzajemnych odkazu bloku ma btrfs 'integrity-checker', coz je infrastruktura, ktera hlida provazanost bloku a otestuje pri commitu, jestli je vsechno, jak ma byt. Checker vznikl v dobe, kdy se resila zminena chyba a pozdeji nasel jeste jednu chybu (take tezko dosazitelny corner case). Poznamka bokem: COW model v btrfs znacne usnadnuje pridavani novych featur vseho druhu, implementace se soustredi na konzistentni upravy struktur v pameti a vubec se neresi zadne slozitosti s potencialnimi pady a polovicatymi zapisy do zurnalu a replayem. (Ale take to neni uplne zadarmo.) Z tohoto smeru do btrfs pritekaji featury a jeste dost dlouho budou. U xfs nebo ext4 jsme se dockali checksumu metadat nebo inlinovanych souboru a dalsi novinky prichazeji pomalu. Nerikam, ze je to spatne, pokud je hlavnim cilem takovych filesystemu maximalizace vykonu. Z odstupu ale mezi xfs a ext4 neni az takovy rozdil, takze je jasne, ze zustane jen jeden, ktery se jevi lepsi podle dlouhodobych kriterii.
btrfs fakt není připraven na reálné nasazení (ať "produkční" nebo BFU)Dnes, pred par hodinama: [GIT PULL] Btrfs for 3.16:
We also have some very hard to find corruption fixes, ....
Ja by som do toho nepchal nejak moc systemd. Cloveku staci len nejaky fs s /bin/sash a staticky skompilovanymi fs repair + mount utilitami, o zvysok sa postara root=[dev] init=/bin/sash.
Pokud prerusite SATA kabel,již jsem odpovídal ... pokud systém běží, data má kernel v cache, může zahodit co přišlo potvrzení, že se zapsalo, a zbytek pošle znova, když se kabel znova připojí pokud se tak nestane, ok, asi není správné házet to na filesystém ale spíš o vrstvu níž na driver k řadiči, ale vim já, jak je to provázaný ... pro mě je podstatný, že tato situace mi zabila systém nad btrfs, zatímco ext2/3/4 nebo reiserfs mi přežil i horší věci (pravda, jednou jsem s reiserfs čekal asi rok na spravení problému v reiserfsck taky, ale v té době bych o něm říkal asi něco podobného jako o btrfs teď, už je to fakt dost let zpátky)
vypnete tvrde napajeni bez nejake zalohyto se nestalo
ci mate vadnou RAMhm, v prvém případě běžel memtest přes víkend, v druhém "jenom" přes noc, a žádné jiné problémy nepozoruju ...
mi neprijde poskozeni FS neocekavane.to sice ne, ale nějak jsem si za ta léta zvykl, že si s tím poradí fsck při startu a neotravuje mě to, natož aby se to rozpadlo do neopravitelného stavu ...
Co by se vsak nemelo stat nikdy, je nemoznost FS opravitnaprostý souhlas, a proto se tady o btrfs(ck) vyjadřuju tak, jak se vyjadřuju ... jinak ď. za odkaz na ten pull request, myslímže je to výmluvnější nežli mé nářky nad dvěma pády na hubu
Nie, devel ma stale pravo to odmietnut.
Ked velky zakaznik povie, ze je to blocker tak to bude blocker aj keby to bola len tlacitko posunute o 1px?to si pleteš procesy zákazníci nemaj co kecat do rozhodování o tom, co je nebo není blocker (ať už pro celý release nebo pro cokoli menšího) můžou se samozřejmě dožadovat spravení bugu (tedy posunutí tlačítka o 1 px), pokud to nic nerozbije ostatním, a nebudu popírat, že důležitost zákazníka hraje roli v tom, jestli vůbec a jak rychle se opravy dočká, ale to je věc poněkud mimoběžná s tím, jestli se něco rozhodneme vydat i přes známé chyby (což se různě obchází, např. tzv. 0day erraty, tedy to co vyjde zároveň s releasem), a které věci naopak budou vydání blokovat je nutné brát v potaz, že RHEL není pár náhodně poskládaných bitů, ale složitý mechanismus, kde jednotlivé díly musí zapadat, dodávaný jako celek - tzn. když se v nějakém programu posune tlačítko o 1 px, tak to není problém jen toho programu, ale je potřeba přegenerovat, otestovat a znovu rozdistribuovat instalační média, a podobně
To su teoreticke limity, v praxi implementacia ext4 do nedavna koncila cca pri 16 TB (RHEL 6), v RHEL 7 na nom vyvojari trocha zapracovali a zvysili limity. Sucasna implementacia XFS zvlada aspon 8 EB - 1B subory a fs (16 EB - 1 B som neskusal).
Problem s ext4 je aj v tom, ze neskaluje dobre pri velkych fs (operacie su pomale).
Podporovany limit znamena, ze RH bude dany storage na danej verzii podporovat -- tj. v pripade bugov sa ich bude snazit opravovat. Nad podporovany limit nemusi (v praxi sa prizmuruju oci, obvzlast ak je clovek ochotny spolupracovat a testovat).
To su teoreticke limity, v praxi implementacia ext4 do nedavna koncila cca pri 16 TB (RHEL 6), v RHEL 7 na nom vyvojari trocha zapracovali a zvysili limity. Sucasna implementacia XFS zvlada aspon 8 EB - 1B subory a fs (16 EB - 1 B som neskusal).Tech 8EB je omezeni ve vfs, protoze typ pro offset do souboru je "signed 64 bit loff_t", a validni hodnoty jsou jen kladne 0..2^63-1. Limit na cely filesystem se da overit vyrobenim nekolika xEB souboru, ktere ten filesystem zaplni az pod strechu. Zkousel jsem to onehda s btrfs, dohromady 16EB se tam veslo a vypadalo to opravdu divne :)
Ked som sa s tym hral naposledy, tak som pouzival este loopy a ten limit 8E -1 B bol prave kvoli tomu. Teraz by som to asi robil cez dm-sparse -- snapshot nad dm-zero alebo dm-thinp (ale s tym som sa este nehral, tak neviem co vsetko zvlada), loopy su na toto strasne neefektivne.
Este som sa chcel trocha pobavit s xEB fs a RESVSPC, ale na to uz nemam moc cas (dostat ENOSPC na 8 EB fs musi vyzerat este divnejsie ).
ma uziti XFS ci Btrfs smysl ci vyhodu u +/- desktopu, oproti ext4 a jaky?
Vyssie limity dokazu vyuzit aj userspace/desktop aplikacie (namatkou mmap 2**47 B suboru a praca s danou pamatou). Pre niektorych moze byt potesujuce, ze nie je apriori 2 % limit na metadata. Tiez dokazu tie FS lepsie vyuzit viac jadier systemu.
Kazdopadne ani ext4 nie je stale mrtvy a ma svoje vyhody (aj ked prevazne historicke -- niektore aplikacie ocakavaju jeho specificke vlastnosti).
btrfs je na tom rovnako ako zfs -- obsahuje vlastne implementacie raidu, lvm a par dalsich dm veci. Samozrejme ide dat aj na cisty hw, ale to klucove v btrfs je prave to, ze to maju aj vsetko blackboxnute.
Hocijaka fuse implementacia FS sa neda moc zvazovat na realne nasadenie (skor len ako nudzovka). FS nebude nikdy v userspace (aspon kym sa nepresadia mikrojadra, kde sa user space a kernel space tak trocha prelina) dosahovat rychlost kernel space implementacie.
Ano, XFS malo problemy s power failure, ale na tom sa poslednych par rokov vyrazne pracovalo. A ano, pokial radic klame (tj. tvrdi, ze zapisal data, ked ich mal v cache, ktora nie je zalohovana baterkou), tak si s tym XFS neporadi, ale to ziadny FS. Dizajnovat FS s prihliadnutim na to, ze mi hardware moze klamat o realnom zapise mne osobne pride absurdne.
No tak to prr!!! I když některé věci mají své paralely u LVM, není to LVM. A implementace raidu je naprosto jiná. Btrfs je souborový systém, a raiduje pouze extenty které se skutečně používají, kdežto MD, nebo LVM RAID replikují kdejaké smetí na úrovni blokového zařízení, bez ohledu na to jestli jde o data užitečná, nebo ne. A to je přesně to co dělá největší režii - že se u nich replikuje a kontroluje kdejaký bordel. Pod pojmem blackbox si představuji něco, do čeho není vidět, což ale není případ Btrfs. Pokud člověk opravdu chce, tak se dostane až k do obsahu těch raw extentů. Jenže proč taky?btrfs je na tom rovnako ako zfs -- obsahuje vlastne implementacie raidu, lvm a par dalsich dm veci. Samozrejme ide dat aj na cisty hw, ale to klucove v btrfs je prave to, ze to maju aj vsetko blackboxnute.
Mě ne. Osobně mi velmi vyhovuje, že starší verzi extentu Btrfs opustí až kdy je bezpečně uložena verze nová. Na Btrfs si cením jeho robustnost a spolehlivost. Honit si brko nad tím který FS je nejrychlejší, tak z toho jsem vyrostl velice dávno a záhy. A věřte že jsem měl i velice rychlá řešení - bohužel ale byla zároveň velmi náchylná na chybu lidského faktoru.Dizajnovat FS s prihliadnutim na to, ze mi hardware moze klamat o realnom zapise mne osobne pride absurdne.
A implementace raidu je naprosto jiná. Btrfs je souborový systém, a raiduje pouze extenty které se skutečně používají, kdežto MD, nebo LVM RAID replikují kdejaké smetí na úrovni blokového zařízení, bez ohledu na to jestli jde o data užitečná, nebo ne.+1
Samozrejme, ze tie implementacie nie su totozne, ale sprostredkuju prevazne tu istu funkcionalitu (+/-). Chapem ich opodstanenie, ale aj tak sa mi to pri storage moc nepaci. Ja som pod tym blackbox bral hlavne ten aspekt zlepenosti vsetkych implementacii v nejakej krabici. Kazdopadne, to sa v ZFS neda vobec pozriet na to vnutro? Tomu mi pride tazke verit.
Ani btrfs na to nie je dizajnovany. To, ze ju opusta az vtedy je sice pekne (a celkom bezna prax pri FS), ale hw, ktory mu klame ho znici aj tak. Problem je presne v tom 'bezpecne ulozen'. Ak hw klame (nema zalohovanu cache a pri zapise do nej tvrdi, ze data su bezpecne zapisane), tak file system nevie, kedy su ktore data bezpecne ulozene. Staci pridat inteligentny zapis cachovanych dat na disk (tj. nezapisuju sa v tom poradi v ktorom prisli, ale optimalizuje sa zapis, aby sa redukovali potrebne otacky disku) a vypadok energie neprezije nic.
V tomto pripade ide podla mna jednoznacne o dizajnovu chybu hardware, XFS je v tom nevinne. V pripade aspon sekvencneho zapisu cachovanych dat su tu bariery (barriers), ktore by sa o to mali postarat.
A implementace raidu je naprosto jiná. Btrfs je souborový systém, a raiduje pouze extenty které se skutečně používají, kdežto MD, nebo LVM RAID replikují kdejaké smetí na úrovni blokového zařízení, bez ohledu na to jestli jde o data užitečná, nebo ne. A to je přesně to co dělá největší režii - že se u nich replikuje a kontroluje kdejaký bordel.
Este k tomuto. Neviem ako to je v sucasnosti, ale vdaka veciam ako discard toto v blizkej dobe nemusi byt pravda. Na urovni dm sa discard uz pouzivat (zneuzivat) zacal (aj mimo ssd, napr. dm-thin).
a raiduje pouze extenty které se skutečně používají, kdežto MD, nebo LVM RAID replikují kdejaké smetí na úrovni blokového zařízení, bez ohledu na to jestli jde o data užitečná, nebo ne
Přesnější by bylo napsat: …zatímco MD RAID replikuje pouze chunky, do kterých se něco zapsalo, a LVM RAID pouze extenty, do kterých se něco zapsalo. Nebudeme-li předpokládat, že driver filesystému jen tak z nudy zapisuje do míst, kam vlastně nic psát nepotřebuje, je sice pravda, že se toho obecně replikuje o něco víc, než by nezbytně muselo, ale ne zase o tolik. Jen na začátku bývá zvykem zduplikovat všechno, ale i to lze snadno potlačit.
a věřím tomu, že SW RAID6 je schopen ustát výpadek až dvou (ze čtyř) disků
Tady je trochu problém. Jakákoli implementace je schopna se vyrovnat jen s problémem, o kterém se dozví. Takže to všechno funguje perfektně, pokud se chyba projeví selháním zápisu nebo čtení. Bohužel ne vždy odejde disk takhle "slušně", občas se stane, že disk se po nějakou dobu tváří, že je všechno v pořádku, ale čte nebo zapisuje chybná data.
Ve vašem případě je to ještě komplikované tím DRBD, které se občas chová trochu zvláštně (na vlastní oči jsem třeba viděl neomezené čekání pod spinlockem na odpověď od druhého serveru). Hlavně bych ale hledal problém spíš v tom, proč a jakým způsobem ten stroj vlastně "umřel", protože tam může být zakopaný pes.
U Btrfs si většinu potřebných informací tahá extent sebou. Takže pravděpodobnost, že díky poškození části blokového zařízení s metadaty k datům uloženým na jiné části disku o ně přijdu, je mnohem menší.
To je samozřejmě možné, ale na druhou stranu jsou metadata komplikovanější, takže bych se jejich poškození "náhodnou střelbou" bál trochu víc - ale to je jen pocit, ne zkušenost.
Zjistil jsem že jeden z disků je vadný. Vyhodil jsem ho z raidu a zkusil pole namountovat. Vše ze zdálo ok. Předpokládal jsem, že když vypadnul pouze jeden z disků, tak by s tím nemusel mít problém. Jelikož jsem nevěděl kdy došlo k rozpadu DRBD, čekal jsem že lokálně uložená data primárního stroje budou aktuálnější, než na sekundáru. Čekal jsem že se ztratí pouze data, která se nestihla zapsat, takže jsem dal fsck a nestačil se divit. Jak to doběhlo, tak jsem zjistil, že hromada - i starších dat - zmizela.Ona ta technologie samotných SATA/SAS disků a řadičů nad tím není zázračná, a linuxový SW RAID už vůbec. Pokud vám disk resp. bloková vrstva začne vracet vadná data, tak to není situace, že když vypadnul pouze jeden z disků... Tohle je právě jeden z důvodů, proč je ZFS navržen tak jak je. Pár let zpět jsem viděl hezkou prezentaci, kde kvalifikovali právě tyhle jevy, kdy už samotný disk, nebo řadič nad ním v klidu vrací vadná data. Nemusíte to asi zjistit - keyword: silent data corruption. Pokud máte rack plný 2TB SATA disků je to dost na to, aby se tím FS zabýval, a nakonec i váš příklad ukazuje, že to má smysl vždy - protože HW na téhle úrovni chybuje, a je dobré to vědět a nemuset předpokládat, že to je OK. Na tom ZFS bylo zejména zajímavé to, že měli postavenou poměrně rozsáhlou automatickou testovací infrastrukturu, která všechny tyhle chyby a třeba výpadky napájení uměla simulovat. To se obávám, že u BTRFS jen tak nebude. Takže proto má ZFS a BTRFS checksumy dat (pro opravu se ovšem dají použít jen když má FS pod kontrolou i RAID vrstvu), proto některá storage řešení mají checksumy na úrovni blokové vrstvy, nebo provádí alespoň kontinuální "background scan" (to by šlo asi i u mdraid).
Takže proto má ZFS a BTRFS checksumy dat (pro opravu se ovšem dají použít jen když má FS pod kontrolou i RAID vrstvu), proto některá storage řešení mají checksumy na úrovni blokové vrstvy, nebo provádí alespoň kontinuální "background scan" (to by šlo asi i u mdraid).To je právě důvod, proč jsem přešel na Btrfs i na notebooku. Pokud jde o ty interní záležitosti jako je např. průběžná kontrola dat na pozadí, atp. Věřím tomu, že vývoj Btrfs postupně probíhá, takže pokud tam některé věci nejsou, je pouze otázkou času, kdy se objeví. Přijde mi to pořád lepší varianta, než používat FS který je sice taky nemá, ale z principu ani nikdy mít nebude.
ZFS je pojato jako univerzální souborový systém, který v jednom balíku nabízí to, co lze v pohodě zajistit pomoci několika samostatných nástrojů. Oproti tomu Btrfs je souborový systém a o nic jiného se nesnaží.
To myslíte vážně?
BTRFS je uplne neco jineho a neda se se ZFS srovnavat, v podstate BTRFS kopiruje akorat "shiny blink blink" featury ZFS, ale implementuje je uplne jinak...Kopiruje, protoze je zadny jiny nativni linuxovy filesystem nema a uzivatele je chteji, protoze je mozna znaji ze zfs nebo netapp, inispiraci a kopirovani nikdo nepopira. Designove je btrfs jine, pouziva "shadows and clones", zatimco zfs ma "generation pointers". Viz clanek od O. Rodeha, kde srovnava btrfs a zfs po teto strance. BTRFS: The Linux B-Tree Filesystem (free verze). Take se lisi interni struktury a diskovy format, takze nezbyva nez to implementovat uplne jinak.
Kdezto u BTRFS se zas premysli v rozmerech masin velikosti notebooku, nebo virtualniho stroje - coz je OK, ale na takove use-cases uz tu FS mame, pod linuxem ale proste chybi FS pouzitelny na velkou masinu.No, to ze je uz v navrhu podpora pro vice zarizeni, raidy atp, se s masinami velikosti notebooku moc neshoduje. ZFS ma proti btrfs vyhodu nekolika let deploymentu ve velkem, takove zkusenosti s btrfs nejsou. Je jasne, ze kdyz hledam neco na velkou masinu a chci, aby to fungovalo uz dnes, tak sahnu po tom vyzkousenem. Podpora od vendoru pribyva, casem budou bezna "hotova reseni" v podobe NASu, rozsirovani mezi prostym lidem na noteboocich je podle me primerene a prispiva k tomu, ze si na btrfs postupne zvykame.
Designove je btrfs jine, pouziva "shadows and clones", zatimco zfs ma "generation pointers". Viz clanek od O. Rodeha, kde srovnava btrfs a zfs po teto strance. BTRFS: The Linux B-Tree Filesystem (free verze).Konecne nejaky rozumny dokument. Diky.
Vyhodu ZFS vidim v ARC (chytrejsi nez linuxova LRU cache)Zrovna v souvislosti se zfsonlinux je pametova cache problem, protoze nevyuziva tu existujici, zfs si dela svoji vlastni spravu a s tim svoje nedoresene problemy (ticket je zavreny z duvodu obsahlosti, ne protoze uz by se vedelo jak to s temi cachemi udelat).
To se úplně nabízí k benchmarkování, ale nenašel jsem, že by to někdo už porovnával.+1
Ten paper, co odkazoval little.owl je z roku 2003, od té doby se lecos změnilo.Abych to upresnil, clanek je z 2009, puvodni desing paper ARC, ktery byl udelan u IBM, je skutecne z 2003, a je zde.
Rozdíl v těch algoritmech je jakým způsobem se rozhodují, kde je ta hranice a jak moc ještě zvětšovat jednu část na úkor druhé.Tedy, hodne nepresne, jak jsem to v rychlosti pochopil.
Pro naivní LRU je nejhorší případ jednorázového čtení, v kombinaci s občasným opakovaným přístupem k jiným datům, která jsou postupně vytlačena.IMHO je v linuxu stale naivni LRU. Nedavno jsem stahnul ze serveru logy (pres scp) a pote smazal a projevilo se to vyprazdnenim cache (kernel 3.2.1).
At jsem se snazil, jak chtel, nenasel jsem to tam.Slo mi o to "naivni", nehlede k tomu, ze ona to ve sve podstate ani LRU neni, jak se zminuje i v onom dokumentu, byt ma v sobe LRU prvky. Zminovana LRU-2Q je ve sve podstate dvoufrontova implementacni variace LRU-K, kde K je 2, a temporalni informace se tak pouziva. Toho ze pozice stranky v listu zavisi i na velikosti listu, nikoliv na casu posledni reference a ze listy jsou ignorovany, kdyz se provadi paging out, jsem si vsiml a spise to zvysilo moji nejistotu, jak to vlastne cele [dynamicky] funguje; ani vas [starsi] odkaz mi moc nepomohl.
, ze to muze byt az tak totalne 'bez designu' a naprasene vlivem casuJe to hodne evolucne nalipane, proto jsem nahore psal, ze ARC mi prijde srozumitelnejsi.
Jeste kdyby s vama praxe souhlasila, ze to ma linux vsechno nejlip...To jsem ale nikdy netvrdil.
Proc vubec nevzit rovnou ARC a neimplementovat ji misto page cache, jak v soucasne podobe je?ARC byl vyvinut pred deseti lety a od te doby se to opet posunulo. Existuji i jine algoritmy, treba CART - resi tam problemy ARC - treba nutnost aktualizovat listy pro kazdy page hit. Problem nebudou jen patenty, ale fakt ze Linux ma plno specifickych veci a scenaru uziti, ktere budou hrat roli - reseni virtualizace, cgroups etc. - musi se to usit na miru pro pristich dvacet let a hned to nebude. Co se planuje a jestli na tom nekdo pracuje - asi ano - nevim.
Btw, vcelku vyzivne cteni - i kdyz mne celkem uvedlo do deprese, protoze jsem si nemyslel, ze to muze byt az tak totalne 'bez designu' a naprasene vlivem casu - tady.Jen doplneni, to je z knizky "Understanding the Linux Virtual Memory Manager", ktera popisuje kernel 2.4. Jsou tam vzdycky na konci poznamky jak je to v 2.6 udelane jinak. Podobny dokument, ktery by popisoval chovani na jadrech rady 3.x, neznam. Na MM wiki jsou nejake zminky o jinych page replacement algoritmech, ale i tak dost stare (2008), AdvancedPageReplacement. Je tam zminen i CART, o kterem psal nize little.owl.
A vubec, jakou ma cenu presvedcovat fanatiky, co si mysli, ze linux dela vsechno nejlip Vsak v tomhle jsou linuxaci uplne stejni, jako se tu nadava na windowsaky... Smutne. Jeste kdyby s vama praxe souhlasila, ze to ma linux vsechno nejlip...Tohle neni argument. Me taha za usi, kdyz od "zfs lidi" slysim, ze linuxova page cache je hloupa bez nejakych presnejsich informaci nez "me to funguje takhle", nebo protoze to rekl Jeff Bonwick. Udelat poradne mereni stoji cas, ktery kazdy z nas radeji venuje jinym vecem. Nicmene, me zajimaji ty rozdily mezi ARC implementovanou v zfs porovnanou s tim, co je ted mozne vyzdimat z linuxove implementace page cache, takze si s tim casem pohraju. Jednak proto, ze to muze odhalit chyby, a druhak, abych mel nejake padnejsi argumenty, az zase prijde podobna namitka.
IMHO je v linuxu stale naivni LRU. Nedavno jsem stahnul ze serveru logy (pres scp) a pote smazal a projevilo se to vyprazdnenim cache (kernel 3.2.1).A to vypovida o cem? To, ze se z page cache zahodi stranky po smazani souboru je z definice. To, ze se data po cteni nactou do cache je jasne, protoze k tomu cache slouzi. Pokud na stroji v tu chvili nebezel jiny load, ktery page cache aktivne pouzival, pak nebyl duvod se zachovat jinak. Bez dalsich cisel je to nicnerikajici tvrzeni, nevime velikost RAM, nevime stav pameti pred a po nakopirovani, nevime load, nevime velikost souboru, nevime nastaveni zakladnich sysctl parametru pro page cache. V lepsim pripade nas zajimaji i periodicke statstiky o stavu pameti v prubehu kopirovani. Krome toho kernel 3.2 je na nejake mereni dost zastaraly.
ZFS uz ma i kernel modul zfsonlinux.org.A stabilita a spolehlivost teto implementace?
S XFS nemám žádnou osobní zkušenost, jenom vím, že jeho slabinou je náhlý výpadek napájení. Drží si totiž spoustu věcí v paměti a pokud řadič nemá baterku, aby stihnul při výpadku změny zapsat, tak hrozí ztráta dat.U xfs je ten problém, že pokud se neudělá fsync, tak je možné, že se za celou dobu života nového souboru neuloží jeho velikost. Data se průběžně zapisují na pozadí nebo s fdatasync, ale metadat se ani jedno netýká, a kůli výkonnosti se prostě změna velikosti nežurnáluje. Takže po výpadku se objeví spousta nulových souborů. Když si přijdete postěžovat do xfs mailinglistu, tak vám řeknou, že je to chyba aplikace, protože měla fsyncovat a nespoléhat na to, že např. ext3 fsyncuje trochu jinak a že se to bude chovat stejně i na xfs. Jinak historicky xfs nulovalo poškozené soubory a nesnažilo se je to opravit, prý protože u SGI se hodně počítalo, a bylo jednodušší to spočítat znova, když byl soubor 0 než to obnovovat. Ale to už je opravené. Co se týče cachovaní dat v paměti a potenciální ztráty při výpadku, to je vlastností všech filesystémů s delayed block allocation. To je xfs, ext4 a btrfs. Po výpadku je filesystém v konzistentním stavu, ale data co měl v paměti jsou ztracena. Kdo si všiml, že ext3 se to netýká, má bod.
Obávám se, že prachbídné. Buďto máte zátěž, kdy jen jeden proces dělá I/O, pak se multique nevyužije, protože budete vše směrovat na jeden uzel. Nebo budete mít souborový systém s nevhodnou architekturou, takže furt bude něco synchronizovat mezi uzly. (Ne nadarmo se uvedený dokument opíral o pomalé RMA mezi uzly.) Nebo zahodíte XFS i ext4 a použijete OCFS2 nebo GFS2 či jiný distribuovaný souborový systém, kde DRBD bude moci efektivně využít multiqueue jakožto náhradu sítě.
Osobně se domnívám, že většině lidí bude souborový systém ukradený, protože multiqueue použijí jako blokovou podložku pro virtuální stroje.
Nebo budete mít souborový systém s nevhodnou architekturou, takže furt bude něco synchronizovat mezi uzly.Ano, prave.
Hm a systemd je default...
A co vim, tak ani nejde nahradit.Co je to za plky? Jakze vim nejde nahradit! Emacs tam je tiez a v najnovsej verzii. <FLAME>Ale preco by to niekto robil, ze?
Ehm, kdo tohleto zablokoval?
Hint: slovo "administrátor" je klikací.
Tohle je jenom pro Enterprise nebo se to dá používat i na jiných lodích?