V březnu loňského roku přestal být Redis svobodný. Společnost Redis Labs jej přelicencovala z licence BSD na nesvobodné licence Redis Source Available License (RSALv2) a Server Side Public License (SSPLv1). Hned o pár dní později vznikly svobodné forky Redisu s názvy Valkey a Redict. Dnes bylo oznámeno, že Redis je opět svobodný. S nejnovější verzí 8 je k dispozici také pod licencí AGPLv3.
Oficiální ceny Raspberry Pi Compute Modulů 4 klesly o 5 dolarů (4 GB varianty), respektive o 10 dolarů (8 GB varianty).
Byla vydána beta verze openSUSE Leap 16. Ve výchozím nastavení s novým instalátorem Agama.
Devadesátková hra Brány Skeldalu prošla portací a je dostupná na platformě Steam. Vyšel i parádní blog autora o portaci na moderní systémy a platformy včetně Linuxu.
Lidi dělají divné věci. Například spouští Linux v Excelu. Využít je emulátor RISC-V mini-rv32ima sestavený jako knihovna DLL, která je volaná z makra VBA (Visual Basic for Applications).
Revolut nabídne neomezený mobilní tarif za 12,50 eur (312 Kč). Aktuálně startuje ve Velké Británii a Německu.
Společnost Amazon miliardáře Jeffa Bezose vypustila na oběžnou dráhu první várku družic svého projektu Kuiper, který má z vesmíru poskytovat vysokorychlostní internetové připojení po celém světě a snažit se konkurovat nyní dominantnímu Starlinku nejbohatšího muže planety Elona Muska.
Poslední aktualizací začal model GPT-4o uživatelům příliš podlézat. OpenAI jej tak vrátila k předchozí verzi.
Google Chrome 136 byl prohlášen za stabilní. Nejnovější stabilní verze 136.0.7103.59 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 8 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře.
Homebrew (Wikipedie), správce balíčků pro macOS a od verze 2.0.0 také pro Linux, byl vydán ve verzi 4.5.0. Na stránce Homebrew Formulae lze procházet seznamem balíčků. K dispozici jsou také různé statistiky.
Jim Salter na webu Ars Technica ve stručnosti shrnuje vlastnosti souborového systému Btrfs ve srovnání s alternativami (OpenZFS, mdraid+LVM+ext4) a ve zbytku článku varuje před jeho implementací RAID. V navazujících textech se plánuje věnovat dalším funkcím Btrfs.
Tiskni
Sdílej:
Pretoze RAID nasadzujem prave preto, aby mi pri zlyhani jedneho (a viac) diskov system fungoval dalej.To je naprosto v pořádku, ale jsou i jiná využití FS. Třeba já si nemůžu vynachválit vlastnost snadného odebrání disku (a tím zmenšení velikosti fs). Takto jsem za plného chodu serveru s pomocí pouze jednoho dalšího disku přestěhoval storage na jiný server. Tam, kde je potřeba víc místa, se disk přidá a tam, kde je místa dost, se zase odebere. Tohle je vlastnost, kterou nic jiného nemá (rozhodně ne takto flexibilní). Se selháním disku za běhu jsem se ještě nesetkal. Většinou to dostatečně brzo hlásí smart. Tj u btrfs jsem tento problém nikdy nemusel řešit, zato mi pomohl vyřešit spoustu jiných situací. A ano, smart není všespásný, takže když budu muset jednou za x let řešit degraded btrfs, tak se z toho nezblázním.
Takto jsem za plného chodu serveru s pomocí pouze jednoho dalšího disku přestěhoval storage na jiný server. Tam, kde je potřeba víc místa, se disk přidá a tam, kde je místa dost, se zase odebere. Tohle je vlastnost, kterou nic jiného nemá (rozhodně ne takto flexibilní).Pred temer 20 lety jsem podobne prestehoval storage zalozenou na mdraidu a ext2 za pomoci network block device. Prendal jsem disk do nove masiny a pomoci NBD ho pridal zpet do raidu ve stare masine.
Tak tomu se říká blažená nevědomost…Takto jsem za plného chodu serveru s pomocí pouze jednoho dalšího disku přestěhoval storage na jiný server. Tam, kde je potřeba víc místa, se disk přidá a tam, kde je místa dost, se zase odebere. Tohle je vlastnost, kterou nic jiného nemá (rozhodně ne takto flexibilní).Pred temer 20 lety jsem podobne prestehoval storage zalozenou na mdraidu a ext2 za pomoci network block device. Prendal jsem disk do nove masiny a pomoci NBD ho pridal zpet do raidu ve stare masine.
zfs send
.
Co sa tyka toho, ze co kto potrebuje, pride mi tvoja situacia trochu prekvapiva, lebo stahovanie dat medzi servermi pri ktorom potrebujes odoberat disky mi pride ako velmi vynimocna situacia. V enterprise sfere urcite, v domacom pouziti minimalne velmi nezvycajne.
Naproti tomu zlyhavajuce disky su popri zlyhavajucom zdroji asi najbeznejsi failure mod na beznom HW. Z vlastnej skusenosti v profesionalnej sfere disky zlyhavaju neustale a casto bez predchadzajuceho varovania. (v tomto smere som hlavne SSD videl zlyhat bez akehokolvek varovania asi castejsie ako pripady kedy dopredu hlasil nejake problemy cez SMART) V domacom nasadeni mam pool ktory za tie roky nema ani jeden povodny disk - niektore dopredu vykazovali zle SMART parametre - niektore dokonca v dostatocnom predstihu aby som ich vymenil pred uplnym zlyhanim. Ale niektore zlyhali potichu alebo ten cas nebol dostatocny na to aby som stihol vymenu vcas. (zvlast v domacom prostredi nezvyknem mat nahradne disky k dispozicii hned a nejaky ten den trva nez ich zozeniem)
rad sa necham poucit preco to BTRFS robi prave taktoJá ten důvod neznám a nikdy jsem po tom neměl potřebu pátrat. Četl jsem důvod (nikoliv od autorů btrfs, ale někde v diskusi), že program se má chovat tak, že jednoznačných způsobem ohlásí chybu, pokud nelze splnit podmínky pro svůj běh. (A s tímto nelze než souhlasit. Kéž by se všechny programy chovali takto a nastavovali nenulovou návratovou hodnotu.) Tedy v případě, že btrfs nemůže splnit požadovanou redundanci, tak se zkrátka nepřimountuje (bez dalšího parametru). Z tohoto pohledu to není špatně, prostě admin požaduje fs s jistou reduncancí, takto jej nastavil a ten fs nemůže jen tak namountovat bez splnění této adminem nastavené redundace, takže od něj očekává nějakou akci.
OpenZFS uz toto dokaze, aj ked mozno nie tak flexibilne ako BTRFS.Ano, od roku 2018. Tehdy se to doporučovalo pouze jako náprava chyby admina, kdy tam připojí device, které nechce. Funguje to tak, že zfs neumí odebrat vdev z poolu, tak prostě udělá nějaký interní, kam ten odstraňovaný vdev přesune. A na ten interní vdev už potom nezapisuje, jen čte a maže. Ale je to info z 2018.
Co sa tyka toho, ze co kto potrebuje, pride mi tvoja situacia trochu prekvapiva, lebo stahovanie dat medzi servermi pri ktorom potrebujes odoberat disky mi pride ako velmi vynimocna situacia. V enterprise sfere urcite, v domacom pouziti minimalne velmi nezvycajne.V enterprise světě máme disková pole, tam se vůbec o btrfs, zfs, mdadm apod nemusíme bavit. Tj co je vlastně hlavní doména těchto systémů? Levné instalace, kde není skutečný HW raid, kde není dost disků apod. Proto se nasazuje mdadm, ušetří se za HW raid (skutečný). Proto se nasazují zfs nebo btrfs, jak levná lepší náhrada mdadm. Proto dává smysl šetřit za disky. Ano, je lepší koupit celé kompletně osazené diskové pole a ten starý server jen přesunout. Jenže ne vždy je to ekonomicky únosné. A co potom s tím starým polem? Takže dává perfektní smysl v těchto levných prostředích nasadit btrfs / zfs a využít je k provozu. A to, že je to "nezvyklé" je dáno tím, že spousta adminů tyto systémy ani nezná. Jedou si to svoje, mdadm, ext4. A pokud už to znají, tak k tomu přistupují jako ke starým systémům (je to často cítit i z těch článků). Tj nenapadne je, že mohou plně využít flexibility, kterou jim to nabízí. V tom diskovém poli se dají uplatnil různé velikosti disků a postupně je vyměnovat za větší. A fs tak v čase postupně poroste.
OpenZFS ma na to omnoho vhodnejsi zfs sendbtrfs má také send, jak myslíš, že jsem to dělal? Hezky přesouvat subvolume za subvolume.
Naproti tomu zlyhavajuce disky su popri zlyhavajucom zdroji asi najbeznejsi failure mod na beznom HW.Ano, to je pravda, jednou nám odešlo 6 disků v jednom poli skoro současně (15k rpm 600GB, takže resilvering jenoho disku krásných 20minut).
V domacom nasadeni mam pool ktory za tie roky nema ani jeden povodny disk - niektore dopredu vykazovali zle SMART parametre - niektore dokonca v dostatocnom predstihu aby som ich vymenil pred uplnym zlyhanim.Ano, já taky, v tom btrfs z roku 2010 mám už třetí nebo čtvrtou generaci disků. Ještě se to nepotkalo s nějakým okamžitým selhnáním, ale tam bych degraded mount přežil.
(zvlast v domacom prostredi nezvyknem mat nahradne disky k dispozicii hned a nejaky ten den trva nez ich zozeniem)To já jsem si na to zvykl všude. Je lepší mít disk na poličce, než ho tam nemít. V serverovém provozu pochopitelně i jeden celý záložní server + disky a zdroje. (I když zdroje nám neodcházely tak často.)
Prave ze v ent se uz HW pole peknych par let nepouzivaji.Ale já jsem nikde nenapsal, že se používají. (Navíc tuhle debatu už jsme několikrát vedli, ne?)
Kterej minimalne z pohledu administrace svoji funcionalitou velmi pripomina prave btrfs.No mě by celkem zajímalo, co tam je, protože ono to nápadně připomíná víc věcí a bylo by celkem dobrý se podívat na zoubek třeba na licence, jestli náhodou nám tu někdo neloupe GPL2 perníček.
program se má chovat tak, že jednoznačných způsobem ohlásí chybu, pokud nelze splnit podmínky pro svůj běhToto je zaujimavy argument. Ono mozno je prekvapive to, ze zatial co klasicky FS ked spustas mount tak sa bud pripojit da alebo neda, lebo neriesi tu blokovu vrstvu pod tym. BTRFS toto riesi a teda sa v tomto pripade moze spravat inak. Mozno by som argumentoval ze ked spustam prikaz
mount
, chcem primarne ten filesystem pripojit a filesystem je v stave kedy sa toto spravit da. Ano, je v degraded stave, ale to podla mna na tejto urovni nema zmysel riesit. Uz len samotny fakt, ze mount
nema mechanizmus akym by vratilo zmysluplny error message mi pripada ako dobre znamenie ze to nie je to spravne miesto kde by malo BTRFS skumat redundanciu.
To uz mi pride lepsie ako to riesi ZFS (a svojim sposobom aj LVM), ktore mount v podstate uplne obchadza a ma na to svoje vlastne CLI.
Vseobecne mi cela tato snaha BTRFS namapovat funkcionalitu na existujuce struktury (spominany mount, ktory zlyha pre degradovane pole, alebo pripajanie prostrednictvom referencie na jeden z fyzickych diskov) pripada dost nestastna, lebo proste spaja dva dost odlisne koncepty. Samozrejme ze sa potom prejavi to ze to spravanie je velmi prekvapujuce a nepride mi velmi korektne tvrdit ze sa "len v pripade vypadku chova inak nez niektore ine systemy" - ako ano je to pravda, chova sa inak a chova sa velmi nestandardne a zrejme prave preto, ze sa snazi prezentovat pouzivatelovi cez interface ktory na to nie je urceny.
Napriklad swap sa bezne nastavuje v /etc/fstab
s inymi FS, ale ma svoje vlastne swapon
/swapoff
namiesto toho aby sa nejako snazili ohnut mount
na pripajanie swapu cez nejake mount -t swap /dev/sdx /this/path/is/ignored
alebo nieco podobne.
Ono mozno je prekvapive to, ze zatial co klasicky FS ked spustas mount tak sa bud pripojit da alebo nedaToto vůbec není pravda, proto je ve fstabu sloupeček pass, který říká v jakém pořadí a jestli vůbec se má na fs spouštět fsck. A viděl jsem spoustu rozbitých FS, u kterých mount prošel, rychlý fsck při startu také, ale kompletní fsck ne. Jenže od toho se ustoupilo v rámci rychlosti bootu. A aby toho maléru nebylo málo, tak ještě se mountuje s parametry continue nebo readonly. Dřív bylo zvykem při chybě pěkně zpanikařit.
Uz len samotny fakt, ze mount nema mechanizmus akym by vratilo zmysluplny error message mi pripada ako dobre znamenie ze to nie je to spravne miesto kde by malo BTRFS skumat redundanciu.Já to vidím opačně. Právě proto, že nemá pořádný mechanismus pro error message, tak ten mount na degradovaném fs nemá projít. Aby bylo naprosto jasné, že se něco děje.* U toho zfs i mdadm to s klidem najede i do degradovaného stavu a vůbec nic neindikuje nějaký problém. Ano, můžeme říct, že tam má být řádný monitoring nebo se má admin alespoň podívat do zpool status, ale kdo to dělá, že jo a ten monitoring je další vrstva navíc, která musí být nastavena a klidně i tam může být chyba. To že by btrfs mohl mít vlastní toolset i pro mount, klidně, souhlas. Ono to spíš ukazuje na nepříliš vyhovující stav mount jako takového. Přes parametry mountu se u některých fs (JFS) třeba i ten fs zvětšuje. A ještě admini (ne)očekávají další chování. Podle mě třeba do mountu vůbec nepatří compress, protože to se má nastavit v tom fs, třeba pro jednotlivé subvolumy zvlášť. Atd.
Napriklad swap sa bezne nastavuje v /etc/fstab s inymi FSDalší ukázka toho, že to tam nepatří. Dělají se výjimky pro síťové FS, pro pseudofs (devfs, procfs), pro výměnná média a pro swap. Sranda je, že na FreeBSD mám fstab zcela prázdný (protože zfs) a na linuxu tam mám jen /, protože zbytek je v systemd. Zdá se, že tento soubor se už nějak přežil. *) Já mám obecně rád tvrdá selhání, protože to potom vede k opravě, zatímco skrývání chyb velmi často k poškození dat. Jeden starý příběh ze světa MySQL.
Toto vůbec není pravda, proto je ve fstabu sloupeček pass, který říká v jakém pořadí a jestli vůbec se má na fs spouštět fsck.Myslim, ze tu je dost dolezite to brat v kontexte a docitat moju vetu dokonca:
Ono mozno je prekvapive to, ze zatial co klasicky FS ked spustas mount tak sa bud pripojit da alebo neda, lebo neriesi tu blokovu vrstvu pod tym.fsck neriesi blokovu vrstvu, riesi iba korektnost daneho filesystemu. Ked budes mat ext4 na mdraid, tak fsck nehodi error lebo raid ma znizenu redundanciu. To ci je realne filesystem poskodeny alebo nie tiez velmi nesuvisi s redundanciou. BTRFS moze kludne nastartovat s oboma diskami a napriek tomu drzat poskodene data. (inak by nebolo treba
scrub
)
Dřív bylo zvykem při chybě pěkně zpanikařit.Osobne nepoznam jediny RAID system ktory by pri znizenej redundancii nenastartoval alebo dokonca vyhodil panic.
Aby bylo naprosto jasné, že se něco děje.
Ano, můžeme říct, že tam má být řádný monitoringSam si si odpovedal, na to tu mame monitoring. Ja ked vidim ako v SMART statistikach rastie
Reallocated Sectors Count
, tak predpokladam ze disk ide umriet a planujem co najskorsiu vymenu. Inak povedane nieco sa deje. Ale ak by mi koli tomu nepresiel mount, tak asi tomu disku aj s celym filesystemom pomozem kladivom.
ale kdo to dělá, že joKazdy komu zalezi na tom systeme.
a ten monitoring je další vrstva navíc, která musí být nastavena a klidně i tam může být chybaTen monitoring tam musi byt tak ci tak. To ze ta BTRFS "upozorni" pri mounte ze je znizena redundancia by som asi tazko povazoval za relevantny sposob ako sa dozvediet ze odisiel disk. (zvlast ked je ten error message uplne zavadzajuci) Ten moze zlyhat kedykolvek po pripojeni a ty sa o tom dozvies kedy? Pri najblizsom reboote?
Ono to spíš ukazuje na nepříliš vyhovující stav mount jako takového.Ja by som to skor videl tak, ze mount robi presne to co ma. Ak to chcu ludia pouzivat na spravu BTRFS, tak by podla mna mali mount rozsirit tak aby to davalo zmysel.
Další ukázka toho, že to tam nepatří. Dělají se výjimky pro síťové FS, pro pseudofs (devfs, procfs), pro výměnná média a pro swap.V tomto suhlas. Ja tak nejak nemam pocit ze tam ten swap patri, ale historicky to tak bolo - predpokladam ze sa niekomu v 90-tych rokoch nechcelo pridat nejaky
/etc/swapconfig
alebo nieco podobne, tak to nalepili na fstab. Ale myslim, ze je pomerne zasadny rozdiel, ze aspon mount upravili a pridali tam tu vynimku. (ze teda vies nastavit mount path na none
)
fsck neriesi blokovu vrstvu, riesi iba korektnost daneho filesystemuNo to neřeší, protože o ní nic neví.
Ked budes mat ext4 na mdraid, tak fsck nehodi error lebo raid ma znizenu redundanciu.Ano, to ani neočekávám, ale ten error by měl hodit mdadm.
BTRFS moze kludne nastartovat s oboma diskami a napriek tomu drzat poskodene data. (inak by nebolo treba scrub)To jistě může, ale btrfs kontroluje checksum dat při každém čtení a už u toho čtení může opravit vadnou kopii. Tj u btrfs nic jako oddělená bloková vrstva neexistuje.
Sam si si odpovedal, na to tu mame monitoring. Ja ked vidim ako v SMART statistikach rastie Reallocated Sectors Count, tak predpokladam ze disk ide umriet a planujem co najskorsiu vymenu. Inak povedane nieco sa deje. Ale ak by mi koli tomu nepresiel mount, tak asi tomu disku aj s celym filesystemom pomozem kladivom.Jasně, ale mám spoustu příběhů o tom, jak byl monitoring zcela naprd, o smartu nikdo netušil a ani třeba o tom, že jejich řadič měsíce hlásí vybitou baterku. Právě na základě těchto zkušeností si myslím, že je lepší selhat dřív a explicitně, než to skrývat. Protože až se ta vadná data propíší na všechny zálohy, tak bude pozdě. (Aneb zálohujeme sice pravidelně, ale naprosto vadná data. Viz ta rozpadlá replikace z toho článku.)
Ano, to ani neočekávám, ale ten error by měl hodit mdadm.mdadm samozrejme ukaze ze je degraded.
To jistě může, ale btrfs kontroluje checksum dat při každém čtení a už u toho čtení může opravit vadnou kopii.Moze opravit vadnu kopiu ak ma kopiu ktora nie je vadna. Proste ten predpoklad, ze mount nevyhodil error a teda pole je v poriadku je podla mna celkovo vadny, lebo je vela failure scenarios kedy mount prebehne a napriek tomu su data ked nie rovno znicene, tak aspon v ohrozeni. Napriklad vypadlo chladenie a disky maju 60C uz pri starte. Mount ti kludne prejde ale z hladiska ochrany dat by bolo lepsie s takym polom nepracovat, disky vypnut a riesit teplotu. Keby clovek monitoroval SMART, tak to najskor aj spravi. Proste zlyhavajuci mount pri degraded rezime riesi tak uzku skupinu problemov, ze to podla mna nestoji za to robit tam nejake nestandardne spravanie.
Tj u btrfs nic jako oddělená bloková vrstva neexistuje.Presne tak, tak preco ho ma niekto spravovat s nastrojmi ktore nejakym sposobom ocakavaju blokovu vrstvu, alebo sa tvarit ze tam nejaka oddelena blokova vrstva je?
Jasně, ale mám spoustu příběhů o tom, jak byl monitoring zcela naprd, o smartu nikdo netušil a ani třeba o tom, že jejich řadič měsíce hlásí vybitou baterku. Právě na základě těchto zkušeností si myslím, že je lepší selhat dřív a explicitně, než to skrývat.To iba ukazuje na to, ze zavesit cely monitoring na mount ktory sa deje raz za par mesiacov je nezmysel. Ked ti bude SMART mesiace kricat, ze na disku sa zacinaju objavovat vadne bloky, tak je sice pekne ze az jedneho dna ked ten disk odide a ty restartujes, ze to zlyha explicitne a natvrdo, ale tiez ti moc nepomoze ak sa ukaze ze rovnako krical aj ten druhy disk, akurat neumrel uplne ale sanca ze prezije resilver je nulova. Toto je realny pribeh, ktory som osobne zazil, kedy odisiel v serveri ventilator takym sposobom, ze zacal neumerne vibrovat a postupne znicil jeden disk za druhym a v momente ked prvy disk vypadol z pola, ostatne disky uz neboli v stave prezit resilver. (neslo o mission critical data, ten RAID tam bol v podstate len pre uptime, ale nakoniec utrpel aj ten, kedze uz bolo neskoro nieco hotswappovat) Podla mna podporovat spravanie ze niekto spolieha na zlyhavajuci mount je presne to co ty tvrdis - skryvanie problemov ktore mozu viest k strate dat.
Aneb zálohujeme sice pravidelně, ale naprosto vadná data. Viz ta rozpadlá replikace z toho článku.Toto je podla mna nieco co by naopak BTRFS uplne explicitne nemalo dovolit a keby v tomto momente zlyhal mount, tak by som mozno aj suhlasil, ze je to tak spravne. Jasne jedna sa v podstate o PEBKAC, ale uprimne ak BTRFS vyhodi error pri pripajani degradovaneho pola, tak sa nebudem cudovat pouzivatelovi ktory povazuje pripojeny filesystem za konzistentny. Nepochybne by na to clovek s dobrym monitoringom prisiel, preto netvrdim ze je to chyba BTRFS, ale to ako je navrhnute spravanie takeho systemu je velmi nestastne.
mdadm samozrejme ukaze ze je degradedPouze pokud se na to zeptáš. Ani při bootu neukazuje žádný problém.
Proste ten predpoklad, ze mount nevyhodil error a teda pole je v poriadku je podla mna celkovo vadnyTo pole je v pořádku v této chvíli. Tedy v okamžik toho mountu. Že ty disky za 5 minut rozvibruje ventilátor v tuto chvíli nikdo netuší.
Podla mna podporovat spravanie ze niekto spolieha na zlyhavajuci mount je presne to co ty tvrdis - skryvanie problemov ktore mozu viest k strate dat.To, že se problémy mohou vyskytnout i po té, co mount projde, je snad jasné. To ale neznamená, že ten mount nemá hlásit chybu nikdy. Pokud mount neprojde, tak je to indikace problému, který je potřeba okamžitě řešit. Ano, ten problém mohl být detekován dříve a přehlédnut, ale to neznamená, že ten nástroj má mlčet. Stejně tak se tím neříká, že tam nemá být další monitoring. Má. Ale to neznamená, že některé programy mohou skrývat chyby. Stejně tak ten příklad s tím mysql po změně konfigurace. Bylo by mnohem lepší, kdyby ta služba nenajela. Tím, že najela bez některých engine přímo způsobila ztrátu dat.
Pouze pokud se na to zeptáš.Pride mi to ako lepsia alternativa nez vyhodit error pri v podstate nesuvisiacej operacii o par tyzdnov neskor ked nahodou restartuje server.
To ale neznamená, že ten mount nemá hlásit chybu nikdy.Jediny dovod preco mount hlasi chybu namiesto toho aby pripojil automaticky degraded pole je ten, ze sa BTRFS asi ako jediny RAID system dokaze dostat do stavu kedy sa ten chybajuci disk neskor pripoji a vsetky data co boli medzi tym zapisane budu ohrozene kym clovek rucne nespusti
ballance
. mdraid v takom pripade robi normalne resilvering, ZFS spravi len resilvering chybajucich zapisov, BTRFS uplne potichu problem ignoruje.
Cize ano, chapem ze asi chces aby taky mount zlyhal, chapem ze nie je dobry napad pridavat -o degraded
pri starte aby taky system vzdy nabehol. Ano pri BTRFS to zmysel ma, ale len preto ze ten mirroring nerobi uplne zakladnu kontrolu ci je zostavene pole v poriadku.
Alebo spytam sa inac: na co mi je RAID, ktory v pripade zlyhania disku prestane "fungovat"? To tam potom mozem mat kludne jeden disk a v pripade problemu ho vymenim a data obnovim zo zalohy. Vypadok budem mat tak ci tak, takze z tohto pohladu mi to je jedno.+1, to mě přesně taky napadlo. Nejsem admin, ale měl jsem za to, že celá pointa RAIDu (resp. tohohle druhu RAIDu) je, aby to bezproblémové fungovalo, i když shoří nějaká podmnožina disků.
Alebo spytam sa inac: na co mi je RAID, ktory v pripade zlyhania disku prestane "fungovat"?Btrfs raid nepřestane v případě selhání disku fungovat. Funguje dál, dokud to jde, stejně jako jiné raidy. Akorát v takovém stavu při rebootu nenaběhne a řve, že pole není kompletní. Ale tomu se dá odpomoci přidáním jednoho parametru pro kernel. A pokud tedy admin jó chce, může si ten parametr zadat defaultně, takže ono se to pokusí nabootovat pokaždé, i když pole kompletní nebude, stejně jako mdadm. Je to jen na adminovi...
ballance
, ale nemal si sa to ako dozvediet, kedze spoliehas na to ze ti to pri boote vyhodi error keby bol problem.
Akorát v takovém stavu při rebootu nenaběhne= nefunguje.
Jakým parametrem při bootu začne mdadm kontrolovat checksumy čtených dat?A pokud tedy admin jó chce, může si ten parametr zadat defaultně, takže ono se to pokusí nabootovat pokaždé, i když pole kompletní nebude, stejně jako mdadm. Je to jen na adminovi...
Ten FS neselže. Jen se v případě výpadku disku chová jinak, než některé jiné systémy.Chovat se jinak jistě může, ale zásadní otázka je, jestli je dobrý důvod, aby se tak choval. Je nějaký dobrý důvod, proč by filesystém/úložný systém neměl automaticky doplnit chybějící kopie?
Se selháním disku za běhu jsem se ještě nesetkal. Většinou to dostatečně brzo hlásí smart. Tj u btrfs jsem tento problém nikdy nemusel řešit, zato mi pomohl vyřešit spoustu jiných situací. A ano, smart není všespásný, takže když budu muset jednou za x let řešit degraded btrfs, tak se z toho nezblázním.ke zbytku se nevyjadřuju, ale toto je za mě naprostý nesmysl co tady šíříte. Kolik těch serverů máte? my jsme jich za posledních cca 20 let nainstalovali (a spravujeme) několik tisíc. A to co tvrdíte prostě není pravda. Disky UMÍRAJÍ bez varování (to mluvím jak o rotačních, tak SSD), nezávisle na značce. Jsou na to dokonce i velice dobře zpracované analýzy od společností, které těch serverů mají desetitisíce a pečlivě si to evidují. A i z těch je vidět, že SMART může varovat předem, ale ve spoustě případů nevaruje.
Pokud jednou za x let odejde disk bez varování, tak se z toho nezblázním.To je dobře, nicméně to furt nevyvrací, že tento způsob chování btrfs je zhovadilý, ani proč je takhle zhovadilý.
btrfs poskytuje skvělé služby pro ty, kteří je mají kde využít a samozřejmě, jako všechno, má svoje quirky. Stejně jako každý jiný fs.To je trochu relativizace. Takové quirky jako btrfs IMO opravdu každý jiný fs nemá. Když jsem naposledy btrfs zkoušel, dostával jsem celkem běžně panicy. Pravda, bylo to roky zpátky, ale po tom, co bylo odstraněno to varování o experimentálnosti. Tohle je něco, co se ostatním/seriózním FS nestává. Což jako samo o sobě není nutně špatně, chápu, že některý věci jsou nestabilní a trvá dlouho je odladit, ale chtělo by to v tom případě jasně označit nějakou základní podmnožinu funkcí jako stabilní a tu udržovat maximálně robustní...
To je trochu relativizace.Ne není. Pokud mám nástroj, který mi nabízí funkce, které nikdo jiný nenabízí, tak to nemám s čím srovnat (relace). btrfs je v tomto unikátní a žádný jiný fs mi v tomto nenabízí takovou flexibilitu s prací jak se zařízeními, tak s subvolume. Kdy můžu přidávat a ubírat zařízení, jak potřebuju a totéž můžu udělat se subvolumy. (Na zfs neustále narážím na to, že dělat clone se v budoucnu hodně nevyplatí, takže raději dělám plné kopie pomocí send a receive.) A když tohle všechno vím, včetně těch nepříjemných vlastností, tak je můžu buď obejít (třeba tím, že všechny device budou redundantní na jiné vrstvě a btrfs tak nikdy neuvidí selhání disku) nebo se na ně prostě připravím. Záloha je stejně nutnost, takže je lepší se připravit na to, že ji budu potřebovat (zfs mi teď hlásí, že mám celý pool obnovit ze zálohy.) Prostě, žádný fs není dokonalý.
Když jsem naposledy btrfs zkoušel, dostával jsem celkem běžně panicy.To je trochu škoda, že to není i s odkazy na jednotlivé případy (neříkám bugreporty). Tohle beru už je jako takové plácnutí v diskusi.
ale chtělo by to v tom případě jasně označit nějakou základní podmnožinu funkcí jako stabilní a tu udržovat maximálně robustníMožná jsem se jen omylem trefil, ale od roku 2010 používám raid1, masivně subvolumy se vším (snap, send, receive), multidevice management (pravidelná výměna disků), balance (změna z původního linear na raid1, za běhu). Víc tak nějak ani nechci. Takže toto je ona stabilní množina
To je trochu škoda, že to není i s odkazy na jednotlivé případy (neříkám bugreporty). Tohle beru už je jako takové plácnutí v diskusi.Jo, to je fér, v této chvíli už to je spíš JPP a ideálně bych si to měl vyzkoušet znova... (Ale zatim moc není motivace.)
Raid byl vyvinut (několikrát) z mnoha důvodů. Bohužel zrovna zajištění integrity dat neumí.RAID 2 umoznuje urcit, ktera data jsou poskozena a opravit je - napr. pri pouziti Hamming(7, 4), je mozne jednu chybu opravit a 2 detekovat. Je pravda, ze se uz nepouziva (protoze je levnejsi si koupit disky, ktere detekuji chyby samy a pouzit jinej raid), ale tvrdit, ze to neexistuje, je lez.
ale kolik promile soudruhu adminu se tam podiva aspon jednou za rokUž jsme mimo téma, ale tohle mi připomnělo jeden velmi pečlivě monitorovaný server od člověka, který má nutkání nastavit úplně všechno (a to si nedělám prdel, snad každý soubor v /etc byl upraven). Bylo tam asi 200 checků na kde co všechno. Jenže jeden chyběl. Tento člověk se potom rozhodl, že je potřeba toho nastavit ještě víc, takže začal dělat i speciální (lvm) oddíly pro každou službu a linkovat(!) tento mount do /var/neco. Po nějakém update nebo tak něco se tento link smazal a data se ukládala přímo do /var/neco. Jenže var se nemonitoroval, protože je přece vždycky prázdný (jsou tam jen linky...). Příběh s mdadm. Někdo se rozhodl, že jeden disk je málo, tak tam dal raid (což je pořád lepší, než single disk). A neupravil monitoring. mdadm svoji funkci plnil, několik let to běželo pouze z jednoho disku, druhý byl vadný. Jednoho dne se rozhodl odejít i druhý disk. Příběh s bootem. Někdo vyměnil disk v mdadm (který se nějak zázrakem monitoroval) za jiný, jenže místo gpt tam dal mbr. Stroj po výpadku prvního disku nenabootoval. Fakt bych chtěl žít ve světě, kde je jediným problémem na serverech to, že btrfs občas potřebuje mount parametr.
Protoze tu druhou si dycinky nechavam tak za dalsich 14 dnu, to kdyby se zjistilo, ze novy verze maji nejaky zasadni pruser.Tohle nema poradny admin zapotrebi, protoze to ma otestovane jinde nez na produkci.
Vis jak delam "vypadkovou" vymenu verze databazi?Tve nekecej, tohle jde jo?
To samozrejme jde, jenze databazovy admin zna rozdil mezi databazovym enginem a samotnou databazi.Vis jak delam "vypadkovou" vymenu verze databazi?Tve nekecej, tohle jde jo?![]()
Pokud je nějaký stroj tak důležitý, že je možné jej odstavit pouze jednou za rok, má být redundantní.Redundance může být v některých případech poměrně náročná nebo nemožná. Viz talk. Redundance obchodního backendu vyžaduje konsensus algoritmy velmi náročné na implementaci. Redundance/load-balancing vstupní gateway může být nežádoucí, protože lidi by toho zneužívali k získání nefér výhod... Otázka ale je, jak tohle souvisí s diskovýma polema, protože tyhle věci by měly být virtualizovaný a když se stane cokoli na nižší vrstvě (od OS níže), tak odmigruješ služuby jinam a řešíš OS/hardware. Počítám, že ten reálný problém v diskusi je ten, že smradlavá Oracle DB je licenčně vázaná na hardware.