Bylo vydáno do češtiny přeložené číslo 717 týdeníku WeeklyOSM přinášející zprávy ze světa OpenStreetMap.
Byla vydána (Mastodon, 𝕏) nová stabilní verze 2.10.38 svobodné aplikace pro úpravu a vytváření rastrové grafiky GIMP (GNU Image Manipulation Program). Přehled novinek v oznámení o vydání a v souboru NEWS na GitLabu. Nový GIMP je již k dispozici také na Flathubu.
Google zveřejnil seznam 1220 projektů od 195 organizací (Debian, GNU, openSUSE, Linux Foundation, Haiku, Python, …) přijatých do letošního, již dvacátého, Google Summer of Code.
Na základě DMCA požadavku bylo na konci dubna z GitHubu odstraněno 8535 repozitářů se zdrojovými kódy open source emulátoru přenosné herní konzole Nintendo Switch yuzu.
Webový prohlížeč Dillo (Wikipedie) byl vydán ve verzi 3.1.0. Po devíti letech od vydání předchozí verze 3.0.5. Doména dillo.org již nepatří vývojářům Dilla.
O víkendu probíhá v Bostonu, a také virtuálně, konference LibrePlanet 2024 organizovaná nadací Free Software Foundation (FSF).
Nová vývojová verze Wine 9.8 řeší mimo jiné chybu #3689 při instalaci Microsoft Office 97 nahlášenou v roce 2005.
Coppwr, tj. GUI nástroj pro nízkoúrovňové ovládání PipeWire, byl vydán v nové verzi 1.6.0. Zdrojové kódy jsou k dispozici na GitHubu. Instalovat lze také z Flathubu.
Byla vydána dubnová aktualizace aneb nová verze 1.89 editoru zdrojových kódů Visual Studio Code (Wikipedie). Přehled novinek i s náhledy a animovanými gify v poznámkách k vydání. Vypíchnout lze, že v terminálu lze nově povolit vkládání kopírovaného textu stisknutím středního tlačítka myši. Ve verzi 1.89 vyjde také VSCodium, tj. komunitní sestavení Visual Studia Code bez telemetrie a licenčních podmínek Microsoftu.
Proton, tj. fork Wine integrovaný v Steam Play a umožňující v Linuxu přímo ze Steamu hrát hry určené pouze pro Windows, byl vydán ve verzi 9.0-1 (𝕏). Přehled novinek se seznamem nově podporovaných her na GitHubu. Aktuální přehled her pro Windows běžících díky Protonu také na Linuxu na stránkách ProtonDB.
Řešení dotazu:
To mas jednoduchy, pokud ti nejde vylozene o vykon, tak R5, pokud by ti o vykon slo, tak R10. Ale mozna lepsi varianta nez md je btrfs.Má už btrfs stabilni raid5? Já osobně jsem s btrfs šel na raid1, ten stabilní je určitě. A pozor: raid1 v btrfs není mirror (na rozdíl od mdadm).
[...] A pozor: raid1 v btrfs není mirror (na rozdíl od mdadm).btrfs raid1 neni kompletni mirror (kazdy blok je vzdy jen na 2 discich), ale uz nejakou dobu ma (tazatel musi zjistit zda i v jeho distru) podporu RAID1C4 coz je kazdy blok vzdy na 4discich...
A pozor, raid 1 je JE v btrfs MIRROR.
Není
Jen to neznamena, ze jsou vsechna data na dvou konkretnich disich ale znamena to, ze je kazdy BLOK na DVOU discich. A kupodivu, pokud ty disky budou PRAVE DVA, tak se to bude chovat presne jako mirror.
MIRROR je zrcadlo - zrcadlí jeden disk na druhý. A pak, když se poškodí oba disky zároveň (např. náhlá potopa v serverovně), je možné vzít část dat z jednoho disku a díry zaplnit daty z druhého pouze podle polohy na disku (offsetu).
A RAID 1 v BTRFS pouze garantuje umístění (někde) na dvou discích, ale už nepoužije na obou stejnou pozici. Neříkám, že je to špatně, prostě to tak je.
A pak, když se poškodí oba disky zároveň (např. náhlá potopa v serverovně), je možné vzít část dat z jednoho disku a díry zaplnit daty z druhého pouze podle polohy na disku (offsetu).
A přesně totéž lze udělat také s Btrfs RAID1, jenom ne podle offsetu, nýbrž (jak je u Btrfs a ZFS obvyklé) mnohem lépe, flexibilněji, bezpečněji a (navíc ještě většinou) automaticky.
Jak bude u AID1 bez R zaručeno, že data, která jsou na stejném offsetu(*), jsou nepoškozená a shodná s druhou, poškozenou replikou? Když se repliky na obsahu bloku neshodnou, která má pravdu?
(*) …což je zbytečné a suboptimální, ale nic naplat, primitivní AID metadata nic lepšího určit neumí…
Btrfs dovede určit (s pravděpodobností hraničící s jistotou == 1 − pravděpodobnost kolize checksumu), které bloky se podařilo obnovit (tedy existuje alespoň jedna replika s platným checksumem) a které jsou nenávratně pryč.
AID bez R se svým (zbytečně) přesným mirrorováním tohle^^^ neumí a klidně vypustí do světa náhodná data — jenom proto, že se zrovna dají „přečíst“. Fujble.
Neříkám, že je to špatně, prostě to tak je.
Prostě to tak je a je to tak dobře.
A RAID 1 v BTRFS pouze garantuje umístění (někde) na dvou discích, ale už nepoužije na obou stejnou pozici. Neříkám, že je to špatně, prostě to tak je.Mně je tedy celkem fuk, jak si to filesystém ukládá. Důležité je, že dodává správná data.
R1 neboli tzv zrcadloRAID 1 je definován tak, jak popisuješ. Ale často (viz mdadm) je realizován jako MIRROR, to je 1:1, což je poněkud přísnější definice než RAID 1. A ano, MIRROR není oficiální název realizace 1:1 a často se používá i pro "ne 1:1" RAID 1.
R1 neboli tzv zrcadlo je definovany tak, ze kazdy sektor disku se zreplikuje na dalsi disk a konfiguraci je receno na ktery konkretne. NIKDE neni receno, ze ty sektory budou na stejnych mistech a ani byt NEMUZOU. Protoze na tom druhym disku muze byt nektery z nich trvale klidne uz z vyroby oznacen jako vadny.To hovoris o logickem nebo fyzickem layoutu disku. Ty hardchyby totiz maskuje firmware v disku a na logickem layoutu, se kterym pracuje pocitac, se neprojeví. A pokud je tam už hardchyb tolik, že se maskovat nedají, tak bych tomu už data nesvěřoval.
A uz vubec neblabol o tom, jak budes zachranovat data ze dvou vadnych disku, to jen ukazuje na to, ze vubec nechapes, k cemu je zcela libovolnej raid. Raid NENI zaloha !!!Chápu, to že zákazníkovi plaval výcvikáč - cca 1 m bahnité vody která zaplavila servery i archivní diskety a my mu nakonec data vytáhli výše popsaným postupem ze skřípějících umírajících HDD pomocí ddrescue není podle tebe pravda. PS: Asi 5 let jsem pracoval přímo ve vývoji HDD, takže o nich něco vím.
To mas jednoduchy, pokud ti nejde vylozene o vykon, tak R5, [...]Pozor, u takto velkých disků zkontrolovat Unrecoverable Read Error!
Jediná skutečně nestabilní záležitost v BTRFS je problém v RAID56 v případě nekorektního ukončení (Výpadek napájení, pověšení jádra), pak data která jsou "rozpracovaná" mají nekorektní checksum a přijde se o ně. Nicméně s UPS a serverovou instalací, kde nejede spousta nesmyslných programů to nemusí být problém.A u ZFS na stroji, kde jede spousta nesmyslných programů a UPS nemá, protože uživatel to první chce a za to druhé utrácet nechce, je to jak?
A este sa tu nikto v diskusii nezmienil o hammerfs co ma dragonflybsdTak si prvý. Je to jeden z FS ktorý má checksumming aj na dáta a má aj dostupné zdrojáky, takže je fajn.
Každopádně zkazky o problémech s daty v případě nějakých nečekaných událostí jsem slyšel i pár let zpátky, takže proto jsem se ptal spíše na aktuální stav, než co bylo v roce 2007.Jenže ty zkazky je potřeba analyzovat jednu po druhé. Při hledání tohoto problému (z roku 2007) jsem narazil též na "problém" kolem roku 2012, který se ale týkal všech FS (včetně tehdy nového ext4) a který se týkal zmizení dat po přejmenování souboru a následném pádu systému (nebo výpadku napájení). Podstatné je, že tento "problém" se týkal všech vs kromě jednoho velmi speciálního případu ext3 s ordered journal. Kde to fungovalo více méně náhodou. A někteří se s tím nesmířili dodnes (s tím, že by měli postupovat dle specifikace a nikoliv pocitů). Každopádně, já používám XFS dlouhodobě (i před rokem 2012) jako druhý FS do páru s BTRFS. Tam, kde nepotřebuju btrfs nebo se vyloženě nehodí (např pro provoz postgresql), nasazuju jedině xfs. Výhody jsou: Velmi rychlé vytváření (proti ext3, ext4 z počátku také velmi pomalé, postupem času tam dali různé lazy volby) - protože si tabulky vytváří (a maže) automaticky dle potřeby. S tím souvisí i optimalizace adresáře, když do ext4 adresáře naliju miliony souborů, tak adresářový záznam naroste (přirozeně) a když ty soubory smažu, tak zůstane velký (i když je v něm pouze jeden soubor) a jeho otevření trvá dlouho. Toto lze vyřešit jedině přes
fsck.ext4 -D
(tedy s odstávkou).
Velmi rychlé zvětšení svazku (souvisí s předchozím).
Intenzivně používám LVM (tam, kde nelze použít BTRFS), vytvářím a rozšiřuju svazky a nechce se mi čekat.
Rychlé mazání velkých souborů. Dříve (zejména na ext3) mazání stovkyGB velkého souboru trvalo klidně i několik minut. Pokud to má člověk jako storage pro zálohy nebo image disků, tak je to celkem otravné.
xfs_fsr
- "defragmentace". Co si budeme vysvětlovat, v blokovém světě a na používaném oddílu nelze dosáhnout vždy perfektně souvislých souborů, takže tento nástroj se hodí. "Stárnutí" jiných FS po letech lze pozorovat (a to i na ZFS) a není to moc hezké. Proto používám XFS a BTRFS, oba mají nástroje pro úklid.
Jedinou nevýhodou, kterou to má, je nemožnost zmenšení fs. Toto jsem nenašel ani v projektové dokumentaci pro statis, ale tam to "řeší" tak, že všechno je masivně thin provisioned, takže po smazání dat je místo dostupné. (Tedy to, co btrfs řeší levou zadní od roku 2010 a navíc btrfs má online shrink, kdyby bylo potřeba zmenšit device.)
Toto jsem nenašel ani v projektové dokumentaci pro statis, ale tam to "řeší" tak, že všechno je masivně thin provisionedTohle na rotačních discích to musí být naprostý zabiják...
Ale urcite sa nehodi napr. pre maily, kde mazanie niekolkych 100 mailov z niekolkych 1000 trvalo desiatky sekund. Z ext3 to uz bolo ok.Od optimalizace v roce 2012 se hodí i pro velmi mnoho souborů (má tam testy pro 25M souborů per thread). Pokud se ti to zadýchávalo při mazání stovek souborů, tak bylo špatně něco jiného.
Tiskni Sdílej: