Microsoft v příspěvku na svém blogu věnovaném open source oznámil, že textové adventury Zork I, Zork II a Zork III (Wikipedie) jsou oficiálně open source pod licencí MIT.
První prosincový týden proběhne SUSE Hack Week 25. Zaměstnanci SUSE mohou věnovat svůj pracovní čas libovolným open source projektům, například přidání AI agenta do Bugzilly, implementaci SSH v programovacím jazyce Zig nebo portaci klasických her na Linux. Připojit se může kdokoli.
Google oznámil, že Quick Share na Androidu funguje s AirDropem na iOS. Zatím na telefonech Pixel 10. Uživatelé tak mohou snadno přenášet soubory z telefonů s Androidem na iPhony a obráceně.
Byla vydána nová verze 8.5 (8.5.0) skriptovacího jazyka PHP používaného zejména k vývoji dynamických webových stránek. Přináší řadu novinek a vylepšení (URI Extension, Pipe Operator, Clone With, …). Vydána byla také příručka pro přechod z předchozích verzí.
Evropská komise zahájila tři vyšetřování týkající se cloudových platforem Amazon Web Services (AWS) a Microsoft Azure. Evropská exekutiva, která plní také funkci unijního antimonopolního orgánu, chce mimo jiné určit, zda jsou americké společnosti Microsoft a Amazon v cloudových službách takzvanými gatekeepery, tedy hráči, kteří významně ovlivňují provoz internetu a musí dle nařízení o digitálních trzích (DMA) na společném trhu
… více »Společnost Meta Platforms vyhrála ostře sledovaný spor o akvizici sítě pro sdílení fotografií Instagram a komunikační aplikace WhatsApp. Podle amerického soudu firma jejich převzetím neporušila antimonopolní zákon, protože si tak nemonopolizovala trh sociálních sítí. Žalobu na Metu podala před pěti lety americká Federální obchodní komise (FTC). FTC argumentovala, že Meta, tehdy známá jako Facebook, koupila tyto dvě společnosti v letech 2012 a 2014 proto, aby s nimi nemusela soutěžit.
Home Assistant včera představil svůj nejnovější oficiální hardware: Home Assistant Connect ZBT-2 pro připojení zařízení na sítích Zigbee nebo Thread.
Byla vydána verze 9.1 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a informačním videu.
Byl aktualizován seznam 500 nejvýkonnějších superpočítačů na světě TOP500. Nejvýkonnějším superpočítačem zůstává El Capitan od HPE (Cray) s výkonem 1,809 exaFLOPS. Druhý Frontier má výkon 1,353 exaFLOPS. Třetí Aurora má výkon 1,012 exaFLOPS. Nejvýkonnější superpočítač v Evropě JUPITER Booster s výkonem 1,000 exaFLOPS je na čtvrtém místě. Nejvýkonnější český superpočítač C24 klesl na 192. místo. Karolina, GPU partition klesla na 224. místo a Karolina, CPU partition na 450. místo. Další přehledy a statistiky na stránkách projektu.
Microsoft představil Azure Cobalt 200, tj. svůj vlastní SoC (System-on-Chip) postavený na ARM a optimalizovaný pro cloud.
Řešení dotazu:
To mas jednoduchy, pokud ti nejde vylozene o vykon, tak R5, pokud by ti o vykon slo, tak R10. Ale mozna lepsi varianta nez md je btrfs.Má už btrfs stabilni raid5? Já osobně jsem s btrfs šel na raid1, ten stabilní je určitě. A pozor: raid1 v btrfs není mirror (na rozdíl od mdadm).
[...] A pozor: raid1 v btrfs není mirror (na rozdíl od mdadm).btrfs raid1 neni kompletni mirror (kazdy blok je vzdy jen na 2 discich), ale uz nejakou dobu ma (tazatel musi zjistit zda i v jeho distru) podporu RAID1C4 coz je kazdy blok vzdy na 4discich...
A pozor, raid 1 je JE v btrfs MIRROR.
Není 
Jen to neznamena, ze jsou vsechna data na dvou konkretnich disich ale znamena to, ze je kazdy BLOK na DVOU discich. A kupodivu, pokud ty disky budou PRAVE DVA, tak se to bude chovat presne jako mirror.
MIRROR je zrcadlo - zrcadlí jeden disk na druhý. A pak, když se poškodí oba disky zároveň (např. náhlá potopa v serverovně), je možné vzít část dat z jednoho disku a díry zaplnit daty z druhého pouze podle polohy na disku (offsetu).
A RAID 1 v BTRFS pouze garantuje umístění (někde) na dvou discích, ale už nepoužije na obou stejnou pozici. Neříkám, že je to špatně, prostě to tak je.
A pak, když se poškodí oba disky zároveň (např. náhlá potopa v serverovně), je možné vzít část dat z jednoho disku a díry zaplnit daty z druhého pouze podle polohy na disku (offsetu).
A přesně totéž lze udělat také s Btrfs RAID1, jenom ne podle offsetu, nýbrž (jak je u Btrfs a ZFS obvyklé) mnohem lépe, flexibilněji, bezpečněji a (navíc ještě většinou) automaticky.
Jak bude u AID1 bez R zaručeno, že data, která jsou na stejném offsetu(*), jsou nepoškozená a shodná s druhou, poškozenou replikou? Když se repliky na obsahu bloku neshodnou, která má pravdu?
(*) …což je zbytečné a suboptimální, ale nic naplat, primitivní AID metadata nic lepšího určit neumí…
Btrfs dovede určit (s pravděpodobností hraničící s jistotou == 1 − pravděpodobnost kolize checksumu), které bloky se podařilo obnovit (tedy existuje alespoň jedna replika s platným checksumem) a které jsou nenávratně pryč.
AID bez R se svým (zbytečně) přesným mirrorováním tohle^^^ neumí a klidně vypustí do světa náhodná data — jenom proto, že se zrovna dají „přečíst“. Fujble.
Neříkám, že je to špatně, prostě to tak je.
Prostě to tak je a je to tak dobře.
A RAID 1 v BTRFS pouze garantuje umístění (někde) na dvou discích, ale už nepoužije na obou stejnou pozici. Neříkám, že je to špatně, prostě to tak je.Mně je tedy celkem fuk, jak si to filesystém ukládá. Důležité je, že dodává správná data.
R1 neboli tzv zrcadloRAID 1 je definován tak, jak popisuješ. Ale často (viz mdadm) je realizován jako MIRROR, to je 1:1, což je poněkud přísnější definice než RAID 1. A ano, MIRROR není oficiální název realizace 1:1 a často se používá i pro "ne 1:1" RAID 1.
R1 neboli tzv zrcadlo je definovany tak, ze kazdy sektor disku se zreplikuje na dalsi disk a konfiguraci je receno na ktery konkretne. NIKDE neni receno, ze ty sektory budou na stejnych mistech a ani byt NEMUZOU. Protoze na tom druhym disku muze byt nektery z nich trvale klidne uz z vyroby oznacen jako vadny.To hovoris o logickem nebo fyzickem layoutu disku. Ty hardchyby totiz maskuje firmware v disku a na logickem layoutu, se kterym pracuje pocitac, se neprojeví. A pokud je tam už hardchyb tolik, že se maskovat nedají, tak bych tomu už data nesvěřoval.
A uz vubec neblabol o tom, jak budes zachranovat data ze dvou vadnych disku, to jen ukazuje na to, ze vubec nechapes, k cemu je zcela libovolnej raid. Raid NENI zaloha !!!Chápu, to že zákazníkovi plaval výcvikáč - cca 1 m bahnité vody která zaplavila servery i archivní diskety a my mu nakonec data vytáhli výše popsaným postupem ze skřípějících umírajících HDD pomocí ddrescue není podle tebe pravda. PS: Asi 5 let jsem pracoval přímo ve vývoji HDD, takže o nich něco vím.
To mas jednoduchy, pokud ti nejde vylozene o vykon, tak R5, [...]Pozor, u takto velkých disků zkontrolovat Unrecoverable Read Error!
Takze stable to je jen castecne a clovek musi bejt furt ve strehu.
Jediná skutečně nestabilní záležitost v BTRFS je problém v RAID56 v případě nekorektního ukončení (Výpadek napájení, pověšení jádra), pak data která jsou "rozpracovaná" mají nekorektní checksum a přijde se o ně. Nicméně s UPS a serverovou instalací, kde nejede spousta nesmyslných programů to nemusí být problém.A u ZFS na stroji, kde jede spousta nesmyslných programů a UPS nemá, protože uživatel to první chce a za to druhé utrácet nechce, je to jak?
A este sa tu nikto v diskusii nezmienil o hammerfs co ma dragonflybsdTak si prvý. Je to jeden z FS ktorý má checksumming aj na dáta a má aj dostupné zdrojáky, takže je fajn.
Každopádně zkazky o problémech s daty v případě nějakých nečekaných událostí jsem slyšel i pár let zpátky, takže proto jsem se ptal spíše na aktuální stav, než co bylo v roce 2007.Jenže ty zkazky je potřeba analyzovat jednu po druhé. Při hledání tohoto problému (z roku 2007) jsem narazil též na "problém" kolem roku 2012, který se ale týkal všech FS (včetně tehdy nového ext4) a který se týkal zmizení dat po přejmenování souboru a následném pádu systému (nebo výpadku napájení). Podstatné je, že tento "problém" se týkal všech vs kromě jednoho velmi speciálního případu ext3 s ordered journal. Kde to fungovalo více méně náhodou. A někteří se s tím nesmířili dodnes (s tím, že by měli postupovat dle specifikace a nikoliv pocitů). Každopádně, já používám XFS dlouhodobě (i před rokem 2012) jako druhý FS do páru s BTRFS. Tam, kde nepotřebuju btrfs nebo se vyloženě nehodí (např pro provoz postgresql), nasazuju jedině xfs. Výhody jsou: Velmi rychlé vytváření (proti ext3, ext4 z počátku také velmi pomalé, postupem času tam dali různé lazy volby) - protože si tabulky vytváří (a maže) automaticky dle potřeby. S tím souvisí i optimalizace adresáře, když do ext4 adresáře naliju miliony souborů, tak adresářový záznam naroste (přirozeně) a když ty soubory smažu, tak zůstane velký (i když je v něm pouze jeden soubor) a jeho otevření trvá dlouho. Toto lze vyřešit jedině přes
fsck.ext4 -D (tedy s odstávkou).
Velmi rychlé zvětšení svazku (souvisí s předchozím).
Intenzivně používám LVM (tam, kde nelze použít BTRFS), vytvářím a rozšiřuju svazky a nechce se mi čekat.
Rychlé mazání velkých souborů. Dříve (zejména na ext3) mazání stovkyGB velkého souboru trvalo klidně i několik minut. Pokud to má člověk jako storage pro zálohy nebo image disků, tak je to celkem otravné.
xfs_fsr - "defragmentace". Co si budeme vysvětlovat, v blokovém světě a na používaném oddílu nelze dosáhnout vždy perfektně souvislých souborů, takže tento nástroj se hodí. "Stárnutí" jiných FS po letech lze pozorovat (a to i na ZFS) a není to moc hezké. Proto používám XFS a BTRFS, oba mají nástroje pro úklid.
Jedinou nevýhodou, kterou to má, je nemožnost zmenšení fs. Toto jsem nenašel ani v projektové dokumentaci pro statis, ale tam to "řeší" tak, že všechno je masivně thin provisioned, takže po smazání dat je místo dostupné. (Tedy to, co btrfs řeší levou zadní od roku 2010 a navíc btrfs má online shrink, kdyby bylo potřeba zmenšit device.)
Toto jsem nenašel ani v projektové dokumentaci pro statis, ale tam to "řeší" tak, že všechno je masivně thin provisionedTohle na rotačních discích to musí být naprostý zabiják...
Ale urcite sa nehodi napr. pre maily, kde mazanie niekolkych 100 mailov z niekolkych 1000 trvalo desiatky sekund. Z ext3 to uz bolo ok.Od optimalizace v roce 2012 se hodí i pro velmi mnoho souborů (má tam testy pro 25M souborů per thread). Pokud se ti to zadýchávalo při mazání stovek souborů, tak bylo špatně něco jiného.
Tiskni
Sdílej: