Vývoj linuxové distribuce Clear Linux (Wikipedie) vyvíjené společností Intel a optimalizováné pro jejich procesory byl oficiálně ukončen.
Byl publikován aktuální přehled vývoje renderovacího jádra webového prohlížeče Servo (Wikipedie).
V programovacím jazyce Go naprogramovaná webová aplikace pro spolupráci na zdrojových kódech pomocí gitu Forgejo byla vydána ve verzi 12.0 (Mastodon). Forgejo je fork Gitei.
Nová čísla časopisů od nakladatelství Raspberry Pi zdarma ke čtení: Raspberry Pi Official Magazine 155 (pdf) a Hello World 27 (pdf).
Hyprland, tj. kompozitor pro Wayland zaměřený na dláždění okny a zároveň grafické efekty, byl vydán ve verzi 0.50.0. Podrobný přehled novinek na GitHubu.
Patrick Volkerding oznámil před dvaatřiceti lety vydání Slackware Linuxu 1.00. Slackware Linux byl tenkrát k dispozici na 3,5 palcových disketách. Základní systém byl na 13 disketách. Kdo chtěl grafiku, potřeboval dalších 11 disket. Slackware Linux 1.00 byl postaven na Linuxu .99pl11 Alpha, libc 4.4.1, g++ 2.4.5 a XFree86 1.3.
Ministerstvo pro místní rozvoj (MMR) jako první orgán státní správy v Česku spustilo takzvaný „bug bounty“ program pro odhalování bezpečnostních rizik a zranitelných míst ve svých informačních systémech. Za nalezení kritické zranitelnosti nabízí veřejnosti odměnu 1000 eur, v případě vysoké závažnosti je to 500 eur. Program se inspiruje přístupy běžnými v komerčním sektoru nebo ve veřejné sféře v zahraničí.
Vláda dne 16. července 2025 schválila návrh nového jednotného vizuálního stylu státní správy. Vytvořilo jej na základě veřejné soutěže studio Najbrt. Náklady na přípravu návrhu a metodiky činily tři miliony korun. Modernizovaný dvouocasý lev vychází z malého státního znaku. Vizuální styl doprovází originální písmo Czechia Sans.
Vyhledávač DuckDuckGo je podle webu DownDetector od 2:15 SELČ nedostupný. Opět fungovat začal na několik minut zhruba v 15:15. Další služby nesouvisející přímo s vyhledáváním, jako mapy a AI asistent jsou dostupné. Pro některé dotazy během výpadku stále funguje zobrazování například textu z Wikipedie.
Více než 600 aplikací postavených na PHP frameworku Laravel je zranitelných vůči vzdálenému spuštění libovolného kódu. Útočníci mohou zneužít veřejně uniklé konfigurační klíče APP_KEY (např. z GitHubu). Z více než 260 000 APP_KEY získaných z GitHubu bylo ověřeno, že přes 600 aplikací je zranitelných. Zhruba 63 % úniků pochází z .env souborů, které často obsahují i další citlivé údaje (např. přístupové údaje k databázím nebo cloudovým službám).
Řešení dotazu:
To mas jednoduchy, pokud ti nejde vylozene o vykon, tak R5, pokud by ti o vykon slo, tak R10. Ale mozna lepsi varianta nez md je btrfs.Má už btrfs stabilni raid5? Já osobně jsem s btrfs šel na raid1, ten stabilní je určitě. A pozor: raid1 v btrfs není mirror (na rozdíl od mdadm).
[...] A pozor: raid1 v btrfs není mirror (na rozdíl od mdadm).btrfs raid1 neni kompletni mirror (kazdy blok je vzdy jen na 2 discich), ale uz nejakou dobu ma (tazatel musi zjistit zda i v jeho distru) podporu RAID1C4 coz je kazdy blok vzdy na 4discich...
A pozor, raid 1 je JE v btrfs MIRROR.
Není
Jen to neznamena, ze jsou vsechna data na dvou konkretnich disich ale znamena to, ze je kazdy BLOK na DVOU discich. A kupodivu, pokud ty disky budou PRAVE DVA, tak se to bude chovat presne jako mirror.
MIRROR je zrcadlo - zrcadlí jeden disk na druhý. A pak, když se poškodí oba disky zároveň (např. náhlá potopa v serverovně), je možné vzít část dat z jednoho disku a díry zaplnit daty z druhého pouze podle polohy na disku (offsetu).
A RAID 1 v BTRFS pouze garantuje umístění (někde) na dvou discích, ale už nepoužije na obou stejnou pozici. Neříkám, že je to špatně, prostě to tak je.
A pak, když se poškodí oba disky zároveň (např. náhlá potopa v serverovně), je možné vzít část dat z jednoho disku a díry zaplnit daty z druhého pouze podle polohy na disku (offsetu).
A přesně totéž lze udělat také s Btrfs RAID1, jenom ne podle offsetu, nýbrž (jak je u Btrfs a ZFS obvyklé) mnohem lépe, flexibilněji, bezpečněji a (navíc ještě většinou) automaticky.
Jak bude u AID1 bez R zaručeno, že data, která jsou na stejném offsetu(*), jsou nepoškozená a shodná s druhou, poškozenou replikou? Když se repliky na obsahu bloku neshodnou, která má pravdu?
(*) …což je zbytečné a suboptimální, ale nic naplat, primitivní AID metadata nic lepšího určit neumí…
Btrfs dovede určit (s pravděpodobností hraničící s jistotou == 1 − pravděpodobnost kolize checksumu), které bloky se podařilo obnovit (tedy existuje alespoň jedna replika s platným checksumem) a které jsou nenávratně pryč.
AID bez R se svým (zbytečně) přesným mirrorováním tohle^^^ neumí a klidně vypustí do světa náhodná data — jenom proto, že se zrovna dají „přečíst“. Fujble.
Neříkám, že je to špatně, prostě to tak je.
Prostě to tak je a je to tak dobře.
A RAID 1 v BTRFS pouze garantuje umístění (někde) na dvou discích, ale už nepoužije na obou stejnou pozici. Neříkám, že je to špatně, prostě to tak je.Mně je tedy celkem fuk, jak si to filesystém ukládá. Důležité je, že dodává správná data.
R1 neboli tzv zrcadloRAID 1 je definován tak, jak popisuješ. Ale často (viz mdadm) je realizován jako MIRROR, to je 1:1, což je poněkud přísnější definice než RAID 1. A ano, MIRROR není oficiální název realizace 1:1 a často se používá i pro "ne 1:1" RAID 1.
R1 neboli tzv zrcadlo je definovany tak, ze kazdy sektor disku se zreplikuje na dalsi disk a konfiguraci je receno na ktery konkretne. NIKDE neni receno, ze ty sektory budou na stejnych mistech a ani byt NEMUZOU. Protoze na tom druhym disku muze byt nektery z nich trvale klidne uz z vyroby oznacen jako vadny.To hovoris o logickem nebo fyzickem layoutu disku. Ty hardchyby totiz maskuje firmware v disku a na logickem layoutu, se kterym pracuje pocitac, se neprojeví. A pokud je tam už hardchyb tolik, že se maskovat nedají, tak bych tomu už data nesvěřoval.
A uz vubec neblabol o tom, jak budes zachranovat data ze dvou vadnych disku, to jen ukazuje na to, ze vubec nechapes, k cemu je zcela libovolnej raid. Raid NENI zaloha !!!Chápu, to že zákazníkovi plaval výcvikáč - cca 1 m bahnité vody která zaplavila servery i archivní diskety a my mu nakonec data vytáhli výše popsaným postupem ze skřípějících umírajících HDD pomocí ddrescue není podle tebe pravda. PS: Asi 5 let jsem pracoval přímo ve vývoji HDD, takže o nich něco vím.
To mas jednoduchy, pokud ti nejde vylozene o vykon, tak R5, [...]Pozor, u takto velkých disků zkontrolovat Unrecoverable Read Error!
Jediná skutečně nestabilní záležitost v BTRFS je problém v RAID56 v případě nekorektního ukončení (Výpadek napájení, pověšení jádra), pak data která jsou "rozpracovaná" mají nekorektní checksum a přijde se o ně. Nicméně s UPS a serverovou instalací, kde nejede spousta nesmyslných programů to nemusí být problém.A u ZFS na stroji, kde jede spousta nesmyslných programů a UPS nemá, protože uživatel to první chce a za to druhé utrácet nechce, je to jak?
A este sa tu nikto v diskusii nezmienil o hammerfs co ma dragonflybsdTak si prvý. Je to jeden z FS ktorý má checksumming aj na dáta a má aj dostupné zdrojáky, takže je fajn.
Každopádně zkazky o problémech s daty v případě nějakých nečekaných událostí jsem slyšel i pár let zpátky, takže proto jsem se ptal spíše na aktuální stav, než co bylo v roce 2007.Jenže ty zkazky je potřeba analyzovat jednu po druhé. Při hledání tohoto problému (z roku 2007) jsem narazil též na "problém" kolem roku 2012, který se ale týkal všech FS (včetně tehdy nového ext4) a který se týkal zmizení dat po přejmenování souboru a následném pádu systému (nebo výpadku napájení). Podstatné je, že tento "problém" se týkal všech vs kromě jednoho velmi speciálního případu ext3 s ordered journal. Kde to fungovalo více méně náhodou. A někteří se s tím nesmířili dodnes (s tím, že by měli postupovat dle specifikace a nikoliv pocitů). Každopádně, já používám XFS dlouhodobě (i před rokem 2012) jako druhý FS do páru s BTRFS. Tam, kde nepotřebuju btrfs nebo se vyloženě nehodí (např pro provoz postgresql), nasazuju jedině xfs. Výhody jsou: Velmi rychlé vytváření (proti ext3, ext4 z počátku také velmi pomalé, postupem času tam dali různé lazy volby) - protože si tabulky vytváří (a maže) automaticky dle potřeby. S tím souvisí i optimalizace adresáře, když do ext4 adresáře naliju miliony souborů, tak adresářový záznam naroste (přirozeně) a když ty soubory smažu, tak zůstane velký (i když je v něm pouze jeden soubor) a jeho otevření trvá dlouho. Toto lze vyřešit jedině přes
fsck.ext4 -D
(tedy s odstávkou).
Velmi rychlé zvětšení svazku (souvisí s předchozím).
Intenzivně používám LVM (tam, kde nelze použít BTRFS), vytvářím a rozšiřuju svazky a nechce se mi čekat.
Rychlé mazání velkých souborů. Dříve (zejména na ext3) mazání stovkyGB velkého souboru trvalo klidně i několik minut. Pokud to má člověk jako storage pro zálohy nebo image disků, tak je to celkem otravné.
xfs_fsr
- "defragmentace". Co si budeme vysvětlovat, v blokovém světě a na používaném oddílu nelze dosáhnout vždy perfektně souvislých souborů, takže tento nástroj se hodí. "Stárnutí" jiných FS po letech lze pozorovat (a to i na ZFS) a není to moc hezké. Proto používám XFS a BTRFS, oba mají nástroje pro úklid.
Jedinou nevýhodou, kterou to má, je nemožnost zmenšení fs. Toto jsem nenašel ani v projektové dokumentaci pro statis, ale tam to "řeší" tak, že všechno je masivně thin provisioned, takže po smazání dat je místo dostupné. (Tedy to, co btrfs řeší levou zadní od roku 2010 a navíc btrfs má online shrink, kdyby bylo potřeba zmenšit device.)
Toto jsem nenašel ani v projektové dokumentaci pro statis, ale tam to "řeší" tak, že všechno je masivně thin provisionedTohle na rotačních discích to musí být naprostý zabiják...
Ale urcite sa nehodi napr. pre maily, kde mazanie niekolkych 100 mailov z niekolkych 1000 trvalo desiatky sekund. Z ext3 to uz bolo ok.Od optimalizace v roce 2012 se hodí i pro velmi mnoho souborů (má tam testy pro 25M souborů per thread). Pokud se ti to zadýchávalo při mazání stovek souborů, tak bylo špatně něco jiného.
Tiskni
Sdílej: