OpenSearch (Wikipedie) byl vydán ve verzi 3.0. Podrobnosti v poznámkách k vydání. Jedná se o fork projektů Elasticsearch a Kibana.
PyXL je koncept procesora, ktorý dokáže priamo spúštat Python kód bez nutnosti prekladu ci Micropythonu. Podľa testov autora je pri 100 MHz približne 30x rýchlejší pri riadeni GPIO nez Micropython na Pyboard taktovanej na 168 MHz.
Grafana (Wikipedie), tj. open source nástroj pro vizualizaci různých metrik a s ní související dotazování, upozorňování a lepší porozumění, byla vydána ve verzi 12.0. Přehled novinek v aktualizované dokumentaci.
Raspberry Pi OS, oficiální operační systém pro Raspberry Pi, byl vydán v nové verzi 2025-05-06. Přehled novinek v příspěvku na blogu Raspberry Pi a poznámkách k vydání. Pravděpodobně se jedná o poslední verzi postavenou na Debianu 12 Bookworm. Následující verze by již měla být postavena na Debianu 13 Trixie.
Richard Stallman dnes v Liberci přednáší o svobodném softwaru a svobodě v digitální společnosti. Od 16:30 v aule budovy G na Technické univerzitě v Liberci. V anglickém jazyce s automaticky generovanými českými titulky. Vstup je zdarma i pro širokou veřejnost.
sudo-rs, tj. sudo a su přepsáné do programovacího jazyka Rust, nahradí v Ubuntu 25.10 klasické sudo. V plánu je také přechod od klasických coreutils k uutils coreutils napsaných v Rustu.
Fedora se stala oficiální distribucí WSL (Windows Subsystem for Linux).
Společnost IBM představila server IBM LinuxONE Emperor 5 poháněný procesorem IBM Telum II.
Byla vydána verze 4.0 multiplatformního integrovaného vývojového prostředí (IDE) pro rychlý vývoj aplikaci (RAD) ve Free Pascalu Lazarus (Wikipedie). Přehled novinek v poznámkách k vydání. Využíván je Free Pascal Compiler (FPC) 3.2.2.
Podpora Windows 10 končí 14. října 2025. Připravovaná kampaň Konec desítek (End of 10) může uživatelům pomoci s přechodem na Linux.
Řešení dotazu:
FAT tabulka je nesmysl z rychlého a špinavého produktu (omylem zvaného operační systém) jedné rychlé a špinavé firmy.
Wear levelling na SSD slouží právě k tomu, aby se buňky, do kterých souborový systém zapisuje častěji, postupně přesouvaly mezi fyzickými bloky a nezpůsobovaly nějaké zásadní opotřebení na jednom konkrétním bloku. Nic nového pod sluncem. Za nějakých 12 let masové komerční dostupnosti SSD jsou už wear levelling algoritmy hodně pokročilé.
Navíc se jim dá pomoct tím, že se člověk vyhne nespolehlivým a zoufale fosilně zastaralým souborovým systémům typu ext4 a použije moderní souborový systém odolný proti silent data corruption a navíc s podporou copy-on-write, což wear levelling algoritmům nakonec velmi pomáhá. Btrfs nebo ZFS je jasná volba. Pokud jde o ext4, je absurdní a nepochopitelné, proč to ještě někdo používá. Při dnešních kapacitách úložišť je silent data corruption na ext4 v podstatě kritický problém — o nedávných chybách se ztrátou dat nemluvě.
Možným řešením je taky nepoužívat SSD — předražený nespolehlivý rádoby-rychlý (do prvních 10 zapsaných TB) případ WOM (write-only memory). Když jsem si tuhle pořizoval domácí server, dal jsem si tam Btrfs RAID5 pole s 6 disky po 5 TB. Jsou to 2.5" disky a SSD se na tak kompaktní pole srovnatelné kapacity v tomhle desetiletí nezmůže. A těch 700 MB/s, které to v pohodě dává, tu a tam i GB/s, mi prostě stačí. A při 128 GB RAM mě netrápí nedostatek cache nebo úvahy, jak dlouho startuje to či ono — po pár hodinách provozu stejně bude všechno v RAM. Kdo SSD nevěří, není nijak nucený ho používat — harddisky tu budou ještě dlouho a nějaké často přepisované bloky je až tolik netankují.
To je v podstatě všeho všudy FUD. Samozřejmě jsem si před sestavením toho pole přečetl všechny „děsivé“ zvěsti o tom, že „zrovna teď“ nemám používat BTRFS RAID5. Pak jsem se dočetl, že vlastně klidně jo, až na pár zbývajících okrajových případů, které se mojí konfigurace nakonec ani netýkají… A že vzhledem k docela značným časovým investicím od firem, které Btrfs používají naprosto soustavně (například Facefuck) i těch zbývajících pár chyb v RAIDu brzy zmizí. Zbývajících vlastně není to správné slovo. Nebyly tam odjakživa. Nějaká překvapení se tu a tam objeví při každém větším přepsání LUKS, LVM a/nebo VFS. A ve srovnání s desítkami kritických chyb v ext4, které v uplynulých letech doslova žraly data, je Btrfs nakonec v podstatě nejlepší volba.
Asi takhle: Zhruba od roku 2010 používám výhradně Btrfs, k naprosté spokojenosti, v nejrůznějších konfiguracích. (Ještě někde mám nějaké to ZFS, pravda.) A jízlivě, leč shovívavě se usmívám, když mé okolí láteří nad údajnou potřebou mít diskové oddíly (což je zbytečnost z minulého desetiletí) a opakovaně ztrácí data kvůli zastaralým filesystémům a silent data corruption, ale i přesto si stále myslí, že Btrfs ještě pořád není to pravé. Inu, každému, co jeho jest.
Připomeňme si fakta: Oba případy postihují mdraid i dmraid, a to s mnohem větší pravděpodobností. Jak write hole, tak poškození jednoho disku (například náhodným přepsáním) pošle do kytek celé RAID5 pole (protože nemá checksumy a začne se resilverovat z neplatných dat). Btrfs se svými checksumy naopak většinu takových extrémů ustojí. A i pokud ne, aspoň nebude náhodně vracet náhodná data, což je taky v jistém smyslu cenná vlastnost.
Takže ano, jsou tam nedostatky, na ZFS zatím Btrfs nemá co do spolehlivosti, ale pořád je lepší než rádoby-RAID5 od hardwarových řadičů, LVM (dmraid) nebo mdraid, protože vše uvedené má kritické problémy a nedostatky, které právě Btrfs řeší.
Ne, není. Doporučuji zjistit si fakta.
Jednoduchý, byť extrémní test: přepsání celého jednoho disku v poli nulami. Btrfs to ustojí, zatímco rádoby-RAID (mdraid/dmraid) nikoliv a ještě u toho zničí všechna data. Ale to už jsem vysvětloval v různých vláknech asi stokrát, proč RAID funguje, jak má, pouze pokud je integrovaný do filesystému. Nechápu, co je na tom asi tak 10 let od prvních produkčních nasazení ZFS ještě někomu nejasného. :-/
Nerozmýšlal si, že prečo tu mrháš čas vysvetlovaním. Nevyužil by si čas opravou chýb v tvojom ospevovanom fs ?
Kdyby mi některé z těch chyb překážely, třeba bych to zkusil. Žádné mi ale právě teď nepřekáží. Které to jsou, mimochodem?.
Kromě toho, zabývat se FS je většinou vhodné jako full-time práce, nikoliv jako koníček. Přece jen to vyžaduje docela značné soustředění na jeden specifický projekt.
Ale to už jsem vysvětloval v různých vláknech asi stokrát, proč RAID funguje, jak má, pouze pokud je integrovaný do filesystému.Protipříklad 1: disk se sektorem velkým 520 bajtů, kde je 512 bajtů normální blok a zbytek checksum. Výsledkem je normální blockdevice, nad kterým funguje checksumovaný RAID. Používá IBM AS/400. Protipříklad 2: RAID6 a RAID2.
Používá IBM AS/400.
Dobře, něco třeba zase používal ENIAC, :-P ale pro domácí systém na desktopovém hardwaru mi to přijde zoufale irelevantní.
Protipříklad 2: RAID6 a RAID2.
Tak tady bych čekal trochu víc abstraktního uvažování. RAID6 má ustát výpadek dvou disků. Co takhle přepsat tedy dva disky nulami? A pak to pole nechat resilverovat, samozřejmě. (Bez FS s checksumy to opravdu nedopadne dobře.)
Na desynchronizaci samozřejmě přijde. Klíčové slovo je transid
.
Že je možnost silent data corruption, to je názor dost závislý na tom, jaká rizika jsou pro koho přijatelná. Co třeba cat /dev/zero > /dev/sde
… jejda, ouha, on to nebyl ten experimentální flashdisk, nýbrž poslední disk pole, ale uživatel si toho nevšiml a pak to přerušil, protože to trvalo dlouho, a začal se zabývat něčím jiným. Jo, kdybych se s tím nesetkal a kdyby to později nesežralo celé pole, možná bych dneska věřil, že RAID5 funguje. No, příliš nefunguje. Přesněji, nefunguje tak dobře, jak může fungovat v součinnosti se ZFS nebo Btrfs.
I takhle^^^ může vzniknout silent data corruption. Třeba se shodou šťastných náhod během celého zbytku uptime nic zásadního nestane. Proto silent. Pozdější odhalení tohoto problému způsobí u starého RAIDu něco jako apokalypsu, zatímco u Btrfs a ZFS půjde všeho všudy o drobnou nepříjemnost a veselou historku na pozdější chlastanici.
Že mají disky checksumy, to přece neznamená až tolik. Je obrovská spousta jiných možných příčin poškození dat než špatné přečtení nebo špatný zápis. (Jak dobře chrání checksumy levné disky před špatným zápisem, mimochodem?)
mdadm --fail /dev/mdX /dev/sdeX
Riziko silent data corruption dnes začíná (dle studií NEC) někde kolem 1 chyby na petabajt, než se dostaneme ke stoterabajtovým diskům, kde by už začalo jít o vážné riziko např. v porovnání s data corruption v ne-ECC RAM, pravděpodobně bude ještě o řád či dva nižší, jako kleslo riziko URE, když gigabajtové disky nahradily terabajtové. Pomalu to začíná být reálné, proto se ty filesystémy objevují, ale je to stále řádově méně pravděpodobné, než problémy s desynchronizací RAIDu, které Btrfs má a jsou dobře zdokumentované.
o řád či dva nižšíJde o binární řád či dva (na polovinu až čtvrtinu), URE se uvádí v pravděpodobnosti 2⁻ⁿ.
parent transid verify failed on XXX wanted YYY found ZZZ Ignoring transid failurea ten disk připojí, jako kdyby žádný problém nebyl
A ve srovnání s desítkami kritických chyb v ext4, které v uplynulých letech doslova žraly dataTřeba?
Ale no tak. Opravdu je tak těžké hledat?
A ve srovnání s desítkami kritických chyb v ext4, které v uplynulých letech doslova žraly dataFYI btrfs používám od 3.19, o data jsem dvakrát přišel totálně (tohle a btrfsck smazal všechny adresáře a pak to při mountu řeklo
failed to read chunk root on xxx, open_ctree failed
) a narazil jsem na čtyři bugy dost nabourávající provoz (race condition vracející I/O error aniž by to cokoli zalogovalo, FS ve stavu po rebootu vždy vyžadujícím zero-log, mountování trvající minutu, nevypnutelný autodefrag (opraveno kolem 4.4)), Podotýkám, že ve všech šesti případech scrub proběhl bez jediné chyby. Na to, že jsem btrfs měl vlastně na čtyřech strojích (oproti desítkám strojů s ext3/4), je to docela výkon.
Ano, zero-log jsem zažil jednou v roce 2010 a jednou v roce 2012, kdy šlo o nekompatibilitu v synchronizaci mezi Btrfs a vrstvami pod ním, které tenkrát byly mdraid (protože Btrfs tehdy neměl RAID5) a LUKS. Ale že bych tohle Btrfs nějak extrémně vyčítal, to se říct nedá.
O data jsem nikdy nepřišel. Naopak jsem měl s nefunkčními (nevhodnými pro 21. století) FS typu Ext4 chronický problém s poškozenými soubory. Asi tak třikrát do roka prostě přestal fungovat nějaký program (segfault, apokalypsa) a jeho reinstalace to zázračně opravila. Od nasazení Btrfs mám přesně nula takových problémů. Když mám poškozený soubor (což se mi asi třikrát stalo), vím rovnou přesně který to je. Smazat, přeinstalovat balíček, život jde dál. FS mi nevrací náhodná neplatná data. A toho si zkrátka cením.
Asi tak třikrát do roka prostě přestal fungovat nějaký program (segfault, apokalypsa) a jeho reinstalace to zázračně opravila.To jsem měl taky na slackware. Kvůli nějaké chybě závislostí při dist-upgrade se musely dva balíčky instalovat ve správně sekvenci jinak nefungoval textový editor. Jinak v instalátoru slackware 14.2 je btrfs jako experimentální a má tu vlastnost že se na něj nedá ten slackware nedá nainstalovat
By mě zajímalo, co s tím děláš.Mě taky.
Láryfáry. Já jsem celé své diskové pole pořídil (prosinec 2016) za cenu pod 1400 CHF. Pětkrát menší pole sestavené z SSD by mě bývalo stálo 4500 CHF, dvaapůlkrát menší pole z SSD jsem mohl mít za 7500 CHF. To se mi ovšem trochu nezdálo, mírně řečeno, ve srovnání s cenami pevných disků.
Rotační disky umřou, jakmile budou SSD za srovnatelnou cenu (což dnes nebude) a stejně spolehlivá (což nebude ani zítra). No, takže možná pozítří, že jo.
Já jsem celé své diskové pole pořídil (prosinec 2016) za cenu pod 1400 CHF. Pětkrát menší pole sestavené z SSD by mě bývalo stálo 4500 CHFAsi tě to překvapí, ale pro některá použití se kromě kapacity uvažuje třeba i o rychlosti. Z pole čtyř 5 let starých desktopových SSDček jsem vyrazil 160 kIO/s. Kolik že dá to tvoje pole rotačních disků?
Nevím. Nevím, protože mě to nezajímá a připadá mi to naprosto nepodstatné při naprosté většině mých domácích use casů.
Ano, v práci máme třeba workloady, de kIO/s opravdu hraje naprosto zásadní roli a harddisky by se tam vůbec nehodily. Ale na mém domácím stroji nic takového není. Pokud mi někdy na kIO/s začne záležet, rozhodně si pořídím pár SSD. Nic proti nim nemám. Klidně můžou selhat, protože na nich budu mít dobrý FS, který se se selháním dokáže korektně vypořádat.
Pak se zdá, že pro některého uživatele a některé využití je lepší SSD. (Nikde netvrdím opak.)
Asi by stálo za to zamyslet se nad významem sousloví broken by design. Ext4 je broken by design, stejně jako každý filesystém, který nemá vestavěné checksumy, který neumí replikovat data i metadata podle gusta (i v rámci jednoho média) a který nedovede předcházet silent data corruption — jinými slovy, klidně přečte nesmysly a nehne ani brvou.
Nejrůznějších osobních názorů v mailing listech, že Btrfs | ZFS <ten či onen FS> je broken by design, se objevilo už asi tak dvacet, ale žádný se příliš neujal.
Já nepoužívám Btrfs místo Ext4. Ext4 je prostě chybné řešení z minulého desetiletí, které zaspalo dobu a do současného desetiletí nepatří. Používal jsem Reiser4, který byl sice nejrychlejším filesystémem všech dob, ale ve chvíli, kdy začlenění do kernelu zmizelo v nedohlednu a patche přestaly být udržované (2010), nastal čas poohlédnout se po novějším řešení, které odpovídá současným požadavkům a diskovým kapacitám. Řešením byl pochopitelně ZFS a později Btrfs. Proč někdo používá paskvily bez checksumů a bez redundance, tomu vůbec nerozumím. Zkrátka nemám tak silnou zálibu v adrenalinu.
ZFS na Linuxu přímo nativně existuje, je to prověřený „produkční“ FS a dá se používat. Ano, mít zfs a spl překládané zvlášť kvůli CDDL je voser, ale nic nebrání distribucím mít je jako balíčky.
Pokud jde o Btrfs, že by se snad všichni tihle uživatelé mýlili? To asi ne. Prostě vyhodnotili, že jim přináší nějakou zásadní přidanou hodnotu, a nasadili ho. RAID5 a RAID6 v Btrfs možná není zrovna vyspělá a „produkčně“ nasaditelná technologie a RAIDZ3 ani vyšší redundance zatím Btrfs neumí, ale to je spíš otázka času.
A ten čas bude tím kratší, čím méně FUDu kolem Btrfs bude. Tak je to ostatně s každou novou technologií.
Léty prověřený Ext4. No jasně.Dobrá, tak jste odkázal jednu "chybu filesystému", kde ve skutečnosti byly na vině chybné aplikace očekávající něco, co dle standardu očekávat neměly a nemohly. Filesystém se choval zcela korektně. Nějaká reálná chyba by nebyla, což?
Ale byla, samozřejmě, roztrhl se s nimi pytel v letech 2012 a 2015, což byly tak vážné incidenty, že trochu zastínily ty ostatní menší. Jak už jsem psal výše, představa, že Ext4 je „spolehlivější“ než Btrfs, je scestná. Ext4 (stejně jako všechny FS bez checksumů, replikace (meta)dat a CoW) je flawed by design a nepodpovídá dnešním kapacitám úložišť a požadavkům na spolehlivost. Nic složitějšího aní reálnějšího bych v tom nehledal.
Anekdoty o ztrátě dat existují asi tak pro všechny filesystémy, tedy pochopitelně i pro Btrfs.
Někteří Btrfs mají za zlé, že místo aby vracel náhodné nesmysly a o něco se pokoušel třeba nad vadným diskem nebo nad chybně a náhodně přepsaným diskem, prostě rovnou řekne, že to nejde.
Nevím o tom, že by Btrfs kdy měl průser srovnatelný se „slavnými“ Ext4 chybami. (Teď nemluvím o nějaké jednotlivé situaci / anekdotě, ale o celkových dopadech.)
Tak už to bývá, že když mi nějaký software dlouho spolehlivě slouží, chtě nechtě jsem trochu zaujatý v jeho prospěch.
Dobrá, tak jste odkázal jednu "chybu filesystému", kde ve skutečnosti byly na vině chybné aplikace očekávající něco, co dle standardu očekávat neměly a nemohly.Epic fail.
Mnohem větší problém než write hole všeho druhu je silent data corruption. Zapíšu, zavolám sync, všechno je v pořádku, ale příště odtamtud prostě přečtu něco jiného. Takový problém donedávna (10 let zpátky, řekněme) zdánlivě neexistoval. Jenže dnešní disky jsou nesrovnatelně větší a jejich odolnost vůči silent data corruption není valná, zejména poté, co nekorektní triky s předstíráním sync začaly být naprosto běžné i u dražších disků v RAED polích (což je ošklivá parafráze, ale leckdy odpovídá realitě lépe než RAID). Kromě toho, poškození dat rozhodně nemusí vznikat jenom kvůli disku. Dokonce ani nemusí být záležitostí hardwaru. Náhodné změny může způsobit vadný řadič, vadný kabel, vadná cache disku, vadná RAM (bez ECC) nebo klidně taky bug v kernelu. Pro všechny takové případy se hodí checksumy a redundance na úrovni filesystému.
Problém nastane, pokud vypadne proud mezi zápisem dat a syncem.Jo, jasně, to je v pořádku - dokud se mi nevrátil sync, data nejsou zapsaná vůbec (a to, co už se zapsalo, toho si nevšímám.)
Pak je to jenom otázka času. Btrfs prostě někdo opraví. Tedy, těch několik okrajových případů, u kterých by se uživatel musel hodně snažit, aby je potkal.
Případně je tu ZFS, který má nejen RAID6, ale i vyšší stupně redundance, třeba toleranci selhání 3 disků z N.
Tolik asi k té otázce času.
RAID10 funguje velmi dobře a spolehlivě už několik let.Mně se to tak dlouho náhodně rozesíralo, až jsem to z produkce vykopal a teď to používám jenom na zálohy (kde jsem nic lepšího nevymyslel kvůli snapshotům) (máme dva stroje na zálohy a doufám, že se to nerozbije na obou současně). A když se to teď rozbilo, tak jsem spustil mkfs.btrfs a zálohy rsyncuju znova.
Aha. To vysvětluje mnohé.
32768 klíčů v OpenSSL bylo tenkrát kdysi taky trochu backport.
Zastaralé jádro může být v případě Btrfs dost zásadní problém. Hlavně pokud jde o nejnovější opravy. Problém tedy není, co jádro Debianu obsahuje, nýbrž co neobsahuje.
Ještě někdo se ptá, proč zakázat anonymy na ABCLinuxu? Tady^^^ je důvod číslo 574 z tisíce.
OS do něho (naštěstí!) nemůže nijak zasahovat Kdyby SSD spoléhal na to, že wear leveling vyřeší OS, byl by to naprosto nepoužitelný kus hardware.Já si naopak myslím, že kdyby se to nechalo na OS, bylo by to lepší - protože OS má víc informací (tady je soubor, tady jsou metadata, …), na rozdíl od TRIMu tak může dělat wear levelling s lepší granularitou. Ostatně v Linuxu už to dávno je, JFFS2 a několik novějších alternativ.
OS neví, jak konkrétně se chová typ buněk v tom disku.Když by disk měl dva režimy. jeden kdy se chová jako standardní SATA. A druhý, kdy na stejném SATA pojede jiný set příkazů (pro SSD operace) kdy se OS může zeptat na všechny potřebné informace k konstrukci SSD ako jsou velikosti bloku na čtení zásip mazáni. časové délky těchto operaci, a možná ještě další informace, tak bude na čem pracovat. Když si vezmeš, tak to jak postavit FS máme důležité implementace alespoň Ext4, XFS, JFS a asi i nevyvíjené FS od Reisera. (nemluvě z ZFS a btrfs) Každý v podstatě vyjadřuje trochu jiný názor, jak uspořádat infomrace (a metainformace) na rotačním disku tak, abychom dostali dobrý FS. Pro SSD nic takového nemáme. Díky tomu, že SSD neposkytne informace, jak to má uvnitř, ani na tom nemůže nikdo pracovat. A všichni jsme závislí na kvalitě optimalizace, který si vymyslí výrobce SSD a řadiče a pokud je tam chyba tak to vlastně nikdo nenajde.
mt
. I s diskem můžeš pracovat jako "s velmi rychlou páskovou jednotkou" a lebedit si jak rychle ti fungují příkazy fsf, bsf, seek, rewind
. A to že s disky můžeme pracovat efektivněji je dané rozvojem různých FS počínaje třeba prastarým BDAM z IBM OS/360. A podle mne SSD (a NVMe) jsou také zařízení s zcela jinou fyzikální strukturou záznamu a vlastnostmi než rotační disky, a v současnoti s nimi pracujeme podobně neohrabaně, jako bychom s disky pracovali přes příkazy pro magnetickou pásku a nebo jaká byly v 60 letech minulého století práce s prvními rotačními disky prvními filovými systémy.
touch znicit opakuj stale { chmod 000 znicit chmod 777 znicit }tak se vlastně nic neděje?
Tiskni
Sdílej: