Homebrew (Wikipedie), správce balíčků pro macOS a od verze 2.0.0 také pro Linux, byl vydán ve verzi 4.5.0. Na stránce Homebrew Formulae lze procházet seznamem balíčků. K dispozici jsou také různé statistiky.
Byl vydán Mozilla Firefox 138.0. Přehled novinek v poznámkách k vydání a poznámkách k vydání pro vývojáře. Řešeny jsou rovněž bezpečnostní chyby. Nový Firefox 138 je již k dispozici také na Flathubu a Snapcraftu.
Šestnáctý ročník ne-konference jOpenSpace se koná 3. – 5. října 2025 v Hotelu Antoň v Telči. Pro účast je potřeba vyplnit registrační formulář. Ne-konference neznamená, že se organizátorům nechce připravovat program, ale naopak dává prostor všem pozvaným, aby si program sami složili z toho nejzajímavějšího, čím se v poslední době zabývají nebo co je oslovilo. Obsah, který vytvářejí všichni účastníci, se skládá z desetiminutových
… více »Richard Stallman přednáší ve středu 7. května od 16:30 na Technické univerzitě v Liberci o vlivu technologií na svobodu. Přednáška je určená jak odborné tak laické veřejnosti.
Jean-Baptiste Mardelle se v příspěvku na blogu rozepsal o novinkám v nejnovější verzi 25.04.0 editoru videa Kdenlive (Wikipedie). Ke stažení také na Flathubu.
TmuxAI (GitHub) je AI asistent pro práci v terminálu. Vyžaduje účet na OpenRouter.
Byla vydána nová verze R14.1.4 desktopového prostředí Trinity Desktop Environment (TDE, fork KDE 3.5, Wikipedie). Přehled novinek i s náhledy v poznámkách k vydání. Podrobný přehled v Changelogu.
Bylo vydáno OpenBSD 7.7. Opět bez písničky.
V Tiraně proběhl letošní Linux App Summit (LAS) (Mastodon). Zatím nesestříhané videozáznamy přednášek jsou k dispozici na YouTube.
Kde nebudu chtít COW, tak XFS.xfs ma v podstate CoW, viz zde.
-m reflink=1
.
This feature enables the creation of per-file snapshots and deduplication.tzn pro
cp --reflink=always
.
Jak se vytvoří snapshot celého fs?
Zkrátka, je nesmysl se omezovat pouze na jednu technologii. Nic jako nejlepší FS neexistuje. Vždy záleží na použití a na posouzení výhod a nevýhod. V linuxu máme možnost použít hromadu různých FS, takže pro konkrétní nasazení je vždy možné zvolit ten nejlepší.+10^10
Já bych řekl, že jde tak trochu o zavádějící informaci, kterou si lze vyložit spíš tak, že Red Hat u Enterprise verze opouští svět, kde server i úložiště bylo na jednom strojiJa bych spise rekl, ze Red Hat nevstupuje to sveta, kde je vsechno monoliticky splacane do jednoho blobu a preferuje flexibilni vrstvenou architekturu, kde ma administrator kontrolu nad jednotlivymi vrstvami a bloky, a muze si vybirat jejich implementaci.
– to je oblast kde je Btrfs nejefektivnější.Jak kdy. Pokud chcete mit treba vysoky prutok dat, i na jednom stroji, bude CPU bottleneck a nektere veci jako treba CRC ci sifrovani je lepsi offloadovat na speializovany HW. Potom je vrstveny modularni pristup lepsi.
Ja bych spise rekl, ze Red Hat nevstupuje to sveta, kde je vsechno monoliticky splacane do jednoho blobu a preferuje flexibilni vrstvenou architekturu, kde ma administrator kontrolu nad jednotlivymi vrstvami a bloky, a muze si vybirat jejich implementaci.To je sice hezké, ale ještě nikdo neukázal, jak tohle efektivně na více vrstvách implementovat. Ano, máme vrstvu redundance (MD), ale ta nemá páru o tom, které bloky jsou nebo nejsou používané, takže při výměně disku typicky syncuje vše. Může mít tabulku použitých bloků, jenže tato se bude dublovat, viz další text. Můžeme mít vrstvu rozdělení (LVM), která třeba může řešit distribuci volného místa pomocí thinprovisioningu (a to, jak to "řeší" LVM považuji za špatný vtip). To znamená, že si opět bude držet tabulku bloků přidělených jednotlivým LV a tabulku volného místa. Na tím můžeme mít "klasický" fs, který si opět vede tabulku zabraných bloků a dolů posílá info o tom, které bloky jsou uvolněné. Od roku 2009, kdy BTRFS tohle vše spojil dohromady a vyřešit tak x věcí najednou, sice kde kdo hovoří o tom, jak je to koncepčně špatně, ale ještě nikdo nepřišel s tím, jak to udělat rozdělené do x vrstev a dobře. Nehledě teda na to, že jediný argument pro rozdělení do vrstev raid, rozdělení, fs nad blokových device je asi tak na úrovni: prostě se to tak dělá.
To je sice hezké, ale ještě nikdo neukázal, jak tohle efektivně na více vrstvách implementovat.V Linuxu nikdo neukázal ani to, jak to efektivně implementovat na jedné vrstvě. Myslím funkční, takže btrfs se nepočítá.
Ano, máme vrstvu redundance (MD), ale ta nemá páru o tom, které bloky jsou nebo nejsou používané, takže při výměně disku typicky syncuje vše. Může mít tabulku použitých bloků, jenže tato se bude dublovat, viz další text.Zrovna u tabulky použitých bloků pořád nevidím principiální problém v tom, aby si tuhle tabulku buď a) udržovalo blokové zařízení, kterého by se vrstvy nad ním mohly ptát b) udržoval filesystém, kterého by se vrstvy pod ním mohly ptát
Od roku 2009, kdy BTRFS tohle vše spojil dohromady a vyřešit tak x věcí najednouTo moc nevyřešil - jak se diskutuje vedle, implementace RAIDu 5/6 je nefunkční a RAID 1 má, řekněme, významné nevýhody.
sice kde kdo hovoří o tom, jak je to koncepčně špatně, ale ještě nikdo nepřišel s tím, jak to udělat rozdělené do x vrstev a dobře.Taky se nikdo nesnažil. Postupná evoluce není tak dobrá reklama jako nový a revoluční filesystém.
Ano, máme vrstvu redundance (MD), ale ta nemá páru o tom, které bloky jsou nebo nejsou používané, takže při výměně disku typicky syncuje vše.To mi v praxi nepřijde zas takový problém:
Na tím můžeme mít "klasický" fs, který si opět vede tabulku zabraných bloků a dolů posílá info o tom, které bloky jsou uvolněné.I tohle se AFAIK v principu umí (FS ti to řekne třeba když děláš trim), akorát to nikdo neimplementoval do MD.
Nebo jinak, používáte někdo někde ten LVM thin provisioning?Ne, funguje to pěkně blbě. Teda možná to byla MŽK chyba, ale když jsem to zkoušel, tak jsem se dopracoval k tomuhle: V Debianu Jessie i Stretch není možné uvolnit místo v thin pool zmenšením LV. Po zmenšení LV zůstává podle lvs -a obsazené místo na thin pool stejné. Jediný způsob, jak místo skutečně uvolnit, je LV zcela smazat.
preferuje flexibilni vrstvenou architekturu, kde ma administrator kontrolu nad jednotlivymi vrstvami a bloky, a muze si vybirat jejich implementaci.Jj, třeba když si chce vybrat z implementace raidu, tak má na výběr z MD raid. Nebo snapshoty a svazky, tam je na výběr z device mapperu. Ne že bych tady zrovna chtěl obhajovat btrfs a jejich přístup "blbě reimplementujeme všechno, co v kernelu už je", ale těch implementací na výběr opravdu moc není.
Ostatně proto se také (pokud vím) používá u malých domácích NAS zařízení co dělá Synology.Zrovna Synology zpřístupnili btrfs docela pozdě, cca před dvěma roky, a to jen pro výkonnější systémy. A výchozí je pořád ext4, btrfs je rozšířená funkce pro znalce.
CoreOS s btrfs a je to bídaCoreOS od btrfs presel kvuli neustalym problemum zakazniku k EXT4 + OverlayFS.
Pámbů s námi a zlý pryč! Red Hell - nomen omen.CoreOS s btrfs a je to bídaCoreOS od btrfs presel kvuli neustalym problemum zakazniku k EXT4 + OverlayFS.
A fatálně rozbitou ext4 jsem zažil několikrát – na rozdíl od Btrfs.Ja mam spise opacnou zkusenost, i kdyz nevidim zadny duvod pouzivat ext4 s ohledem na existenci xfs.
U toho jsem také přišel nepěkným způsobem o data.. Naštěstí to bylo ještě v testovacím režimu, takže jsem to šupem přehodil na Btrfs a od té doby byl klid a mír.A fatálně rozbitou ext4 jsem zažil několikrát – na rozdíl od Btrfs.Ja mam spise opacnou zkusenost, i kdyz nevidim zadny duvod pouzivat ext4 s ohledem na existenci xfs.
V praci mame xfs na diskovych polich v kapacite asi 1000TB,…V tom bych řekl že vězí i ten problém s Btrfs. O tom jaký se má použít FS na tak velkých systémech rozhodují konzervativci, co mají s Btrfs jen velmi malé zkušenosti. Logicky si tedy kryjou zadek tím, že použijí to, za co se jim zaručí poskytovatel distribuce. Osobně bych si chtěl přinejmenším zkusit postavit cloudový systém na stejně výkoném HW, ale s jinými technologiemi, než se standardně používají. Pak by teprve bylo možné něco srovnávat. Jenže takovou možnost nemám. Zkoušel jsem to alespoň s tím co je, jenže v takovém prostředí, jaké jsem dostal k dispozici to bohužel bez totální přestavby nejde. Klíčový problém způsobovalo NFS, kterými jsou ty stroje vzájemně propojené. Dokud všechno jelo, ok. Jenže stačil jeden nedostupný stroj a to NFS zablokovalo IO operace na polovině nodů a to se pochopitelně někde musí negativně odrazit.
s
provedete sync
, pak disky odpojíte (u
) a restartujete (b
).
klávesnici přehodil do PS/2, což je zpracování na úrovni HW interuptu
A je?
Pokud vím, tak už řádově 10 let to takhle nefunguje.
Sem myslel, že to neumí zatím bootovat, ale je pravda, že jsem to zas tak moc neštudoval. Jako varování stačilo https://eclecticlight.co/2017/04/06/apfs-is-currently-unusable-with-most-non-english-languages/
XFS všude, kde můžu. Z mé zkušenosti má relativně dobrý výkon a zároveň je to nejrobustnější FS, jaký znám. Veškeré poruchy disků a jiné problémy přežil vždy lépe než ostatní FS.+1 Postupne jsem premigroval vse na xfs. David Chinner a jeho team odvedli dobrou praci.
Tiskni
Sdílej: