Desktopové prostředí LXQt (Lightweight Qt Desktop Environment, Wikipedie) vzniklé sloučením projektů Razor-qt a LXDE bylo vydáno ve verzi 2.3.0. Přehled novinek v poznámkách k vydání.
Organizace Open Container Initiative (OCI) (Wikipedie), projekt nadace Linux Foundation, vydala Runtime Specification 1.3 (pdf), tj. novou verzi specifikace kontejnerového běhového prostředí. Hlavní novinkou je podpora FreeBSD.
Nový open source router Turris Omnia NG je v prodeji. Aktuálně na Allegro, Alternetivo, Discomp, i4wifi a WiFiShop.
Na YouTube a nově také na VHSky byly zveřejněny sestříhané videozáznamy přednášek z letošního OpenAltu.
Jednou za rok otevírá společnost SUSE dveře svých kanceláří široké veřejnosti. Letos je pro vás otevře 26. listopadu v 16 hodin v pražském Karlíně. Vítáni jsou všichni, kdo se chtějí dozvědět více o práci vývojářů, prostředí ve kterém pracují a o místní firemní kultuře. Můžete se těšit na krátké prezentace, které vám přiblíží, na čem inženýři v Praze pracují, jak spolupracují se zákazníky, partnery i studenty, proč mají rádi open source a co
… více »Na čem pracují vývojáři webového prohlížeče Ladybird (GitHub)? Byl publikován přehled vývoje za říjen (YouTube).
Jeff Quast otestoval současné emulátory terminálu. Zaměřil se na podporu Unicode a výkon. Vítězným emulátorem terminálu je Ghostty.
Amazon bude poskytovat cloudové služby OpenAI. Cloudová divize Amazon Web Services (AWS) uzavřela s OpenAI víceletou smlouvu za 38 miliard USD (803,1 miliardy Kč), která poskytne majiteli chatovacího robota s umělou inteligencí (AI) ChatGPT přístup ke stovkám tisíc grafických procesů Nvidia. Ty bude moci využívat k trénování a provozování svých modelů AI. Firmy to oznámily v dnešní tiskové zprávě. Společnost OpenAI také nedávno
… více »Konference Prague PostgreSQL Developer Day 2026 (P2D2) se koná 27. a 28. ledna 2026. Konference je zaměřena na témata zajímavá pro uživatele a vývojáře. Příjem přednášek a workshopů je otevřen do 14. listopadu. Vítáme témata související s PostgreSQL či s databázemi obecně, a mohou být v češtině či angličtině.
Byl vydán Devuan 6 Excalibur. Přehled novinek v poznámkách k vydání. Kódové jméno Excalibur bylo vybráno podle planetky 9499 Excalibur. Devuan (Wikipedie) je fork Debianu bez systemd. Devuan 6 Excalibur vychází z Debianu 13 Trixie. Devuan 7 ponese kódové jméno Freia.
Tiskni
Sdílej:
.
Kde nebudu chtít COW, tak XFS.xfs ma v podstate CoW, viz zde.
-m reflink=1.
This feature enables the creation of per-file snapshots and deduplication.tzn pro
cp --reflink=always.
Jak se vytvoří snapshot celého fs?
Zkrátka, je nesmysl se omezovat pouze na jednu technologii. Nic jako nejlepší FS neexistuje. Vždy záleží na použití a na posouzení výhod a nevýhod. V linuxu máme možnost použít hromadu různých FS, takže pro konkrétní nasazení je vždy možné zvolit ten nejlepší.+10^10
Já bych řekl, že jde tak trochu o zavádějící informaci, kterou si lze vyložit spíš tak, že Red Hat u Enterprise verze opouští svět, kde server i úložiště bylo na jednom strojiJa bych spise rekl, ze Red Hat nevstupuje to sveta, kde je vsechno monoliticky splacane do jednoho blobu a preferuje flexibilni vrstvenou architekturu, kde ma administrator kontrolu nad jednotlivymi vrstvami a bloky, a muze si vybirat jejich implementaci.
– to je oblast kde je Btrfs nejefektivnější.Jak kdy. Pokud chcete mit treba vysoky prutok dat, i na jednom stroji, bude CPU bottleneck a nektere veci jako treba CRC ci sifrovani je lepsi offloadovat na speializovany HW. Potom je vrstveny modularni pristup lepsi.
Ja bych spise rekl, ze Red Hat nevstupuje to sveta, kde je vsechno monoliticky splacane do jednoho blobu a preferuje flexibilni vrstvenou architekturu, kde ma administrator kontrolu nad jednotlivymi vrstvami a bloky, a muze si vybirat jejich implementaci.To je sice hezké, ale ještě nikdo neukázal, jak tohle efektivně na více vrstvách implementovat. Ano, máme vrstvu redundance (MD), ale ta nemá páru o tom, které bloky jsou nebo nejsou používané, takže při výměně disku typicky syncuje vše. Může mít tabulku použitých bloků, jenže tato se bude dublovat, viz další text. Můžeme mít vrstvu rozdělení (LVM), která třeba může řešit distribuci volného místa pomocí thinprovisioningu (a to, jak to "řeší" LVM považuji za špatný vtip). To znamená, že si opět bude držet tabulku bloků přidělených jednotlivým LV a tabulku volného místa. Na tím můžeme mít "klasický" fs, který si opět vede tabulku zabraných bloků a dolů posílá info o tom, které bloky jsou uvolněné. Od roku 2009, kdy BTRFS tohle vše spojil dohromady a vyřešit tak x věcí najednou, sice kde kdo hovoří o tom, jak je to koncepčně špatně, ale ještě nikdo nepřišel s tím, jak to udělat rozdělené do x vrstev a dobře. Nehledě teda na to, že jediný argument pro rozdělení do vrstev raid, rozdělení, fs nad blokových device je asi tak na úrovni: prostě se to tak dělá.
To je sice hezké, ale ještě nikdo neukázal, jak tohle efektivně na více vrstvách implementovat.V Linuxu nikdo neukázal ani to, jak to efektivně implementovat na jedné vrstvě. Myslím funkční, takže btrfs se nepočítá.
Ano, máme vrstvu redundance (MD), ale ta nemá páru o tom, které bloky jsou nebo nejsou používané, takže při výměně disku typicky syncuje vše. Může mít tabulku použitých bloků, jenže tato se bude dublovat, viz další text.Zrovna u tabulky použitých bloků pořád nevidím principiální problém v tom, aby si tuhle tabulku buď a) udržovalo blokové zařízení, kterého by se vrstvy nad ním mohly ptát b) udržoval filesystém, kterého by se vrstvy pod ním mohly ptát
Od roku 2009, kdy BTRFS tohle vše spojil dohromady a vyřešit tak x věcí najednouTo moc nevyřešil - jak se diskutuje vedle, implementace RAIDu 5/6 je nefunkční a RAID 1 má, řekněme, významné nevýhody.
sice kde kdo hovoří o tom, jak je to koncepčně špatně, ale ještě nikdo nepřišel s tím, jak to udělat rozdělené do x vrstev a dobře.Taky se nikdo nesnažil. Postupná evoluce není tak dobrá reklama jako nový a revoluční filesystém.
Ano, máme vrstvu redundance (MD), ale ta nemá páru o tom, které bloky jsou nebo nejsou používané, takže při výměně disku typicky syncuje vše.To mi v praxi nepřijde zas takový problém:
Na tím můžeme mít "klasický" fs, který si opět vede tabulku zabraných bloků a dolů posílá info o tom, které bloky jsou uvolněné.I tohle se AFAIK v principu umí (FS ti to řekne třeba když děláš trim), akorát to nikdo neimplementoval do MD.
Nebo jinak, používáte někdo někde ten LVM thin provisioning?Ne, funguje to pěkně blbě. Teda možná to byla MŽK chyba, ale když jsem to zkoušel, tak jsem se dopracoval k tomuhle: V Debianu Jessie i Stretch není možné uvolnit místo v thin pool zmenšením LV. Po zmenšení LV zůstává podle lvs -a obsazené místo na thin pool stejné. Jediný způsob, jak místo skutečně uvolnit, je LV zcela smazat.
preferuje flexibilni vrstvenou architekturu, kde ma administrator kontrolu nad jednotlivymi vrstvami a bloky, a muze si vybirat jejich implementaci.Jj, třeba když si chce vybrat z implementace raidu, tak má na výběr z MD raid. Nebo snapshoty a svazky, tam je na výběr z device mapperu. Ne že bych tady zrovna chtěl obhajovat btrfs a jejich přístup "blbě reimplementujeme všechno, co v kernelu už je", ale těch implementací na výběr opravdu moc není.
Ostatně proto se také (pokud vím) používá u malých domácích NAS zařízení co dělá Synology.Zrovna Synology zpřístupnili btrfs docela pozdě, cca před dvěma roky, a to jen pro výkonnější systémy. A výchozí je pořád ext4, btrfs je rozšířená funkce pro znalce.
CoreOS s btrfs a je to bídaCoreOS od btrfs presel kvuli neustalym problemum zakazniku k EXT4 + OverlayFS.
Pámbů s námi a zlý pryč! Red Hell - nomen omen.CoreOS s btrfs a je to bídaCoreOS od btrfs presel kvuli neustalym problemum zakazniku k EXT4 + OverlayFS.
A fatálně rozbitou ext4 jsem zažil několikrát – na rozdíl od Btrfs.Ja mam spise opacnou zkusenost, i kdyz nevidim zadny duvod pouzivat ext4 s ohledem na existenci xfs.
U toho jsem také přišel nepěkným způsobem o data.. Naštěstí to bylo ještě v testovacím režimu, takže jsem to šupem přehodil na Btrfs a od té doby byl klid a mír.A fatálně rozbitou ext4 jsem zažil několikrát – na rozdíl od Btrfs.Ja mam spise opacnou zkusenost, i kdyz nevidim zadny duvod pouzivat ext4 s ohledem na existenci xfs.
V praci mame xfs na diskovych polich v kapacite asi 1000TB,…V tom bych řekl že vězí i ten problém s Btrfs. O tom jaký se má použít FS na tak velkých systémech rozhodují konzervativci, co mají s Btrfs jen velmi malé zkušenosti. Logicky si tedy kryjou zadek tím, že použijí to, za co se jim zaručí poskytovatel distribuce. Osobně bych si chtěl přinejmenším zkusit postavit cloudový systém na stejně výkoném HW, ale s jinými technologiemi, než se standardně používají. Pak by teprve bylo možné něco srovnávat. Jenže takovou možnost nemám. Zkoušel jsem to alespoň s tím co je, jenže v takovém prostředí, jaké jsem dostal k dispozici to bohužel bez totální přestavby nejde. Klíčový problém způsobovalo NFS, kterými jsou ty stroje vzájemně propojené. Dokud všechno jelo, ok. Jenže stačil jeden nedostupný stroj a to NFS zablokovalo IO operace na polovině nodů a to se pochopitelně někde musí negativně odrazit.
s provedete sync, pak disky odpojíte (u) a restartujete (b).
klávesnici přehodil do PS/2, což je zpracování na úrovni HW interuptu
A je?
Pokud vím, tak už řádově 10 let to takhle nefunguje.
Sem myslel, že to neumí zatím bootovat, ale je pravda, že jsem to zas tak moc neštudoval. Jako varování stačilo https://eclecticlight.co/2017/04/06/apfs-is-currently-unusable-with-most-non-english-languages/ 
XFS všude, kde můžu. Z mé zkušenosti má relativně dobrý výkon a zároveň je to nejrobustnější FS, jaký znám. Veškeré poruchy disků a jiné problémy přežil vždy lépe než ostatní FS.+1 Postupne jsem premigroval vse na xfs. David Chinner a jeho team odvedli dobrou praci.