OpenSearch (Wikipedie) byl vydán ve verzi 3.0. Podrobnosti v poznámkách k vydání. Jedná se o fork projektů Elasticsearch a Kibana.
PyXL je koncept procesora, ktorý dokáže priamo spúštat Python kód bez nutnosti prekladu ci Micropythonu. Podľa testov autora je pri 100 MHz približne 30x rýchlejší pri riadeni GPIO nez Micropython na Pyboard taktovanej na 168 MHz.
Grafana (Wikipedie), tj. open source nástroj pro vizualizaci různých metrik a s ní související dotazování, upozorňování a lepší porozumění, byla vydána ve verzi 12.0. Přehled novinek v aktualizované dokumentaci.
Raspberry Pi OS, oficiální operační systém pro Raspberry Pi, byl vydán v nové verzi 2025-05-06. Přehled novinek v příspěvku na blogu Raspberry Pi a poznámkách k vydání. Pravděpodobně se jedná o poslední verzi postavenou na Debianu 12 Bookworm. Následující verze by již měla být postavena na Debianu 13 Trixie.
Richard Stallman dnes v Liberci přednáší o svobodném softwaru a svobodě v digitální společnosti. Od 16:30 v aule budovy G na Technické univerzitě v Liberci. V anglickém jazyce s automaticky generovanými českými titulky. Vstup je zdarma i pro širokou veřejnost.
sudo-rs, tj. sudo a su přepsáné do programovacího jazyka Rust, nahradí v Ubuntu 25.10 klasické sudo. V plánu je také přechod od klasických coreutils k uutils coreutils napsaných v Rustu.
Fedora se stala oficiální distribucí WSL (Windows Subsystem for Linux).
Společnost IBM představila server IBM LinuxONE Emperor 5 poháněný procesorem IBM Telum II.
Byla vydána verze 4.0 multiplatformního integrovaného vývojového prostředí (IDE) pro rychlý vývoj aplikaci (RAD) ve Free Pascalu Lazarus (Wikipedie). Přehled novinek v poznámkách k vydání. Využíván je Free Pascal Compiler (FPC) 3.2.2.
Podpora Windows 10 končí 14. října 2025. Připravovaná kampaň Konec desítek (End of 10) může uživatelům pomoci s přechodem na Linux.
Píšeš, že se ti chyby objevily při převodu. Přiznám se, že netuším co tím konkrétně myslíšŘekl bych, že má na mysli
btrfs-convert
.
btrfs-convert
bych moc nedoporučoval v reálu používat. Jednou jsem si s tím hrál a zkoušel konverzi root filesystému z ext4 a na první pohled se zdálo, že je to ok, systém normálně nabootoval a fungoval, ale pak každý pokus o scrub skončil na kernel panic.
samozrejme ze sem si prosel "man btrfs-convert"V mém man btrfs-convert se hned v úvodu píše:
btrfs-convert is used to convert existing ext2/3/4 filesystem image to a btrfs filesystem in-place. The original filesystem image is accessible subvolume named ext2_saved as file image. Warning If you are going to perform rollback to ext2/3/4, you should not execute btrfs balance command on the converted filesystem. This will change the extent layout and make btrfs-convert unable to rollback. The conversion utilizes free space of the original filesystem. The exact estimate of the required space cannot be foretold. The final btrfs metadata might occupy several gigabytes on a hundreds-gigabyte filesystem. If you decide not to rollback anymore, it is recommended to perform a few more steps to transform the btrfs filesystem to a more compact layout. The conversion inherits the original data block fragmentation and the metadata blocks are bound to the original free space layout. Due to different constraints, it’s possible to convert only filesystem that have supported data block size (ie. the same that would be valid for mkfs.btrfs). This is typically the system page size (4KiB on x86_64 machines). Note The source filesystem should be clean, you are encouraged to run the fsck tool if you’re not sure. REMOVE THE ORIGINAL FILESYSTEM METADATA By removing the ext2_saved subvolume, all metadata of the original filesystem will be removed: # btrfs subvolume delete /mnt/ext2_saved At this point it’s not possible to do rollback. The filesystem is usable but may be impacted by the fragmentation inherited from the original filesystem. MAKE FILE DATA MORE CONTIGUOUS An optional but recommended step is to run defragmentation on the entire filesystem. This will attempt to make file extents more contiguous. # btrfs filesystem defrag -v -r -f -t 32M /mnt/btrfs Verbose recursive defragmentation (-v, -r), flush data per-file (-f) with target extent size 32MiB (-t). ATTEMPT TO MAKE BTRFS METADATA MORE COMPACT Optional but recommended step. The metadata block groups after conversion may be smaller than the default size (256MiB or 1GiB). Running a balance will attempt to merge the block groups. This depends on the free space layout (and fragmentation) and may fail due to lack of enough work space. This is a soft error leaving the filesystem usable but the block group layout may remain unchanged. Note that balance operation takes a lot of time, please see also btrfs-balance(8). # btrfs balance start -m /mnt/btrfsTj. bude potřeba hodně místa a nelze to odhadnout dopředu, je dobré provést defrag, nejen pro spojení souborů, ale také pro změnu velikosti extentů a nakonec je dobré provést balance. Myslím, si, že každého admina asi trkne, že to nebude jednoduchá operace (z hlediska toho, co ty tooly dělají, ne pro admina).
potreba vystudovat "Vysokou skolu Btrfsackou"To je nutné u všech složitějších systému. Vždycky je dobré vědět, co to umí, co to neumí, jak se věci dělají, aby člověk nebyl překvapen.
nebo mas vice pozitivnich zkusenosti z vice prevodu z ext4Nejlepší převod na jiný typ fs je vytvořit nový fs a zkopírovat data. EXT4 na BTRFS sice konvertovat lze, ale fs, který tímto vznikne, není totožný s fs, který vznikne jako mkfs.btrfs. Ta konverze využívá toho, že ext4 má některé bajty (bloky, nebo jak to říct), rezervované a při konverzi na btrfs toho lze využít. Ale btrfs ukládá data na disk jinak než ext4. Tzn. fs vzniklý konverzí má data stále umístěná stejně jako na ext4 a jen má k tomu dodaná nějaká metadata "jako btrfs". Je to takový kočkopes, který jde možná (po odstranění ext4 subvolume, která tam po konverzi zůstane a teoreticky to lze převést zase zpět) setřepat následným spuštěním balance, ale na to zase musí být dostatek volného místa. Takže, jde to, ale... Nejlepší je prostě nový fs a nahrát tam ta data.
je tedy nebezpecne pouzivat pouze na 1 disku? resp. myslim vice nez treba ext4...BTRFS má checksumy dat, takže pokud disk vrací špatná data, tak na to btrfs přijde. Ostatní fs (ext4, xfs), mají nově checksumy jen metadat, takže pravděpodobnost nalezení chyby není tak velká.
u volneho mista mi slo prave o to co pises, jestli je nejakej naznak ve vyvoji, ze by se mohlo volne misto v budoucnu zjistovat lepe, i za cenu ze by to trvalo dele nez proste "df -h" u ext4, tedy projel by se cely fs a zjistilo by se vyuzita deduplikace, oznamilo by to volne misto, i s tim kolik se da uvolnit (vypadl mi ted ta btrfs funkce/termin, pro "preskupeni/vycisteni/uvolneni_nepotrebneho")Aha, takže zjištění volného místa není o volném místu ale o tom, kolik místa se uvolní, když se smažou nějaká data se sdílenými bloky. Netuším, něco šlo zjistit přes quoty (není potřeba žádnou quotu přiřazovat, jen aktivovat, on to oscanuje a něco umí zjistit).
ale treba priklad j je jeden z tech co me proste zarazi...j používá na vlastní riziko raid5, což je problematický kus kódu a je to na stránkách btrfs wiki jasné napsáno. Na základně toho bych žádné závěry "něco to neukazuje správně" nedělal. Osobně, při znalosti toho jak btrfs pracuje a ukládá bloky, bych ani funkční raid5 nepoužil.
strojA :~# btrfs fi usage /srv Overall: Device size: 488.28GiB Device allocated: 468.13GiB Device unallocated: 20.15GiB Device missing: 0.00B Used: 251.67GiB Free (estimated): 209.98GiB (min: 199.91GiB) Data ratio: 1.00 Metadata ratio: 2.00 Global reserve: 512.00MiB (used: 0.00B) Data,single: Size:432.01GiB, Used:242.17GiB /dev/sdb 432.01GiB Metadata,DUP: Size:18.00GiB, Used:4.74GiB /dev/sdb 36.00GiB System,DUP: Size:64.00MiB, Used:80.00KiB /dev/sdb 128.00MiB Unallocated: /dev/sdb 20.15GiB strojA :~# btrfs device usage /srv /dev/sdb, ID: 1 Device size: 488.28GiB Data,single: 432.01GiB Metadata,DUP: 36.00GiB System,DUP: 128.00MiB Unallocated: 20.15GiBStrojA je virtuál, jehož virtuálním diskem je kontejner v Cephu – proto je také v Btrfs single mode. A strojB je můj notebook se dvěma SSD disky v Btrfs raid1 – o tom, jak jsem na ně přehazoval data jsem tu psal, takže si lze hravě zjistit, jak dlouho to takhle používám.
strojB :~# btrfs fi usage / Overall: Device size: 465.77GiB Device allocated: 465.77GiB Device unallocated: 2.11MiB Device missing: 0.00B Used: 419.89GiB Free (estimated): 20.78GiB (min: 20.78GiB) Data ratio: 2.00 Metadata ratio: 2.00 Global reserve: 430.30MiB (used: 0.00B) Data,RAID1: Size:228.85GiB, Used:208.07GiB /dev/sda1 228.85GiB /dev/sdb1 228.85GiB Metadata,RAID1: Size:4.00GiB, Used:1.87GiB /dev/sda1 4.00GiB /dev/sdb1 4.00GiB System,RAID1: Size:32.00MiB, Used:44.00KiB /dev/sda1 32.00MiB /dev/sdb1 32.00MiB Unallocated: /dev/sda1 1.05MiB /dev/sdb1 1.05MiB strojB :~# btrfs device usage / /dev/sda1, ID: 7 Device size: 232.88GiB Device slack: 0.00B Data,RAID1: 228.85GiB Metadata,RAID1: 4.00GiB System,RAID1: 32.00MiB Unallocated: 1.05MiB /dev/sdb1, ID: 8 Device size: 232.88GiB Device slack: 0.00B Data,RAID1: 228.85GiB Metadata,RAID1: 4.00GiB System,RAID1: 32.00MiB Unallocated: 1.05MiB
Overall: Device size: 21.83TiB Device allocated: 0.00B Device unallocated: 21.83TiB Device missing: 0.00B Used: 0.00B Free (estimated): 0.00B (min: 8.00EiB) Data ratio: 0.00 Metadata ratio: 0.00 Global reserve: 512.00MiB (used: 0.00B) Data,RAID5: Size:11.39TiB, Used:11.33TiB /dev/mapper/crypt_sda 3.80TiB /dev/mapper/crypt_sdb 3.80TiB /dev/mapper/crypt_sdc 3.80TiB /dev/mapper/crypt_sdd 3.80TiB Metadata,RAID5: Size:20.62GiB, Used:18.75GiB /dev/mapper/crypt_sda 6.88GiB /dev/mapper/crypt_sdb 6.88GiB /dev/mapper/crypt_sdc 6.88GiB /dev/mapper/crypt_sdd 6.88GiB System,RAID5: Size:96.00MiB, Used:800.00KiB /dev/mapper/crypt_sda 32.00MiB /dev/mapper/crypt_sdb 32.00MiB /dev/mapper/crypt_sdc 32.00MiB /dev/mapper/crypt_sdd 32.00MiB Unallocated: /dev/mapper/crypt_sda 1.65TiB /dev/mapper/crypt_sdb 1.65TiB /dev/mapper/crypt_sdc 1.65TiB /dev/mapper/crypt_sdd 1.65TiBA ted mi rekni, kolik tam je mista ..., a co teprv kdyz to pripojim pres sambu ...
/dev/mapper/crypt_sda 23442082144 12181444056 7174989256 63% /mnt/dJo aha, mam hadat, a prepocitavat to podle poctu disku a pak si jeste strelit od boku na aktualni kompresi.
Je v blizke budoucnosti ocekavane ze pujde nejak rozumne zjistovat dostupne volne misto?
btrfs fi df
mi zatím přišlo v pohodě.
* trolly, kteří mi začnou říkat, že mám používat RAID5 vestavěný v BTRFS, odkazuji na oficiální status page, kde se píše následující:
RAID56 Unstable write hole still exists, parity not checksummed
2x kompletní ztráta dat (corruptnutí FS do stavu, kdy scrub projde bez problému, ale přístup k souboru hodí "corrupt leaf",Tipoval bych, že tou dobou už byly data dávno v háji, zůstaly jen metadata. Co to bylo za disk – SSHD?
1x naražení na to, že RAID-1 ze dvou disků lze v degradovaném režimu namountovat RW jednou a pak už namountování odmítneJo. Věřím tomu, že tohle je nepříjemný lapsus, který bych nečekal. Já zatím mrtvý disk za podobné situace nenahrazoval. Btrfs v raid1 jen se dvěma disky mám pouze ve svém notebooku. A když jsem potřeboval přesunout data (druhý disk byl v boxu, takže abych mohl dát nový, tak jsem ho musel nejprve odstranit), tak jsem si vypomohl pomocí loop zařízení.
Pak takové provozní drobnosti jako že mount trvá minutu nebo že po pár měsících denního používání těch „skoro neomezených snapshotů“ metadata zabrala pár set giga a bylo potřeba udělat balance -musage=25, který na Athlonu X2 a RAID5* z běžných desktopových disků běžel dva týdny.Jo, nikdo nejsme dokonalý. Vytvoření a smazání snapshotu je hračka a trvá opravdu jen chvilku. Bohužel si jen málokdo uvědomí, že to je pouze jedna polovina úkolu. Fyzické odstranění je limitováno možnostmi blokového zařízení, takže pokud jde o pomalý rotační disk a velké množství malých souborů, či nedejbože snapshotů, tak to holt trvá – kór na obstarožním procesoru s malým množstvím paměti. Je totiž nutné si uvědomit, že při odstraňování snapshotů řeší Btrfs které extenty jsou zbytečné a které se používají u jiných subvolume. Což pochopitelně představuje zátěž na procesor. Btrfs v raid5(6) v reálném nasazení mi moc smysl nedává. Zvyšuje se tím počet výpočetních operací, a řeší to pouze situaci, že by chcíply dva disky dříve, než se stačí data z toho prvního vyreplikovat na ty disky zbývající. Přijde mi, že úplně nejlíp se Btrfs cítí když má k dispozici více menších a rychlejších disků, než když má málo disků pomalých a velkých. Z toho důvodu jsem si domů pořídil box na 12x 2,5 palcových disků. Nemají sice obří kapacitu, vyžadují další řadič navíc, ale jsou tišší, míň žerou a pokud by některý z nich chcípnul, tak se mnohem rychleji data zreplikují jinam, protože jich na něm není uloženo moc.
Přijde mi, že úplně nejlíp se Btrfs cítí když má k dispozici více menších a rychlejších disků, než když má málo disků pomalých a velkých.To platí skoro pro každý raid, ne?
Pak takové provozní drobnosti jako že mount trvá minutu nebo že po pár měsících denního používání těch „skoro neomezených snapshotů“ metadata zabrala pár set giga a bylo potřeba udělat balance -musage=25, který na Athlonu X2 a RAID5* z běžných desktopových disků běžel dva týdny.Přiznám se, že při téhle kritice mě vždy napadne zeptat se na to, jak dotyčný řešil ty nekonečné snapshoty před tím. Protože tady se bavíme o něčem, co na minulých FS udělat vůbec nešlo, protože podporu pro tento typ snapshotů nemá. Pokud bychom se bavili třeba o LVM, zkoušeli jste někdo co se stane, když tam máte třeba 6 snapshotů? Já jo. Napsal jsem si ansible playbook, který má za úkol aktualizovat OS v několika KVM virtálkách a před tím si udělá LVM snapshot (který se odleje na zálohovací stroj), potom upgrade, testy a nakonec se ten snapshot měl smazat. Měl jsem tam chybu, staré snapshoty se neodstraňovaly a po šestém snapshotu load vyletěl na 200 a všechno čekalo na IO. Nechal jsem to doběhnout, za pár hodin ok. Bez LVM snapshotu úkol na pár desítek sekund. UFS na FreeBSD snapshoty taky podporuje, ale rovnou v manu je napsáno, že: Every filesystem can have only up to 20 active snapshots. Nezkoušel jsem. BTRFS fs, který má desítky tisíc snapshotů, prostě funguje. Se žádným jiným fs tohle neuděláte. A to, že mazání trvá, no upřímně řečeno, kdyby ty soubory tam byly skutečně nakopírované (máme k disposici několika PB úložiště a zabráno 0.1%), tak to mazání snad trvá ještě déle.
Myslel jsem na nativní fs na linuxu.
Jako třeba UFS?
Pokud bychom se bavili třeba o LVM, zkoušeli jste někdo co se stane, když tam máte třeba 6 snapshotů?Jo, chvíli to jelo a pak mi začali lidi říkat, že je ta Samba najednou nepoužitelně pomalá
Celkově mi VMWare přijde prapodivný, možná je to tím, že mám menší rezervy ve výkonu, nebo nevím.Tak vmware je zářným případem toho, o čem jsem psal. Když to funguje, tak ok, ale když se to pokazí, tak je to opravdu důkladně pokažené. Zažil jsem ještě dobu, kdy vmware vcenter běžel jen na widlích (na nějaké free verzi mssql). Katastrofa. Potom udělali linux verzi, kde to běželo na nějaké free verzi ibm db2. A mělo to limity, jako že max 50 virtuálek apod. (Psal jsem o tom zde.) Dneska už je tam postgresql. Jestli náhodou neexistovala ještě nějaká verze s Oraclem fakt netuším, ale nepřekvapilo by mě to. Nevím, co je přesně důvodem pro tu databázovou turistiku, ale tento styl vývoje mě teda nenaplňuje důvěrou. Spíše to je to do zlaté fólie zabalené hovno. Uvnitř smrad, ale navenek to nesmí být poznat. Něco jako Zimbra. Z venku to vypadá že to funguje, vnitřní implementace je katastrofa.
... odkazuji na oficiální status page, kde se píše ...Tato status page je asi nejdůležitější odkaz v této diskusi, rozhodně doporučuji projít a zvážit, které vlastosti btrfs chci nasadit a pak si to pořádně vyzkoušet.
... balance -musage=25, který na Athlonu X2 a RAID5* z běžných desktopových disků běžel dva týdny.
... btrfs fi df
mi zatím přišlo v pohodě.
bohužel i obsazené místo se z nějakého důvodu neuvolňuje a je potřeba dělat balance -dusage=xx a to taky trvá strašně dlouho
jak to řešíte ty duasge/musage? v cornu jednou za měsíc?
scrub taky trvá strašne dlouho, nevím proč. stejné disky s mdadm nebo zfs mají scrub několikrát rychleji
trolly, kteří mi začnou říkat, že mám používat RAID5 vestavěný v BTRFS...tím to není, měl jsem vestavěný RAID5 a bylo to taky pomalé, teď mám vestavěný RAID10, bohužel ta pomalost convert a scrub je to asi vlastností btrfs
jak to řešíte ty duasge/musage? v cornu jednou za měsíc?Když se mi zdá, že začalo podivně docházet místo, tak to spustím.
scrub taky trvá strašne dlouhoMně scrub jede velmi rychle.
scrub done for bla-bla-bla scrub started at Sat Oct 14 04:23:45 2017 and finished after 22:17:39 total bytes scrubbed: 11.33TiB with 0 errorsto mi přijde pomalu, jen 148MB/s, přitom to jsou 4x4TB disky a třeba mdadm jede téměř 500MB/s
smartctl -a
duperemove -drh --hashfile=/var/tmp/root.sqlite /
. Ten hashfile se bohužel pokaždé musí mazat, i když je to pak pomalejší. Jinak posledně deduplikované a defragem rozpojené soubory budou ignorovány.
No a co potom ty dlouho trvající balance? To pouštět asi jako poslední? Nemají snad vliv na fragmentaci a deduplikaci bloků? Můj pocit je, že nakonec uklidí volné místo, které se těmi předchozími operacemi zhoršilo.
Ještě jak jsi nakous defragmentaci, já si všiml, že defragmentace bohužel zruší deduplikaci.No to je celkem logické. Pokud je jeden datový blok součástí více souborů, tak je nemožné všechny soubory defragmentovat a tedy mít všechny bloky všech souborů jako souvislé. Tohle prostě není možné. Totéž se týká i snapshotů (opět různé souboru sdílejí stejné bloky). Tuším, že se pokusili udělat snapshot aware defrag, tedy aby to spojovalo pouze bloky, které jsou odkazované pouze jednou nebo je celá skupina bloků odkazována stejně z různých souborů, ale jak to dopadlo nevím. Obecně je hrozně těžké mít fs založený na "poolu bloků", kdy jednotlivé bloky mohou být sdíleny napříč mnoha souboru (a dokonce mít datové bloky různých profilů, tedy nekomprimované, komprimované různými algoritmy) a potom ještě dosahovat defragmentovaných souborů.
No a co potom ty dlouho trvající balance?Nevím o čem mluvíš. Za normálních okolností se rebalance vůbec pouštět nemusí. Dřív (ale tj tak 3 roky nazpět - sorry, verzi btrfs/jádra si fakt nepamatuju) jsem pouštěl balance s filtrem dusage=0 (tedy balance pouze prázdných bloků). Bylo to z toho důvodu, že btrfs občas neuvolňoval volné alokační skupiny. dusage=0 proběhlo zpravidla velmi rychle. Jenže toto je vyřešeno a dneska se to pouštět nemusí. Takže na toto bych se teda rovnou vyprdnul, pokud se teda nejedná o nějaký hodně specifický případ použití fs nebo se neřeší nějaký specifický problém.
btrfs fi df / Data, single: total=24.00GiB, used=17.62GiB System, single: total=32.00MiB, used=16.00KiB Metadata, single: total=2.00GiB, used=459.61MiB GlobalReserve, single: total=62.77MiB, used=0.00Bje vidět, že je zabráno jakoby 7G dat navíc a 1.5 metadat navíc, když udělám
btrfs balance start -dusage=99 /
a btrfs balance start -musage=99 /
, tak se to zlepší
Data, single: total=18.00GiB, used=17.62GiB System, single: total=32.00MiB, used=16.00KiB Metadata, single: total=1.00GiB, used=457.23MiB GlobalReserve, single: total=60.36MiB, used=0.00Bno ale nevím, jestli to není jen o pocitu :) někdy to teda pomůže, když dojde místo
…nepoužíváte dedup a sw raid tak se nemáte čeho bát.No, tohle doporučení mi přijde zhruba srovnatelné s doporučením, že pokud si ho před souloží vyhoníte a navíc ukousnete koule, tak se nemusíte bát že partnerka otěhotní.
Timto bych rad od lidi co ho pouzivaji, jestli by nenapsaliZde: https://www.heronovo.cz/category/linux/systemy-souboru/btrfs/
idealne strucneTak to se asi nepovedlo
na co si dat pozorNa chování při výměně disků v případě multidevice. Tj nutnost jít do degraded režimu, tam to pořešit a jít zpět.
Je v blizke budoucnosti ocekavane ze pujde nejak rozumne zjistovat dostupne volne misto?Nevím, co tím myslíš. Volné místo zjistit jde.
Ze budou opravne nastroje co opravdu opravi a ne ze (jako me) to oznami jen hromadu neopravitelnych corruptu?Netuším v jakém případě to nastalo. Některé věci opravit nejdou u žádného fs a upozornění je jediná věc, co to může udělat. V případě BTRFS multidevice raid1 ale jde ty soubory přečíst z jiného zařízení, protože btrfs ví, která data jsou v pořádku (na rozdíl třeba od mdadm).
Ani me popravde tak nezajima subvolumesNo to je chyba, protože popravdě btrfs nemá žádný smysl používat jako fs starého typu. Žádné výhody to nepřináší. BTRFS má výhody právě v možnosti udělat si kdykoliv libovolný počet snapshotů subvolume, do těch dále zapisovat, dělat jejich další snapshoty a takto si vytvářet strom různých stavů dat; send / receive apod; libovolné promazávání subvolume bez ohledu na to, z čeho vznikly a co vzniklo z nich.
bezne pouzivam LVM a s btrfs bych to bezproblemu pouzival dalKravina. Žádné výhody, jen nevýhody. LVM snapshot není zapisovatelný. Pokud dojde místo na VG, tak snapshot prostě zmizí a není.
a pak doporučení:Compress=lzo might be dangerous.
Quotas and qgroups are still broken and are implicated in filesystem corruption
Do not use compression. That said if one wants to test this functionality then zlib seems to have fewer issues than lzo. Do not use quotas/qgroups.Zrovna tyto všechny funkce potřebuji a bez ních už pro mě tolik záživné btrfs není.
btrfs send
nebo treba trubka s lzop
cat /dev/sda | pv | lzop | nc server portna serveru
nc -l -p port > soubor.lzo(
pv
proto, abych viděl, kolik už je toho disku přečteno)
Btrfs send posílá jen obsah souborů (+ metadata), takže tam se volné místo do streamu vůbec neposílá. Tam to spíš proženu přes pixz -9
(pokud to teda nespěchá a chci to jen uložit).
progressPěkné. Neznal jsem.
Tiskni
Sdílej: