Letos se uskuteční již 11. ročník soutěže v programování Kasiopea. Tato soutěž, (primárně) pro středoškoláky, nabízí skvělou příležitost procvičit logické myšlení a dozvědět se něco nového ze světa algoritmů – a to nejen pro zkušené programátory, ale i pro úplné začátečníky. Domácí kolo proběhne online od 22. 11. do 7. 12. 2025 a skládá se z 9 zajímavých úloh různé obtížnosti. Na výběru programovacího jazyka přitom nezáleží – úlohy jsou
… více »Byla vydána nová verze 2.52.0 distribuovaného systému správy verzí Git. Přispělo 94 vývojářů, z toho 33 nových. Přehled novinek v příspěvku na blogu GitHubu a v poznámkách k vydání.
VKD3D-Proton byl vydán ve verzi 3.0. Jedná se fork knihovny vkd3d z projektu Wine pro Proton. Knihovna slouží pro překlad volání Direct3D 12 na Vulkan. V přehledu novinek je vypíchnuta podpora AMD FSR 4 (AMD FidelityFX Super Resolution 4).
Poštovní klient Thunderbird byl vydán v nové verzi 145.0. Podporuje DNS přes HTTPS nebo Microsoft Exchange skrze Exchange Web Services. Ukončena byla podpora 32bitového Thunderbirdu pro Linux.
U příležitosti státního svátku 17. listopadu probíhá na Steamu i GOG.com již šestý ročník Czech & Slovak Games Week aneb týdenní oslava a také slevová akce českých a slovenských počítačových her.
Byla vydána nová verze 9.19 z Debianu vycházející linuxové distribuce DietPi pro (nejenom) jednodeskové počítače. Přehled novinek v poznámkách k vydání. Vypíchnout lze například nový balíček BirdNET-Go, tj. AI řešení pro nepřetržité monitorování a identifikaci ptáků.
Byla vydána nová verze 3.38 frameworku Flutter (Wikipedie) pro vývoj mobilních, webových i desktopových aplikací a nová verze 3.10 souvisejícího programovacího jazyka Dart (Wikipedie).
Organizace Apache Software Foundation (ASF) vydala verzi 28 integrovaného vývojového prostředí a vývojové platformy napsané v Javě NetBeans (Wikipedie). Přehled novinek na GitHubu. Instalovat lze také ze Snapcraftu a Flathubu.
Byl vydán Debian 13.2, tj. druhá opravná verze Debianu 13 s kódovým názvem Trixie. Řešeny jsou především bezpečnostní problémy, ale také několik vážných chyb. Instalační média Debianu 13 lze samozřejmě nadále k instalaci používat. Po instalaci stačí systém aktualizovat.
Google představil platformu Code Wiki pro rychlejší porozumění existujícímu kódu. Code Wiki pomocí AI Gemini udržuje průběžně aktualizovanou strukturovanou wiki pro softwarové repozitáře. Zatím jenom pro veřejné. V plánu je rozšíření Gemini CLI také pro soukromé a interní repozitáře.
Řešení dotazu:
rsync umí zachovat metadata i symlinky. Al pokud chcete použít tar, přenášejte rsyncem ten tar. Ale přenášejte to po síti protokolem rsync, jedině tak využijete inkrementální přenos. Pokud budete mít namountováno vzdálené úložiště do lokálního souborového systému a rsyncem budete přenášet jenom v rámci toho lokálního systému (a po síti se to bude přenášet jiným protokolem), bude to na přenos dat horší, než kdybyste to jenom zkopíroval.
Ale přenášejte to po síti protokolem rsync, jedině tak využijete inkrementální přenos.Měl jsem pocit, že rsync umí přenášet inkrementálně jenom pokud jsou ty stejné části v souborech do nějaké vzdálenosti. Takže když na začátek toho taru přibude nějaký velký soubor, rsync nebude schopen zjistit, že konec taru je stejný, a přenese to celé.
Pokud budete mít namountováno vzdálené úložiště do lokálního souborového systému a rsyncem budete přenášet jenom v rámci toho lokálního systému (a po síti se to bude přenášet jiným protokolem), bude to na přenos dat horší, než kdybyste to jenom zkopíroval.Můj rsync tohle detekuje a delta přenos vypne (pokud ho explicitně nevynutím), takže to vyjde nastejno jako kdybych to jenom kopíroval. (--whole-file) Doporučil bych správně nastavit rsync a netrvat na taru. Dobrý začátek je podívat se do manuálu na volbu -a, případně ještě --numeric-ids.
Chci aby záloha ve výsledku měla vlastnosti taru, tzv. zachování metadat, symlinků, atp.
rsync --numeric-ids -aHAX (viz manuál)
A pak aby se ~1TB sesynchronizoval za pár minut.Já mám bohužel s rsyncem podivné výkonnostní problémy, nejspíš když je tam spousta malých souborů. Teď si tedy uvědomuju, že to může být strašně starou verzí rsyncu na druhé straně (RHEL5).
Měl jsem pocit, že rsync umí přenášet inkrementálně jenom pokud jsou ty stejné části v souborech do nějaké vzdálenosti.O žádném takovém omezení jsem nikde nečetl.
rsync používá blok o nějaké velikosti, na serveru si nejdříve vypočítá kontrolní součty pro všechna umístění takového bloku. Tj. umístí blok na začátek souboru, spočítá kontrolní součet, posune se o jeden bajt, opět spočítá kontrolní součet (který je speciálně navržený tak, aby tuhle operaci vyhození prvního bajtu a přidání jednoho dalšího bylo možné udělat rychle). Neprocházet takhle celý soubor, ale jenom jeho část, by mělo jediný význam - ušetřit paměť. Pak načte první blok klient, odešle jeho kontrolní součet serveru, a ten se podívá, jestli ten kontrolní součet zná. Pokud ne, pošle klient všechna data, pokud ho server zná, oba ještě spočítají bezpečný kontrolní součet, kterým ověří, že jsou data opravdu stejná (že jen náhodou nevyšel ten první kontrolní součet stejně).
Co (a jak přesně) zatěžují ty hardlinky?Přiznám se že nevím. Jenom jsem ve škole rušil několik let provozovaný rdiff-backup, protože záloha několika serverů trvala týden, přičemž na ZFS-on-linux i na btrfs to bylo hned.
Tak jsem to spočítalTrvalo to docela dlouho ;). Tip pro příště: df -i.
root@archer:~# df -i /mnt/backup/ Filesystem Inodes IUsed IFree IUse% Mounted on /dev/md1 0 0 0 - /mnt/backup
Filesystem Inodes IUsed IFree IUse% Mounted on
/dev/sda 0 0 0 - /
Některé nemají ani diskové oddíly :)
(hint: ne všechny filesystémy mají inody ;)Třeba které?
Přiznám se že nevím.No jo, no. Hardlinky ve skutečnosti souborový systém moc nezatěžují - je to jen zvýšený inode count + mapování ve tvaru "jméno:inode" v adresáři. Nejsou to opravdové soubory/inody.
Jenom jsem ve škole rušil několik let provozovaný rdiff-backup, protože záloha několika serverů trvala týden,Rdiff-backup není rsnapshot. Je to zálohovací program klasického schématu, který uchovává rozdíly k souborům. Používá přitom stejné algoritmy jako rsync, což je IMHO jeho jediná podobnost s rsnapshotem. Nepoužívá hardlinky. Vzhledem k jeho způsobu práce je naprosto zřejmé, proč trvaly zálohy dlouho.
přičemž na ZFS-on-linux i na btrfs to bylo hned.Porovnáváte neporovnatelné, uchování historie na úrovni filesystemu se nic vyrovnat nemůže. Je to efektivní a velmi výhodné, ale má to i nevýhody. Např. když ty snapshoty nepřenášíte na jiný server, pak máte pouze historii, ne zálohu - co třeba požár? Jak odlišíte, co chcete a co nechcete zálohovat? Jak a kam tímto způsobem zálohujete padesát různých serverů? Každé zálohovací schéma má výhody i nevýhody. Já používám rsnapshot hlavně proto, že výhody pro danou aplikaci převažují. Jsem s ním velmi spokojen. Vždycky to chce ale napřed trochu uvažovat - což platí obecně.
Např. když ty snapshoty nepřenášíte na jiný server, pak máte pouze historii, ne zálohu - co třeba požár?Dělám to tak, že to vždycky rsyncnu na zálohovací server a pak udělám snapshot.
Jak odlišíte, co chcete a co nechcete zálohovat?rsync --exclude
Jak a kam tímto způsobem zálohujete padesát různých serverů?Mám jich 14 a mám na to R5 ze 4 2TB disků.
číst kompresovaný tarO kompresi nikde nebylo ani slovo. Ta by to samozřejmě dost komplikovala.
A jaký je důvod použít tar a ne strom adresářů ve file systémuTakový, že jeho FS je NTFS nebo nějaká podobná hrůza.
No ale tar mu stejně nepomůžeHuh? Zataruje ty věci co chce zazálohovat a práva jsou v tom taru, takže je jedno, na jakém FS to bude.
--listed-incremental vytvářet samostatné inkrementální backupy.
Pokud to tlačí obráceně, tedy zálohu linuxového systému do NTFS, tak přímá kopie nefunguje a může buď tar nebo vytvořit velký soubor v něm udělat linuxový FS, který následně moutne loopem.Tak jsem to pochopil a to jsem mu už doporučoval výše.
Ale pracovat uvnitř taru jako by to byl normální FS, tedy věci přidávat a případně mazat mi přijde nesmyslné.Také tak.
Tiskni
Sdílej: