Byla vydána (𝕏) nová verze 24.7 open source firewallové a routovací platformy OPNsense (Wikipedie). Jedná se o fork pfSense postavený na FreeBSD. Kódový název OPNsense 24.7 je Thriving Tiger. Přehled novinek v příspěvku na fóru.
Binarly REsearch upozorňuje na bezpečnostní problém PKFail (YouTube) v ekosystému UEFI. Stovky modelů zařízení používají pro Secure Boot testovací Platform Key vygenerovaný American Megatrends International (AMI) a jeho privátní část byla při úniku dat prozrazena. Do milionů zařízení (seznam v pdf) po celém světě tak útočníci mohou do Secure Bootu vložit podepsaný malware. Otestovat firmware si lze na stránce pk.fail. Ukázka PoC na Linuxu na Windows na YouTube.
Mobilní operační systém /e/OS (Wikipedie) založený na Androidu / LineageOS, ale bez aplikací a služeb od Googlu, byl vydán ve verzi 2.2 (Mastodon, 𝕏). Přehled novinek na GitLabu. Vypíchnuta je rodičovská kontrola.
Společnost OpenAI představila vyhledávač SearchGPT propojující OpenAI modely umělé inteligence a informace z webů v reálném čase. Zatím jako prototyp pro vybrané uživatele. Zapsat se lze do pořadníku čekatelů.
Distribuce Linux Mint 22 „Wilma“ byla vydána. Je založená na Ubuntu 24.04 LTS, ale s desktopovým prostředím Cinnamon (aktuálně verze 6.2), příp. MATE nebo Xfce, balíkem aplikací XApp, integrací balíčků Flatpak a dalšími změnami. Více v přehledu novinek a poznámkách k vydání.
Příspěvek na blogu Truffle Security: Kdokoli může přistupovat ke smazaným a privátním repozitářům na GitHubu.
Byla vydána nová verze 14 integrovaného vývojového prostředí (IDE) Qt Creator. Podrobný přehled novinek v cgitu. Vypíchnout lze podporu rozšíření v Lua.
Byla vydána verze 1.80.0 programovacího jazyka Rust (Wikipedie). Podrobnosti v poznámkách k vydání. Vyzkoušet Rust lze například na stránce Rust by Example.
Apple oznámil, že v beta verzi spustil své Apple Maps na webu. Podporován je také webový prohlížeč Chrome. Ne však na Linuxu.
Portál Stack Overflow po roce opět vyzpovídal své uživatele, jedná se především o vývojáře softwaru, a zveřejnil detailní výsledky průzkumu. Průzkumu se letos zúčastnilo více než 65 tisíc vývojářů. Z Česka jich bylo 710. Ze Slovenska 246.
Řešení dotazu:
rsync
umí zachovat metadata i symlinky. Al pokud chcete použít tar
, přenášejte rsync
em ten tar
. Ale přenášejte to po síti protokolem rsync
, jedině tak využijete inkrementální přenos. Pokud budete mít namountováno vzdálené úložiště do lokálního souborového systému a rsync
em budete přenášet jenom v rámci toho lokálního systému (a po síti se to bude přenášet jiným protokolem), bude to na přenos dat horší, než kdybyste to jenom zkopíroval.
Ale přenášejte to po síti protokolem rsync, jedině tak využijete inkrementální přenos.Měl jsem pocit, že rsync umí přenášet inkrementálně jenom pokud jsou ty stejné části v souborech do nějaké vzdálenosti. Takže když na začátek toho taru přibude nějaký velký soubor, rsync nebude schopen zjistit, že konec taru je stejný, a přenese to celé.
Pokud budete mít namountováno vzdálené úložiště do lokálního souborového systému a rsyncem budete přenášet jenom v rámci toho lokálního systému (a po síti se to bude přenášet jiným protokolem), bude to na přenos dat horší, než kdybyste to jenom zkopíroval.Můj rsync tohle detekuje a delta přenos vypne (pokud ho explicitně nevynutím), takže to vyjde nastejno jako kdybych to jenom kopíroval. (--whole-file) Doporučil bych správně nastavit rsync a netrvat na taru. Dobrý začátek je podívat se do manuálu na volbu -a, případně ještě --numeric-ids.
Chci aby záloha ve výsledku měla vlastnosti taru, tzv. zachování metadat, symlinků, atp.
rsync --numeric-ids -aHAX
(viz manuál)
A pak aby se ~1TB sesynchronizoval za pár minut.Já mám bohužel s rsyncem podivné výkonnostní problémy, nejspíš když je tam spousta malých souborů. Teď si tedy uvědomuju, že to může být strašně starou verzí rsyncu na druhé straně (RHEL5).
Měl jsem pocit, že rsync umí přenášet inkrementálně jenom pokud jsou ty stejné části v souborech do nějaké vzdálenosti.O žádném takovém omezení jsem nikde nečetl.
rsync
používá blok o nějaké velikosti, na serveru si nejdříve vypočítá kontrolní součty pro všechna umístění takového bloku. Tj. umístí blok na začátek souboru, spočítá kontrolní součet, posune se o jeden bajt, opět spočítá kontrolní součet (který je speciálně navržený tak, aby tuhle operaci vyhození prvního bajtu a přidání jednoho dalšího bylo možné udělat rychle). Neprocházet takhle celý soubor, ale jenom jeho část, by mělo jediný význam - ušetřit paměť. Pak načte první blok klient, odešle jeho kontrolní součet serveru, a ten se podívá, jestli ten kontrolní součet zná. Pokud ne, pošle klient všechna data, pokud ho server zná, oba ještě spočítají bezpečný kontrolní součet, kterým ověří, že jsou data opravdu stejná (že jen náhodou nevyšel ten první kontrolní součet stejně).
Co (a jak přesně) zatěžují ty hardlinky?Přiznám se že nevím. Jenom jsem ve škole rušil několik let provozovaný rdiff-backup, protože záloha několika serverů trvala týden, přičemž na ZFS-on-linux i na btrfs to bylo hned.
Tak jsem to spočítalTrvalo to docela dlouho ;). Tip pro příště: df -i.
root@archer:~# df -i /mnt/backup/ Filesystem Inodes IUsed IFree IUse% Mounted on /dev/md1 0 0 0 - /mnt/backup
Filesystem Inodes IUsed IFree IUse% Mounted on
/dev/sda 0 0 0 - /
Některé nemají ani diskové oddíly :)
(hint: ne všechny filesystémy mají inody ;)Třeba které?
Přiznám se že nevím.No jo, no. Hardlinky ve skutečnosti souborový systém moc nezatěžují - je to jen zvýšený inode count + mapování ve tvaru "jméno:inode" v adresáři. Nejsou to opravdové soubory/inody.
Jenom jsem ve škole rušil několik let provozovaný rdiff-backup, protože záloha několika serverů trvala týden,Rdiff-backup není rsnapshot. Je to zálohovací program klasického schématu, který uchovává rozdíly k souborům. Používá přitom stejné algoritmy jako rsync, což je IMHO jeho jediná podobnost s rsnapshotem. Nepoužívá hardlinky. Vzhledem k jeho způsobu práce je naprosto zřejmé, proč trvaly zálohy dlouho.
přičemž na ZFS-on-linux i na btrfs to bylo hned.Porovnáváte neporovnatelné, uchování historie na úrovni filesystemu se nic vyrovnat nemůže. Je to efektivní a velmi výhodné, ale má to i nevýhody. Např. když ty snapshoty nepřenášíte na jiný server, pak máte pouze historii, ne zálohu - co třeba požár? Jak odlišíte, co chcete a co nechcete zálohovat? Jak a kam tímto způsobem zálohujete padesát různých serverů? Každé zálohovací schéma má výhody i nevýhody. Já používám rsnapshot hlavně proto, že výhody pro danou aplikaci převažují. Jsem s ním velmi spokojen. Vždycky to chce ale napřed trochu uvažovat - což platí obecně.
Např. když ty snapshoty nepřenášíte na jiný server, pak máte pouze historii, ne zálohu - co třeba požár?Dělám to tak, že to vždycky rsyncnu na zálohovací server a pak udělám snapshot.
Jak odlišíte, co chcete a co nechcete zálohovat?rsync --exclude
Jak a kam tímto způsobem zálohujete padesát různých serverů?Mám jich 14 a mám na to R5 ze 4 2TB disků.
číst kompresovaný tarO kompresi nikde nebylo ani slovo. Ta by to samozřejmě dost komplikovala.
A jaký je důvod použít tar a ne strom adresářů ve file systémuTakový, že jeho FS je NTFS nebo nějaká podobná hrůza.
No ale tar mu stejně nepomůžeHuh? Zataruje ty věci co chce zazálohovat a práva jsou v tom taru, takže je jedno, na jakém FS to bude.
--listed-incremental
vytvářet samostatné inkrementální backupy.
Pokud to tlačí obráceně, tedy zálohu linuxového systému do NTFS, tak přímá kopie nefunguje a může buď tar nebo vytvořit velký soubor v něm udělat linuxový FS, který následně moutne loopem.Tak jsem to pochopil a to jsem mu už doporučoval výše.
Ale pracovat uvnitř taru jako by to byl normální FS, tedy věci přidávat a případně mazat mi přijde nesmyslné.Také tak.
Tiskni Sdílej: