Byla vydána nová verze 6.7 živé linuxové distribuce Tails (The Amnesic Incognito Live System), jež klade důraz na ochranu soukromí uživatelů a anonymitu. Přehled změn v příslušném seznamu. Tor Browser byl povýšen na verzi 13.5.3. Thunderbird na verzi 115.15.0. OnionShare z verze 2.2 na verzi 2.6.
Rozsudky Soudního dvora Evropské unie ve věcech C-465/20 P (Apple) a C-48/22 P (Google a Alphabet): Irsko poskytlo společnosti Apple protiprávní daňová zvýhodnění ve výši 13 miliard eur a je povinné je získat zpět. Byla potvrzena pokuta ve výši 2,4 miliardy eur uložená společnosti Google za to, že zneužívala svého dominantního postavení tím, že upřednostňovala vlastní službu srovnávání výrobků.
Apache Cassandra (Wikipedie), tj. open source NoSQL distribuovaná databáze, byla vydána v nové major verzi 5.0. Přehled novinek v příspěvku na blogu a v souboru NEWS na GitHubu.
Společnost MNT Research oznámila, že po open source noteboocích MNT Reform a MNT Pocket Reform bude následovat MNT Reform Next. Časem se objeví na Crowd Supply. Vývoj lze sledovat na Mastodonu.
Apple představil (YouTube) telefony iPhone 16 Pro a iPhone 16, hodinky Watch Series 10 a Watch Ultra 2 a sluchátka AirPods 4, AirPods Pro 2 a AirPods Max.
Byla vydána verze 0.9.0 operačního systému Redox OS (Wikipedie). Jedná se o mikrokernelový unixový operační systém naprogramovaný v programovacím jazyce Rust. Zdrojové kódy jsou k dispozici na GitLabu pod licencí MIT. Z novinek lze vypíchnout aplikace Files, Editor a Terminal z desktopového prostředí COSMIC, RustPython nebo webový server Simple HTTP Server.
Dnes ve 23:59 končí hlasování o přednáškách na konferenci LinuxDays 2024, která proběhne o víkendu 12. a 13. října v Praze.
Vývojáři KDE ve spolupráci se společností Slimbook oznámili 16palcový notebook KDE Slimbook VI s předinstalovaným KDE Neon s Plasmou 6. Uvnitř se nachází procesor AMD Ryzen 7 8845HS s integrovanou grafickou kartou Radeon 780M.
Ve Würzburgu dnes začala konference vývojářů a uživatelů desktopového prostředí KDE Akademy 2024. Sledovat lze také online (YouTube, Mastodon, 𝕏, …)
Byla vydána nová major verze 14 svobodného systému pro řízení přístupu k síti (NAC) PacketFence (Wikipedie). Přehled novinek v oznámení o vydání. Pro uživatele předchozích verzí jsou k dispozici poznámky k aktualizaci.
Trochu experimentuji. Mám btrfs device single, původně ze dvou HDD, připojil jsem k tomu 3. a 4., po krátkém používání jsem 4. opět odpojil a pokusil se odpojit 1., kterým to celé bylo přimountované. Během odpojování mi Cron spustil rsync do jednoho subvolume. Čímž se možná něco poblblo, možná ne, ale přinejmenším rsync se zastavil. Takže jsem ho killnul a zastavil cron.
V ten okamžik (resp. cca 1/2 dne po kolizi s rsyncem) jsem možná udělal chybu, protože jsem se pokusil killnout proces btrfs delete, což nejde a zatím stále běží. Jelikož to je pokusný stroj nechal jsem to tedy přes víkend pracovat a opravdu se něco děje.
jádro - systém je 32bit, protože je to "studená" záloha instalace pro stroj, který nemá 64bit CPU
Linux version 3.16.3 (root@charon) (gcc version 4.7.3 (Gentoo 4.7.3-r1 p1.4, pie-0.5.5) ) #1 SMP Mon Oct 6 15:10:18 CEST 2014
systém
cat /proc/cpuinfo ... model name : Intel(R) Pentium(R) CPU G630T @ 2.30GHz ... cpu MHz : 2300.000 cache size : 3072 KB ...
související procesy z topu - něco to dělá, ale netuším, co přesně
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 15149 root 20 0 0 0 0 R 99,4 0,0 175:09.01 kworker/u4:4 3499 root 20 0 0 0 0 R 89,8 0,0 3017:01 btrfs-transacti
devid 3 byl před zadáním delete zcela prázdný, postupně přibyly 4GB za 3 dny běhu, devid 1 je ten, který jsem chtěl odstranit a kterým to je přimountováno do /mnt/backup_btrfs, v okamžiku zadání btrfs delete byl /dev/sde1 zcela prázdný a ještě dlouho po pokusu o kill na něm byly jen 2GB
btrfs filesystem show --all-devices Label: none uuid: 86a80782-b8f9-4d8f-9a61-4aa8e516f589 Total devices 3 FS bytes used 77.88GiB devid 1 size 149.05GiB used 5.03GiB path /dev/sdd1 devid 2 size 298.09GiB used 79.01GiB path /dev/sdc1 devid 3 size 111.79GiB used 4.00GiB path /dev/sde1 Btrfs v3.12
sdd1 je první disk z původní dvojice v btrfs single device
/dev/sdd1 on /mnt/backup_btrfs type btrfs (rw)
btrfs delete stále běží po pokusu o zabití kill -9
8703 ? D 18:48 btrfs device delete /dev/sdd1 /mnt/backup_btrfs/
zajímavé, že v /dev není vidět /dev/sdc1 ani /dev/sde1, ale jen první disk z btrfs single device
ls /dev/disk/by-uuid/ -l ... lrwxrwxrwx 1 root root 10 18. říj 00.54 86a80782-b8f9-4d8f-9a61-4aa8e516f589 -> ../../sdd1
obsah jednoho subvolume/snapshotu, kterých je na btrfs 430
ls -l /mnt/backup_btrfs/daily_rsync_subvolume celkem 0 drwxr-xr-x 1 root root 1076 7. říj 04.05 bin drwxr-xr-x 1 root root 442 6. říj 15.11 boot drwxr-xr-x 1 root root 770 15. srp 14.18 __dalsi_balast_pro_zatizeni_btrfs drwxr-xr-x 1 root root 3152 17. říj 18.03 etc drwxr-xr-x 1 root root 34 6. úno 2012 home drwxr-xr-x 1 root root 3830 7. říj 04.02 lib drwxr-xr-x 1 root root 10 17. srp 2011 opt drwx------ 1 root root 600 15. říj 12.55 root drwxr-xr-x 1 root root 2852 7. říj 04.15 sbin drwxr-xr-x 1 apache apache 512 18. čen 10.55 srv drwxrwxrwt 1 root root 106 17. říj 18.03 tmp drwxr-xr-x 1 root root 138 29. říj 2010 usr drwxr-xr-x 1 root root 106 6. říj 23.18 var
poslední související záznamy v messages, pak už nic nepřibylo (po kolizi s rsyncem)
cat messag* | grep -i btrfs Oct 17 17:21:22 charon kernel: BTRFS info (device sdd1): disk space caching is enabled Oct 17 17:21:58 charon kernel: BTRFS info (device sdd1): relocating block group 73043804160 flags 20 Oct 17 17:25:00 charon kernel: BTRFS info (device sdd1): found 27915 extents Oct 17 17:25:00 charon kernel: BTRFS info (device sdd1): relocating block group 60158902272 flags 20 Oct 17 17:33:21 charon kernel: BTRFS info (device sdd1): found 63267 extents Oct 17 17:33:22 charon kernel: BTRFS info (device sdd1): relocating block group 27946647552 flags 20 Oct 17 18:00:01 charon run-crons[8854]: (root) CMD (/etc/cron.hourly/zalohovani_rsync_btrfs.sh) Oct 17 18:03:46 charon kernel: BTRFS info (device sdd1): disk space caching is enabled Oct 18 00:58:39 charon kernel: BTRFS info (device sdd1): disk space caching is enabled Oct 18 05:11:40 charon kernel: BTRFS info (device sdd1): found 63312 extents Oct 18 05:11:41 charon kernel: BTRFS info (device sdd1): relocating block group 16135487488 flags 20
Aktuálně je tedy na btrfs filesystému 430 snapshotů, v každém z nich je různě aktuální záloha celého Linuxu, mezi některými jsou změny více radikální, protože jsem aktualizoval celé Gentoo. Plus trocha balastu ve větších souborech ... testuju tím zálohovací skripty, takže obsah filesystému je postradatelný.
Ale když už se to takto pěkně pokazilo (nebo je to normální, že to tak dlouho trvá?), tak se chci dozvědět, co možná nejvíc o možné diagnostice, opravě.
Co vy na to?
FS jsem vytvářel pomocí mkfs.btrfs -d single /dev/sdc1 /dev/sdd1 a další disk přidával např. btrfs device add /dev/sde1 /mnt/backup_btrfs/
Krátce po přidání čtvrtého vypadalo btrfs device takto (z mých poznámek během experimentování)
btrfs filesystem show --all-devices Label: none uuid: 86a80782-b8f9-4d8f-9a61-4aa8e516f589 Total devices 4 FS bytes used 75.08GiB devid 1 size 149.05GiB used 5.03GiB path /dev/sdd1 devid 2 size 298.09GiB used 77.01GiB path /dev/sdc1 devid 3 size 111.79GiB used 0.00 path /dev/sde1 devid 4 size 465.76GiB used 0.00 path /dev/sdb1 Btrfs v3.12
Platí i v tuto situaci, že druhý /dev/sde1 a třetí /dev/sdb1 nebyly přidané v režimu single, ale RAID 0?
A nebo spíš jinak ... to, že btrfs rozkládá zátěž na víc disků mi nemusí vadit, žádný z nich není vadný (snad, testem předtím prošly), žádný jsem fyzicky zatím neodpojil (byť jsou všechny na USB), všechna data jsou stále přístupná i když se na pozadí děje něco, do čeho nevidím. Takže i když s tím provedu takovou divočinu, jako odebrání jednoho z prvních disků na kterém byl fs sestaven, tak by se to mělo úspěšně přeorganizovat. Nebo ne?
Mimochodem, ve výpisu
btrfs filesystem df /mnt/backup_btrfs Data, single: total=73.01GiB, used=72.94GiB System, RAID1: total=8.00MiB, used=16.00KiB System, single: total=4.00MiB, used=0.00 Metadata, RAID1: total=6.00GiB, used=4.95GiB Metadata, single: total=8.00MiB, used=0.00 unknown, single: total=512.00MiB, used=49.17MiB
... se mění poslední položka unknown a postupně zmenšuje položka Metadata, RAID1: To bych chápal tak, že btrfs stále pracuje a proto mi nezbývá než počkat až svou práci dokončí.
Od okamžiku, kdy se do toho připletl rsync a poblblo se to (resp. rsync se zastavil na cca hodinu na jednom z mnoha malých souborů než jsem ho ukončil) jsem na to nic dalšího nezapisoval a nechal to v klidu pracovat.
Metadat je hodně, protože snapshotů je 429 + subvolume kam rsync zálohoval. Soubory v subvolume mají dohromady 37G a i s adresářema jich je 783768 (říká find * | wc). Trochu extrém, ale při zálohování maildirů je možné leccos, proto to zkouším na tomto.
ano, to prebalancovani muze trvat dost dlouho, jestli mas disky usb tak klidne i par dni vyhoda je, ze nevadi restart... se mění poslední položka unknown a postupně zmenšuje položka Metadata, RAID1: To bych chápal tak, že btrfs stále pracuje a proto mi nezbývá než počkat až svou práci dokončí.
btrfs filesystem df /mnt/backup_btrfs
jinak me se kousl RAID5 pri zapisu spousty dat, asi neco podobneho, jako vidis ty;
po restartu se to tvarilo normalne, scrub nic nenasel, zapisovany adresar jsem smazal a zapsal znova
ted uz to nejakou dobu nedela
říká
btrfs filesystem df /mnt/backup_btrfs Data, single: total=73.01GiB, used=72.94GiB System, RAID1: total=8.00MiB, used=16.00KiB System, single: total=4.00MiB, used=0.00 Metadata, RAID1: total=6.00GiB, used=4.97GiB Metadata, single: total=8.00MiB, used=0.00 unknown, single: total=512.00MiB, used=28.33MiB
Určitě jsem nechtěl RAID0/10/5, nejde mi o zrychlení, ani redundanci, ale spíš o možnost "nastavovat" v nouzi prostor pro zálohy, když nastane situace, kdy není snadné disk vyměnit, nebo je potřeba větší prostor, než jsou běžně/levně koupitelné kapacity. Nebo pro případ, že mám spoustu příliš malých HDD, které se k ničemu lepšímu nehodí (třeba 500G) a chci na ně duplicitně zálohovat "něco" navíc. Tj. získám tím určité pohodlí při obnově ze zálohy, nebo delší historii záloh, ale zároveň příliš neriskuji, protože existuje ještě jedna záloha na zcela jiném úložišti s jiným fs. Tím pádem mne i zajímalo, co btrfs provede v trochu víc extrémních situacích.
btrfs balance start -dconvert=raid1 -mconvert=raid1 /mnt/backup_btrfs
nojo, mas smotany dohromady single a raid1, to asi neni uplne normalni...
Nemá. Všechna data má single. Metadata jsou buďto duplikovaná (na jednom disku) nebo R1 na multidevice. Tohle chování je správné.
porad to nechapu, jak chces ty disky pridavat a ubirat a pritom nechces redundanci?
Jenomže on nepožaduje (jak to chápu) redundanci proti (hw) výpadku disku. On to přidává pomocí btrfs device add a ubírá pomocí btrfs device delete. Při tomto způsobu o žádná data a ani metada při odstranění disku nepřijde, btrfs to realokuje jinam.
neni lepsi mit alespon metadata R1? a data teda single no
Ale on to tak má:
Data, single: total=73.01GiB, used=72.94GiB Metadata, RAID1: total=6.00GiB, used=4.97GiB
signalizuje nejak btrfs, ze uz muze?
Ano. Příkaz delete dojede a ve fi show to zařízení zmizí.
Tiskni Sdílej: