Byla vydána verze 4.0 multiplatformního integrovaného vývojového prostředí (IDE) pro rychlý vývoj aplikaci (RAD) ve Free Pascalu Lazarus (Wikipedie). Přehled novinek v poznámkách k vydání. Využíván je Free Pascal Compiler (FPC) 3.2.2.
Podpora Windows 10 končí 14. října 2025. Připravovaná kampaň Konec desítek (End of 10) může uživatelům pomoci s přechodem na Linux.
Již tuto středu proběhne 50. Virtuální Bastlírna, tedy dle římského číslování L. Bude L značit velikost, tedy více diskutujících než obvykle, či délku, neboť díky svátku lze diskutovat dlouho do noci? Bude i příští Virtuální Bastlírna virtuální nebo reálná? Nejen to se dozvíte, když dorazíte na diskuzní večer o elektronice, softwaru, ale technice obecně, který si můžete představit jako virtuální posezení u piva spojené s učenou
… více »Český statistický úřad rozšiřuje Statistický geoportál o Datový portál GIS s otevřenými geografickými daty. Ten umožňuje stahování datových sad podle potřeb uživatelů i jejich prohlížení v mapě a přináší nové možnosti v oblasti analýzy a využití statistických dat.
Kevin Lin zkouší využívat chytré brýle Mentra při hraní na piano. Vytváří aplikaci AugmentedChords, pomocí které si do brýlí posílá notový zápis (YouTube). Uvnitř brýlí běží AugmentOS (GitHub), tj. open source operační systém pro chytré brýle.
Jarní konference EurOpen.cz 2025 proběhne 26. až 28. května v Brandýse nad Labem. Věnována je programovacím jazykům, vývoji softwaru a programovacím technikám.
Na čem aktuálně pracují vývojáři GNOME a KDE Plasma? Pravidelný přehled novinek v Týden v GNOME a Týden v KDE Plasma.
Před 25 lety zaplavil celý svět virus ILOVEYOU. Virus se šířil e-mailem, jenž nesl přílohu s názvem I Love You. Příjemci, zvědavému, kdo se do něj zamiloval, pak program spuštěný otevřením přílohy načetl z adresáře e-mailové adresy a na ně pak „milostný vzkaz“ poslal dál. Škody vznikaly jak zahlcením e-mailových serverů, tak i druhou činností viru, kterou bylo přemazání souborů uložených v napadeném počítači.
Byla vydána nová major verze 5.0.0 svobodného multiplatformního nástroje BleachBit (GitHub, Wikipedie) určeného především k efektivnímu čištění disku od nepotřebných souborů.
Trochu experimentuji. Mám btrfs device single, původně ze dvou HDD, připojil jsem k tomu 3. a 4., po krátkém používání jsem 4. opět odpojil a pokusil se odpojit 1., kterým to celé bylo přimountované. Během odpojování mi Cron spustil rsync do jednoho subvolume. Čímž se možná něco poblblo, možná ne, ale přinejmenším rsync se zastavil. Takže jsem ho killnul a zastavil cron.
V ten okamžik (resp. cca 1/2 dne po kolizi s rsyncem) jsem možná udělal chybu, protože jsem se pokusil killnout proces btrfs delete, což nejde a zatím stále běží. Jelikož to je pokusný stroj nechal jsem to tedy přes víkend pracovat a opravdu se něco děje.
jádro - systém je 32bit, protože je to "studená" záloha instalace pro stroj, který nemá 64bit CPU
Linux version 3.16.3 (root@charon) (gcc version 4.7.3 (Gentoo 4.7.3-r1 p1.4, pie-0.5.5) ) #1 SMP Mon Oct 6 15:10:18 CEST 2014
systém
cat /proc/cpuinfo ... model name : Intel(R) Pentium(R) CPU G630T @ 2.30GHz ... cpu MHz : 2300.000 cache size : 3072 KB ...
související procesy z topu - něco to dělá, ale netuším, co přesně
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 15149 root 20 0 0 0 0 R 99,4 0,0 175:09.01 kworker/u4:4 3499 root 20 0 0 0 0 R 89,8 0,0 3017:01 btrfs-transacti
devid 3 byl před zadáním delete zcela prázdný, postupně přibyly 4GB za 3 dny běhu, devid 1 je ten, který jsem chtěl odstranit a kterým to je přimountováno do /mnt/backup_btrfs, v okamžiku zadání btrfs delete byl /dev/sde1 zcela prázdný a ještě dlouho po pokusu o kill na něm byly jen 2GB
btrfs filesystem show --all-devices Label: none uuid: 86a80782-b8f9-4d8f-9a61-4aa8e516f589 Total devices 3 FS bytes used 77.88GiB devid 1 size 149.05GiB used 5.03GiB path /dev/sdd1 devid 2 size 298.09GiB used 79.01GiB path /dev/sdc1 devid 3 size 111.79GiB used 4.00GiB path /dev/sde1 Btrfs v3.12
sdd1 je první disk z původní dvojice v btrfs single device
/dev/sdd1 on /mnt/backup_btrfs type btrfs (rw)
btrfs delete stále běží po pokusu o zabití kill -9
8703 ? D 18:48 btrfs device delete /dev/sdd1 /mnt/backup_btrfs/
zajímavé, že v /dev není vidět /dev/sdc1 ani /dev/sde1, ale jen první disk z btrfs single device
ls /dev/disk/by-uuid/ -l ... lrwxrwxrwx 1 root root 10 18. říj 00.54 86a80782-b8f9-4d8f-9a61-4aa8e516f589 -> ../../sdd1
obsah jednoho subvolume/snapshotu, kterých je na btrfs 430
ls -l /mnt/backup_btrfs/daily_rsync_subvolume celkem 0 drwxr-xr-x 1 root root 1076 7. říj 04.05 bin drwxr-xr-x 1 root root 442 6. říj 15.11 boot drwxr-xr-x 1 root root 770 15. srp 14.18 __dalsi_balast_pro_zatizeni_btrfs drwxr-xr-x 1 root root 3152 17. říj 18.03 etc drwxr-xr-x 1 root root 34 6. úno 2012 home drwxr-xr-x 1 root root 3830 7. říj 04.02 lib drwxr-xr-x 1 root root 10 17. srp 2011 opt drwx------ 1 root root 600 15. říj 12.55 root drwxr-xr-x 1 root root 2852 7. říj 04.15 sbin drwxr-xr-x 1 apache apache 512 18. čen 10.55 srv drwxrwxrwt 1 root root 106 17. říj 18.03 tmp drwxr-xr-x 1 root root 138 29. říj 2010 usr drwxr-xr-x 1 root root 106 6. říj 23.18 var
poslední související záznamy v messages, pak už nic nepřibylo (po kolizi s rsyncem)
cat messag* | grep -i btrfs Oct 17 17:21:22 charon kernel: BTRFS info (device sdd1): disk space caching is enabled Oct 17 17:21:58 charon kernel: BTRFS info (device sdd1): relocating block group 73043804160 flags 20 Oct 17 17:25:00 charon kernel: BTRFS info (device sdd1): found 27915 extents Oct 17 17:25:00 charon kernel: BTRFS info (device sdd1): relocating block group 60158902272 flags 20 Oct 17 17:33:21 charon kernel: BTRFS info (device sdd1): found 63267 extents Oct 17 17:33:22 charon kernel: BTRFS info (device sdd1): relocating block group 27946647552 flags 20 Oct 17 18:00:01 charon run-crons[8854]: (root) CMD (/etc/cron.hourly/zalohovani_rsync_btrfs.sh) Oct 17 18:03:46 charon kernel: BTRFS info (device sdd1): disk space caching is enabled Oct 18 00:58:39 charon kernel: BTRFS info (device sdd1): disk space caching is enabled Oct 18 05:11:40 charon kernel: BTRFS info (device sdd1): found 63312 extents Oct 18 05:11:41 charon kernel: BTRFS info (device sdd1): relocating block group 16135487488 flags 20
Aktuálně je tedy na btrfs filesystému 430 snapshotů, v každém z nich je různě aktuální záloha celého Linuxu, mezi některými jsou změny více radikální, protože jsem aktualizoval celé Gentoo. Plus trocha balastu ve větších souborech ... testuju tím zálohovací skripty, takže obsah filesystému je postradatelný.
Ale když už se to takto pěkně pokazilo (nebo je to normální, že to tak dlouho trvá?), tak se chci dozvědět, co možná nejvíc o možné diagnostice, opravě.
Co vy na to?
FS jsem vytvářel pomocí mkfs.btrfs -d single /dev/sdc1 /dev/sdd1 a další disk přidával např. btrfs device add /dev/sde1 /mnt/backup_btrfs/
Krátce po přidání čtvrtého vypadalo btrfs device takto (z mých poznámek během experimentování)
btrfs filesystem show --all-devices Label: none uuid: 86a80782-b8f9-4d8f-9a61-4aa8e516f589 Total devices 4 FS bytes used 75.08GiB devid 1 size 149.05GiB used 5.03GiB path /dev/sdd1 devid 2 size 298.09GiB used 77.01GiB path /dev/sdc1 devid 3 size 111.79GiB used 0.00 path /dev/sde1 devid 4 size 465.76GiB used 0.00 path /dev/sdb1 Btrfs v3.12
Platí i v tuto situaci, že druhý /dev/sde1 a třetí /dev/sdb1 nebyly přidané v režimu single, ale RAID 0?
A nebo spíš jinak ... to, že btrfs rozkládá zátěž na víc disků mi nemusí vadit, žádný z nich není vadný (snad, testem předtím prošly), žádný jsem fyzicky zatím neodpojil (byť jsou všechny na USB), všechna data jsou stále přístupná i když se na pozadí děje něco, do čeho nevidím. Takže i když s tím provedu takovou divočinu, jako odebrání jednoho z prvních disků na kterém byl fs sestaven, tak by se to mělo úspěšně přeorganizovat. Nebo ne?
Mimochodem, ve výpisu
btrfs filesystem df /mnt/backup_btrfs Data, single: total=73.01GiB, used=72.94GiB System, RAID1: total=8.00MiB, used=16.00KiB System, single: total=4.00MiB, used=0.00 Metadata, RAID1: total=6.00GiB, used=4.95GiB Metadata, single: total=8.00MiB, used=0.00 unknown, single: total=512.00MiB, used=49.17MiB
... se mění poslední položka unknown a postupně zmenšuje položka Metadata, RAID1: To bych chápal tak, že btrfs stále pracuje a proto mi nezbývá než počkat až svou práci dokončí.
Od okamžiku, kdy se do toho připletl rsync a poblblo se to (resp. rsync se zastavil na cca hodinu na jednom z mnoha malých souborů než jsem ho ukončil) jsem na to nic dalšího nezapisoval a nechal to v klidu pracovat.
Metadat je hodně, protože snapshotů je 429 + subvolume kam rsync zálohoval. Soubory v subvolume mají dohromady 37G a i s adresářema jich je 783768 (říká find * | wc). Trochu extrém, ale při zálohování maildirů je možné leccos, proto to zkouším na tomto.
ano, to prebalancovani muze trvat dost dlouho, jestli mas disky usb tak klidne i par dni vyhoda je, ze nevadi restart... se mění poslední položka unknown a postupně zmenšuje položka Metadata, RAID1: To bych chápal tak, že btrfs stále pracuje a proto mi nezbývá než počkat až svou práci dokončí.
btrfs filesystem df /mnt/backup_btrfs
jinak me se kousl RAID5 pri zapisu spousty dat, asi neco podobneho, jako vidis ty;
po restartu se to tvarilo normalne, scrub nic nenasel, zapisovany adresar jsem smazal a zapsal znova
ted uz to nejakou dobu nedela
říká
btrfs filesystem df /mnt/backup_btrfs Data, single: total=73.01GiB, used=72.94GiB System, RAID1: total=8.00MiB, used=16.00KiB System, single: total=4.00MiB, used=0.00 Metadata, RAID1: total=6.00GiB, used=4.97GiB Metadata, single: total=8.00MiB, used=0.00 unknown, single: total=512.00MiB, used=28.33MiB
Určitě jsem nechtěl RAID0/10/5, nejde mi o zrychlení, ani redundanci, ale spíš o možnost "nastavovat" v nouzi prostor pro zálohy, když nastane situace, kdy není snadné disk vyměnit, nebo je potřeba větší prostor, než jsou běžně/levně koupitelné kapacity. Nebo pro případ, že mám spoustu příliš malých HDD, které se k ničemu lepšímu nehodí (třeba 500G) a chci na ně duplicitně zálohovat "něco" navíc. Tj. získám tím určité pohodlí při obnově ze zálohy, nebo delší historii záloh, ale zároveň příliš neriskuji, protože existuje ještě jedna záloha na zcela jiném úložišti s jiným fs. Tím pádem mne i zajímalo, co btrfs provede v trochu víc extrémních situacích.
btrfs balance start -dconvert=raid1 -mconvert=raid1 /mnt/backup_btrfs
nojo, mas smotany dohromady single a raid1, to asi neni uplne normalni...
Nemá. Všechna data má single. Metadata jsou buďto duplikovaná (na jednom disku) nebo R1 na multidevice. Tohle chování je správné.
porad to nechapu, jak chces ty disky pridavat a ubirat a pritom nechces redundanci?
Jenomže on nepožaduje (jak to chápu) redundanci proti (hw) výpadku disku. On to přidává pomocí btrfs device add a ubírá pomocí btrfs device delete. Při tomto způsobu o žádná data a ani metada při odstranění disku nepřijde, btrfs to realokuje jinam.
neni lepsi mit alespon metadata R1? a data teda single no
Ale on to tak má:
Data, single: total=73.01GiB, used=72.94GiB Metadata, RAID1: total=6.00GiB, used=4.97GiB
signalizuje nejak btrfs, ze uz muze?
Ano. Příkaz delete dojede a ve fi show to zařízení zmizí.
Tiskni
Sdílej: