Byl vydán Debian GNU/Hurd 2025. Jedná se o port Debianu s jádrem Hurd místo obvyklého Linuxu.
V sobotu 9. srpna uplynulo přesně 20 let od oznámení projektu openSUSE na konferenci LinuxWorld v San Franciscu. Pokuď máte archivní nebo nějakým způsobem zajímavé fotky s openSUSE, můžete se o ně s námi podělit.
Byl vydán Debian 13 s kódovým názvem Trixie. Přehled novinek v poznámkách k vydání.
WLED je open-source firmware pro ESP8266/ESP32, který umožňuje Wi-Fi ovládání adresovatelných LED pásků se stovkami efektů, synchronizací, audioreaktivním módem a Home-Assistant integrací. Je založen na Arduino frameworku.
Open source platforma Home Assistant (Demo, GitHub, Wikipedie) pro monitorování a řízení inteligentní domácnosti byla vydána v nové verzi 2025.8.
Herní studio Hangar 13 vydalo novou Mafii. Mafia: Domovina je zasazena do krutého sicilského podsvětí na začátku 20. století. Na ProtonDB je zatím bez záznamu.
Operátor O2 má opět problémy. Jako omluvu za pondělní zhoršenou dostupnost služeb dal všem zákazníkům poukaz v hodnotě 300 Kč na nákup telefonu nebo příslušenství.
Společnost OpenAI představila GPT-5 (YouTube).
Byla vydána (𝕏) červencová aktualizace aneb nová verze 1.103 editoru zdrojových kódů Visual Studio Code (Wikipedie). Přehled novinek i s náhledy a videi v poznámkách k vydání. Ve verzi 1.103 vyjde také VSCodium, tj. komunitní sestavení Visual Studia Code bez telemetrie a licenčních podmínek Microsoftu.
Americký prezident Donald Trump vyzval nového generálního ředitele firmy na výrobu čipů Intel, aby odstoupil. Prezident to zdůvodnil vazbami nového šéfa Lip-Bu Tana na čínské firmy.
df
se nic nezobrazoval a mount adresáře byly prázdné.btrfs device add device mount-point-raidu
jsem je do raidu přidalbtrfs balance
. A pojede ještě dlouho protože se balancuje pár TB/dev/fstab
které původně mountovaly disky, které jsem přidával do RAID1. A následně jsem chtěl zrušit adresáře, do nichž byly ty disky připojovány. A z překvapením jsem zjistil, že jsou plné, a že je do nich vlastně namountovaná struktura btrfs raidu ještě jednou (dvakrát). Pokud si vypíšu df
tak je výsledek "jak si představuji že by měl být" tedy RAID je připojen pouze do svého standardního bodu. Nicméně příkaz mount
mi vypíše tuto skutečnou situaci, tedy že RAID je připojen do všech třech adresářů. Dokonce mount
tam připojuje ani ne ty disky, které tam byly připojeny původně, ale původní disk ze kterého jsem RAID stavěl tedy nejdříve připojení jednoho disku s konverzí btrfs na RAID.
Ptám se jestli nevíte, proč to takto dopadlo? Jak dojede balance tak systém přebootnu a pak si myslím že vše bude jak má být stejně jako ten první pridávaný disky tak již nikde není připojen, ted na to samozřejmě nebudu sahat. Připadá mi že někde v tabulce zůstalo připojení i když jsem disky odmountoval.
Nicméně příkaz mount mi vypíše tuto skutečnou situaci, tedy že RAID je připojen do všech třech adresářů.Každopádně pokud používáš subvolume, tak je úplně jasné že se zobrazí ve všech případech jedno a to samé zařízení. Rozhodující je totiž položka subvol v závorce.
Dokonce mount tam připojuje ani ne ty disky, které tam byly připojeny původně, ale původní disk ze kterého jsem RAID stavěl tedy nejdříve připojení jednoho disku s konverzí btrfs na RAID.Tohle jsem nebyl schopen dešifrovat. Pokud jsi měl Btrfs v raid1, do kterého jsi přidal další dva disky, tak se nic nemění. Vždy uvidíš v mountu jen ten disk, který je aktuálně první v seznamu. I kdybys to Btrfs nakrásně připojoval přes libovolný z disků co ho tvoří.
1,5 GB logůTo by ma zaujímalo ako sa takéto niečo dá dosiahnuť.
ll /var/log/journal/36045237ff4d4f07a6169708d88c9648 celkem 4,1G -rw-r-----+ 1 root systemd-journal 80M 18. lis 06.56 system@dc444159ca37456fb98a938af1818d8d-0000000000000001-00057a57eefa656c.journal -rw-r-----+ 1 root systemd-journal 64M 22. lis 19.32 system@dc444159ca37456fb98a938af1818d8d-00000000000343dc-00057aea0fdd3d4c.journal -rw-r-----+ 1 root systemd-journal 64M 2. pro 20.26 system@dc444159ca37456fb98a938af1818d8d-0000000000070740-00057b45182e415a.journal -rw-r-----+ 1 root systemd-journal 96M 11. říj 00.57 system@fd1690ad8e054e3791c404c5676028d8-00000000000c8b66-0005771dd7c1eab9.journal -rw-r-----+ 1 root systemd-journal 104M 25. říj 01.09 system@fd1690ad8e054e3791c404c5676028d8-00000000000ff2ae-000577e7cbd375d2.journal -rw-r-----+ 1 root systemd-journal 8,0M 3. zář 17.16 system@fd1690ad8e054e3791c404c5676028d8-0000000000000001-000574e99add22a8.journal -rw-r-----+ 1 root systemd-journal 8,0M 7. zář 00.41 system@fd1690ad8e054e3791c404c5676028d8-0000000000019066-000574f912f817e4.journal -rw-r-----+ 1 root systemd-journal 40M 19. zář 11.38 system@fd1690ad8e054e3791c404c5676028d8-0000000000032276-0005753b9796323c.journal -rw-r-----+ 1 root systemd-journal 8,0M 22. zář 00.29 system@fd1690ad8e054e3791c404c5676028d8-0000000000059405-0005763b2607ec0b.journal -rw-r-----+ 1 root systemd-journal 40M 26. zář 22.53 system@fd1690ad8e054e3791c404c5676028d8-0000000000078618-0005766d70a6b597.journal -rw-r-----+ 1 root systemd-journal 56M 1. říj 00.02 system@fd1690ad8e054e3791c404c5676028d8-000000000009d26c-000576cc6c1d1be6.journal -rw-r-----+ 1 root systemd-journal 72M 3. lis 05.55 system@fd1690ad8e054e3791c404c5676028d8-0000000000136d71-0005790194ee8b68.journal -rw-r-----+ 1 root systemd-journal 40M 8. lis 01.56 system@fd1690ad8e054e3791c404c5676028d8-00000000001681b9-000579bb7a4877c6.journal -rw-r-----+ 1 root systemd-journal 40M 29. čec 14.24 system@f92e638f402643ff9b7d4bbc6e7d0c10-0000000000000001-00056fa7611a0a7f.journal -rw-r-----+ 1 root systemd-journal 8,0M 29. čec 14.24 system@f92e638f402643ff9b7d4bbc6e7d0c10-0000000000025e79-000572226b9bbc74.journal -rw-r-----+ 1 root systemd-journal 8,0M 29. čec 14.32 system@f92e638f402643ff9b7d4bbc6e7d0c10-000000000002602a-000572226c28b0d5.journal -rw-r-----+ 1 root systemd-journal 24M 23. srp 18.46 system@f92e638f402643ff9b7d4bbc6e7d0c10-0000000000026073-000572228a966906.journal -rw-r-----+ 1 root systemd-journal 16M 29. srp 01.06 system@f92e638f402643ff9b7d4bbc6e7d0c10-0000000000049f3a-0005741d1eacfa0f.journal -rw-r-----+ 1 root systemd-journal 32M 24. led 09.48 system.journal -rw-r-----+ 1 root systemd-journal 24M 13. čen 2018 system@00056e8bb5ccdbc2-b8da946c5af0a7e5.journal~ -rw-r-----+ 1 root systemd-journal 40M 28. čen 2018 system@00056fa761131c52-a71b3a710c4da8a4.journal~ -rw-r-----+ 1 root systemd-journal 24M 11. lis 00.36 system@00057a57eeec0075-92342c4210948841.journal~ -rw-r-----+ 1 root systemd-journal 24M 5. pro 15.53 system@00057c478a94970d-4b4dc7dd99328518.journal~ -rw-r-----+ 1 root systemd-journal 24M 14. led 21.55 system@00057f71427a9f6a-3ec3d505a946586c.journal~ -rw-r-----+ 1 root systemd-journal 16M 2. zář 22.52 system@000574e99adef0ed-6b725eeeecd78ab8.journal~ -rw-r-----+ 1 root systemd-journal 8,0M 18. zář 08.46 system@059c807f1cfe438eae584cc30b332ad7-0000000000000001-0005761fa4e1cf69.journal -rw-r-----+ 1 root systemd-journal 8,0M 29. kvě 2018 system@2ff953404a9d4bcd8ec860345ffa0fa4-000000000020d5c1-00056d2191fb1724.journal -rw-r-----+ 1 root systemd-journal 104M 17. pro 13.25 system@47e81a4605014f6ca1a047e5449bc470-00000000000a4188-00057c566c919b3e.journal -rw-r-----+ 1 root systemd-journal 40M 2. led 19.58 system@47e81a4605014f6ca1a047e5449bc470-00000000000d98b1-00057d36e282610c.journal -rw-r-----+ 1 root systemd-journal 24M 7. led 00.42 system@47e81a4605014f6ca1a047e5449bc470-00000000000ed922-00057e7e39d38fc0.journal -rw-r-----+ 1 root systemd-journal 48M 11. led 23.04 system@47e81a4605014f6ca1a047e5449bc470-00000000000f95e6-00057ed2abb9ada7.journal -rw-r-----+ 1 root systemd-journal 16M 6. pro 09.38 system@47e81a4605014f6ca1a047e5449bc470-0000000000000001-00057c478a92ab3f.journal -rw-r-----+ 1 root systemd-journal 24M 16. led 08.02 system@56e41f92bc9d484aa0b193d2e7ae543f-0000000000000001-00057f7142789a74.journal -rw-r-----+ 1 root systemd-journal 40M 21. led 02.19 system@56e41f92bc9d484aa0b193d2e7ae543f-000000000013d2fd-00057f8ddb1489dc.journal -rw-r-----+ 1 root systemd-journal 24M 22. led 19.17 system@56e41f92bc9d484aa0b193d2e7ae543f-00000000001649fb-00057feda712eb5c.journal -rw-r-----+ 1 root systemd-journal 128M 11. říj 00.57 user-1000@a36fdab0f66245f286577d6376b59bd2-00000000000c8b62-0005771dd70dd881.journal -rw-r-----+ 1 root systemd-journal 128M 25. říj 01.09 user-1000@a36fdab0f66245f286577d6376b59bd2-00000000000fef14-000577e7c914da48.journal -rw-r-----+ 1 root systemd-journal 128M 3. zář 17.19 user-1000@a36fdab0f66245f286577d6376b59bd2-0000000000000515-000574e9a14662a2.journal -rw-r-----+ 1 root systemd-journal 128M 7. zář 00.41 user-1000@a36fdab0f66245f286577d6376b59bd2-0000000000019061-000574f912c0fa59.journal -rw-r-----+ 1 root systemd-journal 128M 19. zář 17.31 user-1000@a36fdab0f66245f286577d6376b59bd2-000000000003204e-0005753b9719f0dc.journal -rw-r-----+ 1 root systemd-journal 128M 22. zář 01.06 user-1000@a36fdab0f66245f286577d6376b59bd2-000000000005937f-0005763b1a95b133.journal -rw-r-----+ 1 root systemd-journal 128M 26. zář 22.53 user-1000@a36fdab0f66245f286577d6376b59bd2-0000000000076e2b-00057669b09586c6.journal -rw-r-----+ 1 root systemd-journal 128M 1. říj 00.02 user-1000@a36fdab0f66245f286577d6376b59bd2-000000000009d262-000576cc697b9927.journal -rw-r-----+ 1 root systemd-journal 128M 3. lis 05.55 user-1000@a36fdab0f66245f286577d6376b59bd2-0000000000136d3c-00057901934203cb.journal -rw-r-----+ 1 root systemd-journal 128M 8. lis 01.56 user-1000@a36fdab0f66245f286577d6376b59bd2-00000000001681b2-000579bb777f7e9c.journal -rw-r-----+ 1 root systemd-journal 16M 24. led 09.48 user-1000.journal -rw-r-----+ 1 root systemd-journal 8,0M 30. kvě 2018 user-1000@00056d71c3e5010a-9244d530ac72b235.journal~ -rw-r-----+ 1 root systemd-journal 72M 13. čen 2018 user-1000@00056e8bcc78b0ef-926841aba97f2f51.journal~ -rw-r-----+ 1 root systemd-journal 64M 28. čen 2018 user-1000@00056fa7611d598b-c14d3b6927ce211e.journal~ -rw-r-----+ 1 root systemd-journal 80M 20. čen 2018 user-1000@00056f165f907c80-283c2a779c53f528.journal~ -rw-r-----+ 1 root systemd-journal 72M 11. lis 00.36 user-1000@00057a57eeff5d47-f56c6ede72021fb6.journal~ -rw-r-----+ 1 root systemd-journal 48M 2. zář 22.54 user-1000@000574e9a146d791-ad021424e9d9c6b7.journal~ -rw-r-----+ 1 root systemd-journal 128M 17. pro 13.25 user-1000@188c9b557c0a4359ba0ccaa9e6a31e2b-00000000000a4183-00057c566bb408f3.journal -rw-r-----+ 1 root systemd-journal 128M 11. led 23.04 user-1000@188c9b557c0a4359ba0ccaa9e6a31e2b-00000000000d98a5-00057d36e08ed3ba.journal -rw-r-----+ 1 root systemd-journal 128M 18. lis 06.56 user-1000@188c9b557c0a4359ba0ccaa9e6a31e2b-0000000000000025-00057a57eefa9553.journal -rw-r-----+ 1 root systemd-journal 128M 6. pro 09.38 user-1000@188c9b557c0a4359ba0ccaa9e6a31e2b-00000000000343d6-00057aea0f8297e1.journal -rw-r-----+ 1 root systemd-journal 128M 16. led 08.02 user-1000@188c9b557c0a4359ba0ccaa9e6a31e2b-0000000000113844-00057f35dfc07bb9.journal -rw-r-----+ 1 root systemd-journal 128M 21. led 02.19 user-1000@188c9b557c0a4359ba0ccaa9e6a31e2b-000000000013bc20-00057f8ddab43e39.journal -rw-r-----+ 1 root systemd-journal 96M 22. led 19.17 user-1000@188c9b557c0a4359ba0ccaa9e6a31e2b-0000000000163adb-00057feda690320d.journal -rw-r-----+ 1 root systemd-journal 120M 29. čec 14.32 user-1000@85502f274d0842af92d5679bf7d9ef4c-0000000000000017-00056fa7611a2bfe.journal -rw-r-----+ 1 root systemd-journal 128M 23. srp 18.47 user-1000@85502f274d0842af92d5679bf7d9ef4c-0000000000026071-000572228a93104f.journal -rw-r-----+ 1 root systemd-journal 64M 29. srp 01.06 user-1000@85502f274d0842af92d5679bf7d9ef4c-0000000000049dfa-0005741d04c76893.journal -rw-r-----+ 1 root systemd-journal 8,0M 22. lis 19.32 user-1001@4f4b4eb505ee4349b1d025a79ea9d570-000000000006548d-00057486e556966b.journal -rw-r-----+ 1 root systemd-journal 8,0M 11. led 23.04 user-1001@4f4b4eb505ee4349b1d025a79ea9d570-000000000007073f-00057b45182ada47.journal
Můj komentář není rada, nýbrž důležité off-topic varování. (Tohle už tu totiž párkrát bylo.) Btrfs nemá nic takového jako RAID1 na víc než 2 discích!
Tady se to například probíralo.
Pozor na věc; iluze redundance je (pro data) horší než absence redundance. (Protože iluze redundance do značné míry ovlivňuje chování a rozhodování uživatele stran zálohování atd.) Pro RAID1 na víc než 2 discích je nutné mít ZFS.
ZFS samozřejmě také duplikuje jen obsazené bloky, ne celý disk.Jestli to je samozřejmé nevím, protože když jsem skládal ZFS, tak vyžadoval pro svoje raid zařízení odpovídající počet disků o stejné kapacitě, takže to v tomto směru bylo stejné jako u MD raidu - můžeš použít různě velké disky, ale kapacitu raidu určuje nejmenší z nich.
Prostě než se překlopí duplikované bloky z mrtvého disku na třetí, jede to bez redundanceV takovém případě se ale nepoužívá raid1, ale raid56
řešit takové věci na jednom lokálním stroji je fakt blbost.
btrfs replace start /dev/left /dev/new_device /mnt/foo
se btrfs bude snažit přečíst co půjde s padajícího disku.
Tiskni
Sdílej: