Richard Stallman dnes v Liberci přednáší o svobodném softwaru a svobodě v digitální společnosti. Od 16:30 v aule budovy G na Technické univerzitě v Liberci. V anglickém jazyce s automaticky generovanými českými titulky. Vstup je zdarma i pro širokou veřejnost.
sudo-rs, tj. sudo a su přepsáné do programovacího jazyka Rust, nahradí v Ubuntu 25.10 klasické sudo. V plánu je také přechod od klasických coreutils k uutils coreutils napsaných v Rustu.
Fedora se stala oficiální distribucí WSL (Windows Subsystem for Linux).
Společnost IBM představila server IBM LinuxONE Emperor 5 poháněný procesorem IBM Telum II.
Byla vydána verze 4.0 multiplatformního integrovaného vývojového prostředí (IDE) pro rychlý vývoj aplikaci (RAD) ve Free Pascalu Lazarus (Wikipedie). Přehled novinek v poznámkách k vydání. Využíván je Free Pascal Compiler (FPC) 3.2.2.
Podpora Windows 10 končí 14. října 2025. Připravovaná kampaň Konec desítek (End of 10) může uživatelům pomoci s přechodem na Linux.
Již tuto středu proběhne 50. Virtuální Bastlírna, tedy dle římského číslování L. Bude L značit velikost, tedy více diskutujících než obvykle, či délku, neboť díky svátku lze diskutovat dlouho do noci? Bude i příští Virtuální Bastlírna virtuální nebo reálná? Nejen to se dozvíte, když dorazíte na diskuzní večer o elektronice, softwaru, ale technice obecně, který si můžete představit jako virtuální posezení u piva spojené s učenou
… více »Český statistický úřad rozšiřuje Statistický geoportál o Datový portál GIS s otevřenými geografickými daty. Ten umožňuje stahování datových sad podle potřeb uživatelů i jejich prohlížení v mapě a přináší nové možnosti v oblasti analýzy a využití statistických dat.
Kevin Lin zkouší využívat chytré brýle Mentra při hraní na piano. Vytváří aplikaci AugmentedChords, pomocí které si do brýlí posílá notový zápis (YouTube). Uvnitř brýlí běží AugmentOS (GitHub), tj. open source operační systém pro chytré brýle.
dub 11 08:02:03 gw kernel: sd 0:0:0:0: [sda] Synchronizing SCSI cache dub 11 08:02:03 gw kernel: sd 0:0:0:0: [sda] Stopping disk dub 11 08:02:03 gw kernel: ata1.00: disabled dub 11 08:02:03 gw udisksd[1133]: Unable to resolve /sys/devices/virtual/block/md126/md/dev-sdb/block symlink dub 11 08:02:03 gw kernel: md/raid:md126: Disk failure on sdb, disabling device. dub 11 08:02:03 gw kernel: md/raid:md126: Operation continuing on 3 devices. dub 11 08:02:03 gw kernel: sd 2:0:0:0: [sdb] Synchronizing SCSI cache dub 11 08:02:03 gw kernel: sd 2:0:0:0: [sdb] Stopping disk dub 11 08:02:03 gw udisksd[1133]: Unable to resolve /sys/devices/virtual/block/md126/md/dev-sdb/block symlink dub 11 08:02:03 gw kernel: ata3.00: disabled dub 11 08:02:03 gw kernel: md/raid:md126: Disk failure on sdc, disabling device. dub 11 08:02:03 gw kernel: md/raid:md126: Cannot continue operation (2/4 failed). dub 11 08:02:03 gw kernel: md126: detected capacity change from 23438819328 to 0 dub 11 08:02:03 gw kernel: md/raid:md126: device sde operational as raid disk 3 dub 11 08:02:03 gw kernel: md/raid:md126: device sdd operational as raid disk 0 dub 11 08:02:03 gw kernel: sd 3:0:0:0: [sdc] Synchronizing SCSI cache dub 11 08:02:03 gw kernel: md/raid:md126: not enough operational devices (2/4 failed) dub 11 08:02:03 gw kernel: md/raid:md126: failed to run raid set. dub 11 08:02:03 gw kernel: md: pers->run() failed ... dub 11 08:02:03 gw kernel: md: md126 stopped. dub 11 08:02:04 gw kernel: sd 3:0:0:0: [sdc] Stopping disk dub 11 08:02:04 gw systemd[1]: mdmon@md127.service: Deactivated successfully. dub 11 08:02:04 gw kernel: md: md126 stopped. dub 11 08:02:04 gw systemd-udevd[4178]: md126: Process '/usr/bin/unshare -m /usr/bin/snap auto-import --mount=/dev/md126' failed with exit code 1. dub 11 08:02:04 gw kernel: ata4.00: disabledZbyvajici dva disky se odpojily "normalne", pac md126 uz bylo zastaveny, avsak se zaznamem informace o tom, ze jsou dva disky v haji... Proc furt doufam, ze to jeste neni uplne v haji: 1) vsechny disky jsou citelne, NEdoslo k HW chybe, ani k fakticke ztrate redundance 2) nemohlo (?) dojit k poskozeni uzitecnych dat, nakolik pole nebylo ani namountovane, ani LUKS-odemknute Takhle vypada stav celeho pole:
mdadm --examine md126 md126: Magic : de11de11 Version : 01.00.00 Controller GUID : .... Container GUID : .... Seq : 00000015 Redundant hdr : yes Virtual Disks : 2 VD GUID[0] : 44656C6C:...72 unit[0] : 0 state[0] : Failed, Consistent init state[0] : Fully Initialised access[0] : Read/Write Name[0] : data Raid Devices[0] : 4 (0@0K 1@0K 2@0K 3@0K) Chunk Size[0] : 128 sectors Raid Level[0] : RAID5 Device Size[0] : 3906469888 Array Size[0] : 11719409664 VD GUID[1] : 44656C6C:2...1D unit[1] : 1 state[1] : Optimal, Consistent init state[1] : Not Initialised access[1] : Read/Write Name[1] : temp Physical Disks : 255 Number RefNo Size Device Type/State 0 b854cc92 3906469888K /dev/sdd active/Online 1 21881f31 3906469888K /dev/sdc active/Offline, Failed 2 8296e5e6 3906469888K /dev/sdb active/Offline, Failed, Missing 3 8d40b56c 3906469888K /dev/sde active/Online 4 3e2d301c 2929721344K active/Online 5 46199ca5 2929721344K active/Online 6 fd2d4fe1 2929721344K active/OnlineVD 1 s labelem temp, potazmo fyzickym diskum 4, 5, 6 netreba venovat pozornost, ty patri jinemu poli, ktere neni pritomno (zaloha, offline). U examine jednolivych disku nalezicim k VG0 (data) se pak stav lisi podle toho, kdy kterej disk vypadnul. sdb vypadnul jako prvni a pamatuje si stav, kdy bylo vsechno zalite sluncem:
Number RefNo Size Device Type/State 0 b854cc92 3906469888K active/Online 1 21881f31 3906469888K active/Online 2 8296e5e6 3906469888K /dev/sdb active/Online 3 8d40b56c 3906469888K active/Onlinesdc vypadnul jako druhej pote, co zmizel sdb, examine:
Number RefNo Size Device Type/State 0 b854cc92 3906469888K active/Online 1 21881f31 3906469888K /dev/sdc active/Online 2 8296e5e6 3906469888K active/Offline, Failed, Missing 3 8d40b56c 3906469888K active/Onlinesdd vypadnul az po zastaveni pole, jeho examine:
Number RefNo Size Device Type/State 0 b854cc92 3906469888K /dev/sdd active/Online 1 21881f31 3906469888K active/Offline, Failed 2 8296e5e6 3906469888K active/Offline, Failed, Missing 3 8d40b56c 3906469888K active/Onlinetotez sde:
Number RefNo Size Device Type/State 0 b854cc92 3906469888K active/Online 1 21881f31 3906469888K active/Offline, Failed 2 8296e5e6 3906469888K active/Offline, Failed, Missing 3 8d40b56c 3906469888K /dev/sde active/OnlineStav uzitecnych dat ocekavam stejny, nakolik pole NEbylo odemknuto ani namountovano a vsechny disky jsou citelne (to jsem kontroloval po hlasce o dvou selhanych discich jako prvni, komplet cteni celyho disku pres dd, nez mi doslo, co se stalo). Takze otazka zni... je bezpecne na tom pustit:
mdadm --assemble --force /dev/md126 /dev/sdd /dev/sdc /dev/sdb /dev/sdeNebo neco jinyho nejak jinak? Zalezi na poradi disku v tomto prikazu uvedenych, pokud tam vubec maji byt uvedeny? Misto na bitovou kopii 16 TB dat nemam. Zalohu aspon tech dulezitych dat pripadne mam, pomene cerstvou a fyzicky offline. Ale samozrejme preferovana varianta je, aby byla slusna sance na to, ze preziji i data mene dulezita. Diky za napady.
Řešení dotazu:
mdadm --assemble --scan --verboseJinak ono ti už pak asi nic jiného nezbývá, než to pak forcnout. Každopádně mdadm už dlouho nepožívám a mohu se mýlit.
mdadm --assemble --scan --verbose mdadm: looking for devices for further assembly mdadm: /dev/sde is busy - skipping mdadm: /dev/sdd is busy - skipping mdadm: /dev/sdc is busy - skipping mdadm: /dev/sdb is busy - skipping mdadm: looking in container /dev/md/ddf0 mdadm: member /md127/0 in /dev/md/ddf0 is already assembled mdadm: No arrays found in config file or automaticallyCili ty busy disky jsou busy, protoze jsou i soucasti md127: lsblk
sdb 8:16 0 3.6T 0 disk `-md127 9:127 0 0B 0 md sdc 8:32 0 3.6T 0 disk `-md127 9:127 0 0B 0 md sdd 8:48 0 3.6T 0 disk |-md126 9:126 0 0B 0 raid5 `-md127 9:127 0 0B 0 md sde 8:64 0 3.6T 0 disk |-md126 9:126 0 0B 0 raid5 `-md127 9:127 0 0B 0 mdPriznam se bez muceni, ze uplne nerozumim, co znamena tato zavislost a proc tam md127 vlastne vubec je. Obe pole jsou puvodne z HW RAIDu od LSI a mdraid to dokazal prechroustat a fungovalo to celej cas bez problemu, az do tehlete blbosti, co jsem si zpusobil sam. Vlastne dokud to byl HW RAID, tak jsem o existenci nejakyho md127 vubec nevedel, zrejme tam RAID odsypal svoje hlavicky a metadata? cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md126 : inactive sde[1] sdd[0] 7812939776 blocks super external:/md127/0 md127 : inactive sdc[3](S) sdb[2](S) sde[1](S) sdd[0](S) 2194784 blocks super external:ddf unused devices: noneCili jestli md126 zrejme zavisi na md127, ktery je nejak zazracne v poradku a zdravej. Jednotlivy disky to pise busy, protoze jsou soucasti md127. Ale mdadm --stop md127 je asi blbost, pac kam by se pak ty zmeny zapsaly? Nebo jeste jinak, pokud pustim --reasseble --force md126, neposle mne to dopryc prave proto, ze relevantni disky jsou busy? Stejne mi asi nezbyva nic jinyho, nez to prubnout, ale rad bych k tomu vedel vic.
systemd[1]: mdmon@md127.service: Deactivated successfullyTakze by jsi mel vedet co to je zac. Idalni by bylo presne popsat od zacatku co presne si udelal. Vsechny prikazy, proste cely tvuj postup.
Obe pole jsou puvodne z HW RAIDu od LSITady je počátek tvé patálie. Nemáš "mdadm RAID5", ale jakýsi hybrid, s kterým nemá nikdo žádnou zkušenost, jenom ty sám.
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent containerAz jsem se dohledal obdobnych problemu u lidi, kteri meli treba Intel fake RAID a stejnej problem, pres mdadm neopravitelny - avsak opravitelny pres Intel fake RAID nastroj/BIOS/cokoliv se tam pouziva. Cili: Ano, uplne prapuvodne pole vzniklo na LSI radici. V ramci nejakych pokusu a priprav na disaster scenario jsem disky zkusil pichnout na onboard SATA radic a zjistil, ze si s tim mdraid poradi a umi to pole spravne seskladat, tj. v pripade selhani radice bych se k datum dostal. Nu a pro mne je ted novy poznatek, ze kdyz vsechno funguje, tak vsechno funguje, ale pres mdadm to neni opravitelne v pripade problemu. Po napichnuti disku zpet na LSI radic a natahnuti foreign konfigurace ten radic nerekl ani popel, vsechno prechroustal, LUKS odemknutelny, data citelna... Takze jsi mne vlastne spravne nakopnul a mas bludistaka...
Priznam se bez muceni, ze uplne nerozumim, co znamena tato zavislost a proc tam md127 vlastne vubec je. <md126 a md127 tam jsou nejspíš kvůli tomu, že madam si zaznamenává, na jakém zařízení byl původně vytvořen. A když pole sestavíš na zařízení jiném, tak, když to necháš na mdadm, nepoužije původní čísla mdX, ale právě 127, 126,... Pokud na disky opravdu nebylo v mezidobí od posledního funkčního stavu zapisováno, tak nechápu, proč by se pole nemělo sestavit. Nabootuj z live distribuce, která zvládá mdadm a luks, na PC, kde budeš mít jenom ty disky, o které ti jde. Aby se to zbytečně nekomplikovalo. V lepším případě, pokud ta distribuce automaticky startuje mdadm scan, se ti rovnou při bootu sestaví mdadm raid(y), ovšem pod jinými čísly, než jsi měl původně. Luks si budeš muset potom odemknout sám ručně.
root@debian:~# mdadm -S /dev/md126 mdadm: stopped /dev/md126 root@debian:~# mdadm -S /dev/md127 mdadm: stopped /dev/md127 root@debian:~# cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] unused devices: none root@debian:~# mdadm -Asv mdadm: looking for devices for further assembly mdadm: no RAID superblock on /dev/sda1 mdadm: no DDF anchor found on /dev/sda mdadm: no RAID superblock on /dev/sda mdadm: no RAID superblock on /dev/sdb1 mdadm: no DDF anchor found on /dev/sdb mdadm: no RAID superblock on /dev/sdb mdadm: Cannot read anchor block on /dev/sr0: Invalid argument mdadm: no RAID superblock on /dev/sr0 mdadm: /dev/sdc is identified as a member of /dev/md/ddf0, slot 0. mdadm: /dev/sdf is identified as a member of /dev/md/ddf0, slot 3. mdadm: /dev/sde is identified as a member of /dev/md/ddf0, slot 2. mdadm: /dev/sdd is identified as a member of /dev/md/ddf0, slot 1. mdadm: added /dev/sdd to /dev/md/ddf0 as 1 mdadm: added /dev/sde to /dev/md/ddf0 as 2 mdadm: added /dev/sdf to /dev/md/ddf0 as 3 mdadm: added /dev/sdc to /dev/md/ddf0 as 0 mdadm: Container /dev/md/ddf0 has been assembled with 4 drives mdadm: looking for devices for further assembly mdadm: looking for devices for further assembly mdadm: /dev/sdc is busy - skipping mdadm: /dev/sdf is busy - skipping mdadm: /dev/sde is busy - skipping mdadm: no recogniseable superblock on /dev/sda1 mdadm: Cannot assemble mbr metadata on /dev/sda mdadm: /dev/sdd is busy - skipping mdadm: no recogniseable superblock on /dev/sdb1 mdadm: Cannot assemble mbr metadata on /dev/sdb mdadm: no recogniseable superblock on /dev/sr0 mdadm: looking in container /dev/md/ddf0 mdadm: found match on member /md127/0 in /dev/md/ddf0 mdadm: Started /dev/md/pokus with 4 devices mdadm: looking for devices for further assembly mdadm: /dev/sdc is busy - skipping mdadm: /dev/sdf is busy - skipping mdadm: /dev/sde is busy - skipping mdadm: /dev/sdd is busy - skipping mdadm: looking in container /dev/md/ddf0 mdadm: member /md127/0 in /dev/md/ddf0 is already assembled mdadm: looking for devices for further assembly mdadm: no recogniseable superblock on /dev/md/pokus mdadm: /dev/sdc is busy - skipping mdadm: /dev/sdf is busy - skipping mdadm: /dev/sde is busy - skipping mdadm: no recogniseable superblock on /dev/sda1 mdadm: Cannot assemble mbr metadata on /dev/sda mdadm: /dev/sdd is busy - skipping mdadm: no recogniseable superblock on /dev/sdb1 mdadm: Cannot assemble mbr metadata on /dev/sdb mdadm: no recogniseable superblock on /dev/sr0 mdadm: looking in container /dev/md/ddf0 mdadm: member /md127/0 in /dev/md/ddf0 is already assembled root@debian:~# cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] md126 : active (auto-read-only) raid5 sdc[3] sdd[2] sde[1] sdf[0] 62816256 blocks super external:/md127/0 level 5, 512k chunk, algorithm 2 [4/4] [UUUU] md127 : inactive sdc[3](S) sdf[2](S) sde[1](S) sdd[0](S) 131072 blocks super external:ddf unused devices: nonePro info, raidy vznikly takto (viz man mdadm):
mdadm --create /dev/md/pokus -n4 -l5 /dev/md/ddf mdadm --create /dev/md/ddf --metadata=ddf --raid-disks 4 /dev/sd[c-f]
Pro info, raidy vznikly takto (viz man mdadm):
mdadm --create /dev/md/ddf --metadata=ddf --raid-disks 4 /dev/sd[c-f] mdadm --create /dev/md/pokus -n4 -l5 /dev/md/ddfobráceně...
Tiskni
Sdílej: