Raspberry Pi Connect, tj. oficiální služba Raspberry Pi pro vzdálený přístup k jednodeskovým počítačům Raspberry Pi z webového prohlížeče, byla vydána v nové verzi 2.5. Nejedná se už o beta verzi.
Google zveřejnil seznam 1272 projektů (vývojářů) od 185 organizací přijatých do letošního, již jednadvacátého, Google Summer of Code. Plánovaným vylepšením v grafických a multimediálních aplikacích se věnuje článek na Libre Arts.
Byla vydána (𝕏) dubnová aktualizace aneb nová verze 1.100 editoru zdrojových kódů Visual Studio Code (Wikipedie). Přehled novinek i s náhledy a videi v poznámkách k vydání. Ve verzi 1.100 vyjde také VSCodium, tj. komunitní sestavení Visual Studia Code bez telemetrie a licenčních podmínek Microsoftu.
Open source platforma Home Assistant (Demo, GitHub, Wikipedie) pro monitorování a řízení inteligentní domácnosti byla vydána v nové verzi 2025.5.
OpenSearch (Wikipedie) byl vydán ve verzi 3.0. Podrobnosti v poznámkách k vydání. Jedná se o fork projektů Elasticsearch a Kibana.
PyXL je koncept procesora, ktorý dokáže priamo spúštat Python kód bez nutnosti prekladu ci Micropythonu. Podľa testov autora je pri 100 MHz približne 30x rýchlejší pri riadeni GPIO nez Micropython na Pyboard taktovanej na 168 MHz.
Grafana (Wikipedie), tj. open source nástroj pro vizualizaci různých metrik a s ní související dotazování, upozorňování a lepší porozumění, byla vydána ve verzi 12.0. Přehled novinek v aktualizované dokumentaci.
Raspberry Pi OS, oficiální operační systém pro Raspberry Pi, byl vydán v nové verzi 2025-05-06. Přehled novinek v příspěvku na blogu Raspberry Pi a poznámkách k vydání. Pravděpodobně se jedná o poslední verzi postavenou na Debianu 12 Bookworm. Následující verze by již měla být postavena na Debianu 13 Trixie.
Richard Stallman dnes v Liberci přednáší o svobodném softwaru a svobodě v digitální společnosti. Od 16:30 v aule budovy G na Technické univerzitě v Liberci. V anglickém jazyce s automaticky generovanými českými titulky. Vstup je zdarma i pro širokou veřejnost.
sudo-rs, tj. sudo a su přepsáné do programovacího jazyka Rust, nahradí v Ubuntu 25.10 klasické sudo. V plánu je také přechod od klasických coreutils k uutils coreutils napsaných v Rustu.
md1 : active raid1 sdf1[2] sde1[1] 5118968 blocks super 1.1 [2/2] [UU] md0 : active raid1 sdf2[0] sde2[1] 2047988 blocks super 1.0 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunk md2 : active raid1 sdf3[0] sde3[1] 237028220 blocks super 1.1 [2/2] [UU] bitmap: 0/2 pages [0KB], 65536KB chunkkde pole md0 je /boot, md1 je pro swap a md2 je pro /. To vše je dosud v pořádku. Na stroji bylo ještě čtvrté pole (4 disky, RAID10), ale nevím jaké mělo označení a bylo připojené do /backup. Toto pole bylo složeno z partitions: sda1, sdb1, sdc1, sdd1 a nyní nejde sestavit. Buhužel si napamatuji, jaké označeni pole mělo. Ale pokud se na partišny podívám přes mdadm, pak dostanu např. pro SDA1 partišnu výpis:
[root@localhost ~]# mdadm --examine /dev/sda1 /dev/sda1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : fe53973a:4b3abb79:fdb6ad1a:bea0fe63 Name : backup-server:3 Creation Time : Tue Mar 6 09:20:54 2012 Raid Level : raid10 Raid Devices : 4 Avail Dev Size : 3900676279 (1859.99 GiB 1997.15 GB) Array Size : 7801350144 (3719.97 GiB 3994.29 GB) Used Dev Size : 3900675072 (1859.99 GiB 1997.15 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : clean Device UUID : 300b24de:fad08804:25fc142b:076a2c70 Update Time : Mon Jul 9 12:23:52 2012 Checksum : debde30 - correct Events : 340849 Layout : near=2 Chunk Size : 512K Device Role : Active device 3 Array State : ..AA ('A' == active, '.' == missing)Analogicky mi to vypíše i pro ostatní partišny. Zkoušel jsem připojení pole přes assemble ale nic. Nevíte někdo jak z této situace ven? Moc dík za reakci. Ruda
Řešení dotazu:
Jul 7 07:48:56 backup-server kernel: sd 5:0:2:0: [sde] Unhandled sense code Jul 7 07:48:56 backup-server kernel: sd 5:0:2:0: [sde] Result: hostbyte=invalid driverbyte=DRIVER_SENSE Jul 7 07:48:56 backup-server kernel: sd 5:0:2:0: [sde] Sense Key : Medium Error [current] Jul 7 07:48:56 backup-server kernel: Info fld=0xb2f99d90 Jul 7 07:48:56 backup-server kernel: sd 5:0:2:0: [sde] Add. Sense: Unrecovered read error Jul 7 07:48:56 backup-server kernel: sd 5:0:2:0: [sde] CDB: Read(10): 28 00 b2 f9 9c 3f 00 04 00 00 Jul 7 07:48:56 backup-server kernel: end_request: critical target error, dev sde, sector 3002702911 Jul 7 07:48:56 backup-server kernel: md/raid10:md127: sde1: rescheduling sector 6005401600 Jul 7 07:48:56 backup-server kernel: md/raid10:md127: sde1: rescheduling sector 6005401848 Jul 7 07:48:56 backup-server kernel: md/raid10:md127: sde1: rescheduling sector 6005402096 Jul 7 07:48:56 backup-server kernel: md/raid10:md127: sde1: rescheduling sector 6005402344 Jul 7 07:48:56 backup-server kernel: md/raid10:md127: sde1: rescheduling sector 6005402592 Jul 7 07:48:56 backup-server kernel: md/raid10:md127: sde1: redirecting sector 6005401600 to another mirror Jul 7 07:49:03 backup-server kernel: sd 5:0:2:0: [sde] Unhandled sense code Jul 7 07:49:03 backup-server kernel: sd 5:0:2:0: [sde] Result: hostbyte=invalid driverbyte=DRIVER_SENSE Jul 7 07:49:03 backup-server kernel: sd 5:0:2:0: [sde] Sense Key : Medium Error [current] Jul 7 07:49:03 backup-server kernel: Info fld=0xb2f99d90 Jul 7 07:49:03 backup-server kernel: sd 5:0:2:0: [sde] Add. Sense: Unrecovered read error Jul 7 07:49:03 backup-server kernel: sd 5:0:2:0: [sde] CDB: Read(10): 28 00 b2 f9 9d 8f 00 00 08 00 Jul 7 07:49:03 backup-server kernel: end_request: critical target error, dev sde, sector 3002703247 Jul 7 07:49:03 backup-server kernel: md/raid10:md127: Disk failure on sde1, disabling device. Jul 7 07:49:03 backup-server kernel: md/raid10:md127: Operation continuing on 2 devices. Jul 7 07:49:03 backup-server kernel: md/raid10:md127: sde: unrecoverable I/O read error for block 6005401848 Jul 7 07:49:03 backup-server kernel: md/raid10:md127: sde: unrecoverable I/O read error for block 6005402096 Jul 7 07:49:03 backup-server kernel: md/raid10:md127: sde: unrecoverable I/O read error for block 6005402344 Jul 7 07:49:03 backup-server kernel: md/raid10:md127: sde: unrecoverable I/O read error for block 6005402592 Jul 7 07:49:03 backup-server kernel: Buffer I/O error on device md127, logical block 831657479 Jul 7 07:49:03 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:03 backup-server kernel: Buffer I/O error on device md127, logical block 831657480 Jul 7 07:49:03 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:03 backup-server kernel: Buffer I/O error on device md127, logical block 831657481 Jul 7 07:49:03 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:03 backup-server kernel: Buffer I/O error on device md127, logical block 831657482 Jul 7 07:49:03 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:03 backup-server kernel: Buffer I/O error on device md127, logical block 831657483 Jul 7 07:49:03 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:03 backup-server kernel: Buffer I/O error on device md127, logical block 831657484 Jul 7 07:49:03 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:03 backup-server kernel: Buffer I/O error on device md127, logical block 831657485 Jul 7 07:49:03 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:03 backup-server kernel: Buffer I/O error on device md127, logical block 831657486 Jul 7 07:49:03 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:03 backup-server kernel: Buffer I/O error on device md127, logical block 831657487 Jul 7 07:49:03 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:03 backup-server kernel: Buffer I/O error on device md127, logical block 831657488 Jul 7 07:49:03 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:03 backup-server kernel: JBD2: I/O error detected when updating journal superblock for md127-8. Jul 7 07:49:03 backup-server kernel: JBD2: Detected IO errors while flushing file data on md127-8 Jul 7 07:49:03 backup-server kernel: EXT4-fs error (device md127): ext4_read_inode_bitmap: Cannot read inode bitmap - block_group = 3281, inode_bitmap = 107479057 Jul 7 07:49:03 backup-server kernel: EXT4-fs error (device md127) in ext4_new_inode: IO failure Jul 7 07:49:03 backup-server kernel: EXT4-fs (md127): previous I/O error to superblock detected Jul 7 07:49:08 backup-server kernel: __ratelimit: 8379 callbacks suppressed Jul 7 07:49:08 backup-server kernel: Buffer I/O error on device md127, logical block 831643250 Jul 7 07:49:08 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:08 backup-server kernel: JBD2: Detected IO errors while flushing file data on md127-8 Jul 7 07:49:08 backup-server kernel: Aborting journal on device md127-8. Jul 7 07:49:08 backup-server kernel: Buffer I/O error on device md127, logical block 487096320 Jul 7 07:49:08 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:08 backup-server kernel: EXT4-fs error (device md127) in ext4_da_writepages: IO failure Jul 7 07:49:08 backup-server kernel: JBD2: I/O error detected when updating journal superblock for md127-8. Jul 7 07:49:08 backup-server kernel: EXT4-fs (md127): previous I/O error to superblock detected Jul 7 07:49:08 backup-server kernel: Buffer I/O error on device md127, logical block 0 Jul 7 07:49:08 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:08 backup-server kernel: EXT4-fs error (device md127): ext4_journal_start_sb: Detected aborted journal Jul 7 07:49:08 backup-server kernel: EXT4-fs (md127): Remounting filesystem read-only Jul 7 07:49:08 backup-server kernel: EXT4-fs (md127): ext4_da_writepages: jbd2_start: 1023 pages, ino 207882871; err -30 Jul 7 07:49:08 backup-server kernel: Jul 7 07:49:08 backup-server kernel: Buffer I/O error on device md127, logical block 750256135 Jul 7 07:49:08 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:08 backup-server kernel: Buffer I/O error on device md127, logical block 750256136 Jul 7 07:49:08 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:08 backup-server kernel: Buffer I/O error on device md127, logical block 750256140 Jul 7 07:49:08 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:08 backup-server kernel: Buffer I/O error on device md127, logical block 817364999 Jul 7 07:49:08 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:08 backup-server kernel: Buffer I/O error on device md127, logical block 817365000 Jul 7 07:49:08 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:08 backup-server kernel: Buffer I/O error on device md127, logical block 817365009 Jul 7 07:49:08 backup-server kernel: lost page write due to I/O error on md127 Jul 7 07:49:08 backup-server kernel: Buffer I/O error on device md127, logical block 817365547 Jul 7 07:49:08 backup-server kernel: lost page write due to I/O error on md127 Jul 9 12:21:35 backup-server kernel: EXT4-fs error (device md127): ext4_find_entry: reading directory #2 offset 0 Jul 9 12:21:35 backup-server kernel: EXT4-fs error (device md127): ext4_find_entry: reading directory #2 offset 0 Jul 9 12:21:35 backup-server kernel: EXT4-fs error (device md127): ext4_find_entry: reading directory #2 offset 0 Jul 9 12:21:35 backup-server kernel: EXT4-fs error (device md127): ext4_find_entry: reading directory #2 offset 0 Jul 9 12:21:35 backup-server kernel: EXT4-fs error (device md127): ext4_find_entry: reading directory #2 offset 0Po kontrole jsem jsem zjistil, že u jednoho z disků byl prasklý SATA datový kabel, vyměnil jsem ho. Disk se hlásí. Všechny disky pole jsou cca 3 měsíce staré. Předpokládám, že jsou v pořádku. Dík za pomoc, pokud nějaká v ještě existuje. Ruda
Jul 7 07:49:03 backup-server kernel: md/raid10:md127: Disk failure on sde1, disabling device. Jul 7 07:49:03 backup-server kernel: md/raid10:md127: Operation continuing on 2 devices.podle tohoto vypisu to vypada, ze sde1 vypadl z pole jako druhy. Jeste je potreba zjistit, ktery disk vypadl jako prvni, protoze ten bude obsahovat nekonzistentni data. Pak uz staci jen z toho sde1 a tech 2 zbyvajicich disku to pole zpet slozit. Stejna informace, tedy ktery disk vypadl prvni a bez ktereho to pole slozit zpet, by mela jit zjistit i z
mdadm --examinepodle pocitadla events.
[root@localhost log]# mdadm --examine /dev/sda1 /dev/sda1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : fe53973a:4b3abb79:fdb6ad1a:bea0fe63 Name : backup-server:3 Creation Time : Tue Mar 6 09:20:54 2012 Raid Level : raid10 Raid Devices : 4 Avail Dev Size : 3900676279 (1859.99 GiB 1997.15 GB) Array Size : 7801350144 (3719.97 GiB 3994.29 GB) Used Dev Size : 3900675072 (1859.99 GiB 1997.15 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : clean Device UUID : 300b24de:fad08804:25fc142b:076a2c70 Update Time : Mon Jul 9 12:23:52 2012 Checksum : debde30 - correct Events : 340849 Layout : near=2 Chunk Size : 512K Device Role : Active device 3 Array State : ..AA ('A' == active, '.' == missing)
mdadm --examine /dev/sdb1 /dev/sdb1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : fe53973a:4b3abb79:fdb6ad1a:bea0fe63 Name : backup-server:3 Creation Time : Tue Mar 6 09:20:54 2012 Raid Level : raid10 Raid Devices : 4 Avail Dev Size : 3900676279 (1859.99 GiB 1997.15 GB) Array Size : 7801350144 (3719.97 GiB 3994.29 GB) Used Dev Size : 3900675072 (1859.99 GiB 1997.15 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : clean Device UUID : 7c1f7935:f952d882:92efc8b0:dc8653ed Update Time : Mon Jul 9 12:23:52 2012 Checksum : e66b84be - correct Events : 340849 Layout : near=2 Chunk Size : 512K Device Role : Active device 2 Array State : ..AA ('A' == active, '.' == missing)
mdadm --examine /dev/sdc1 /dev/sdc1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : fe53973a:4b3abb79:fdb6ad1a:bea0fe63 Name : backup-server:3 Creation Time : Tue Mar 6 09:20:54 2012 Raid Level : raid10 Raid Devices : 4 Avail Dev Size : 3900676279 (1859.99 GiB 1997.15 GB) Array Size : 7801350144 (3719.97 GiB 3994.29 GB) Used Dev Size : 3900675072 (1859.99 GiB 1997.15 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : clean Device UUID : 1a8cfd16:6d4673eb:20e4dc18:3db84c0c Update Time : Thu Mar 22 09:36:00 2012 Checksum : b7052dfa - correct Events : 9080 Layout : near=2 Chunk Size : 512K Device Role : Active device 0 Array State : AAAA ('A' == active, '.' == missing)
mdadm --examine /dev/sdd1 /dev/sdd1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : fe53973a:4b3abb79:fdb6ad1a:bea0fe63 Name : backup-server:3 Creation Time : Tue Mar 6 09:20:54 2012 Raid Level : raid10 Raid Devices : 4 Avail Dev Size : 3900676279 (1859.99 GiB 1997.15 GB) Array Size : 7801350144 (3719.97 GiB 3994.29 GB) Used Dev Size : 3900675072 (1859.99 GiB 1997.15 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : 4e5cc770:39382d21:055cd22f:d6874121 Update Time : Sat Jul 7 07:48:52 2012 Checksum : 730630ba - correct Events : 340839 Layout : near=2 Chunk Size : 512K Device Role : Active device 1 Array State : .AAA ('A' == active, '.' == missing)Zde je výpis mdadm.conf (ale nevím jsetli ho boot do resue módu nemodifikoval:
# mdadm.conf written out by anaconda MAILADDR root AUTO +imsm +1.x -all ARRAY /dev/md0 level=raid1 num-devices=2 UUID=833510aa:e7d6aa85:66d20c0d:6dc4b320 ARRAY /dev/md1 level=raid1 num-devices=2 UUID=cf493f3c:bb5e3d4b:682a3004:97749435 ARRAY /dev/md2 level=raid1 num-devices=2 UUID=69b857c5:98cea294:946a8d9a:5d75cfd6Ruda
Update Time : Thu Mar 22 09:36:00 2012 Checksum : b7052dfa - correct Events : 9080Tedy disk sdc z toho pole vypadl uz 22. brezna :), to se ani nedivim, ze se neda jiz nic dohledat v logu. Trochu zarazejici je, ze log mluvi o disku sde v poli md127, ktere by se melo sestavat pouze z sd[abcd]. Doporucuji tedy fyzicky odpojit disk sdc, aby se do toho nezapletl a pote se pokusit to pole spustit.
mdadm –assemble -v –scan –force –run –uuid=4e5cc770:39382d21:055cd22f:d6874121
Pokud bootnu rescue z DVD tak se to přeháže na SD[ABCD] pro md127, které nejede SD[EF] pro /boot, swap a /tedy po nabootovani z DVD, kde bylo u disku sdc
Events : 9080tak spustit
smartctl -a /dev/sdckde ve vypisu bude uvedene seriove cislo disku, ktery je dobre odpojit.
Serial Number:
mdadm: looking for devices for /dev/md2 mdadm: no RAID superblock on /dev/sde1 mdadm: no RAID superblock on /dev/sdd1 mdadm: no RAID superblock on /dev/sdc1 mdadm: cannot open device /dev/sdb1: Device or resource busy mdadm: cannot open device /dev/sda1: Device or resource busy mdadm: looking for devices for /dev/md0 mdadm: no RAID superblock on /dev/sde1 mdadm: no RAID superblock on /dev/sdd1 mdadm: no RAID superblock on /dev/sdc1 mdadm: cannot open device /dev/sdb1: Device or resource busy mdadm: cannot open device /dev/sda1: Device or resource busy mdadm: looking for devices for /dev/md1 mdadm: no RAID superblock on /dev/sde1 mdadm: no RAID superblock on /dev/sdd1 mdadm: no RAID superblock on /dev/sdc1 mdadm: cannot open device /dev/sdb1: Device or resource busy mdadm: cannot open device /dev/sda1: Device or resource busy mdadm: looking for devices for /dev/md127 mdadm: /dev/sde1 has wrong uuid. mdadm: /dev/sdd1 has wrong uuid. mdadm: /dev/sdc1 has wrong uuid. mdadm: cannot open device /dev/sdb1: Device or resource busy mdadm: cannot open device /dev/sda1: Device or resource busyVypnul jsem server a odpojil ještě jiný disk z těch ctyř. Chová se to tak, že ať odpojím cokoliv vždy bude připojeno sdc, pak sdd atd. podle počtu připojených/odpojených disků. Takže nevím jak ten disk určit. Nemám připojit všechny messages soubory? Ruda
mdadm --assemble -v --scan --force --run --uuid=fe53973a:4b3abb79:fdb6ad1a:bea0fe63 mdadm: looking for devices for /dev/md2 mdadm: cannot open device /dev/sdf1: Device or resource busy mdadm: cannot open device /dev/sde1: Device or resource busy mdadm: no RAID superblock on /dev/sdd1 mdadm: no RAID superblock on /dev/sdb1 mdadm: no RAID superblock on /dev/sda1 mdadm: looking for devices for /dev/md0 mdadm: cannot open device /dev/sdf1: Device or resource busy mdadm: cannot open device /dev/sde1: Device or resource busy mdadm: no RAID superblock on /dev/sdd1 mdadm: no RAID superblock on /dev/sdb1 mdadm: no RAID superblock on /dev/sda1 mdadm: looking for devices for /dev/md1 mdadm: cannot open device /dev/sdf1: Device or resource busy mdadm: cannot open device /dev/sde1: Device or resource busy mdadm: no RAID superblock on /dev/sdd1 mdadm: no RAID superblock on /dev/sdb1 mdadm: no RAID superblock on /dev/sda1 mdadm: looking for devices for /dev/md127 mdadm: cannot open device /dev/sdf1: Device or resource busy mdadm: cannot open device /dev/sde1: Device or resource busy mdadm: /dev/sdd1 has wrong uuid. mdadm: /dev/sdb1 has wrong uuid. mdadm: /dev/sda1 has wrong uuid.Už se pomalu loučím se daty. :( Ruda
mdadm: /dev/sdd1 has wrong uuid. mdadm: /dev/sdb1 has wrong uuid. mdadm: /dev/sda1 has wrong uuid.to znamena, ze se zmenilo UUID? Co prave ted vypise mdadm --examine na ty 3 jednotlive disky? Spoustel jsi jen mdadm --assemble, nebo jsi pustil v ramci pokusu o obnovu i mdadm --create?
mdadm -E /dev/sda1 /dev/sda1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : fe53973a:4b3abb79:fdb6ad1a:bea0fe63 Name : backup-server:3 Creation Time : Tue Mar 6 09:20:54 2012 Raid Level : raid10 Raid Devices : 4 Avail Dev Size : 3900676279 (1859.99 GiB 1997.15 GB) Array Size : 7801350144 (3719.97 GiB 3994.29 GB) Used Dev Size : 3900675072 (1859.99 GiB 1997.15 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : clean Device UUID : 300b24de:fad08804:25fc142b:076a2c70 Update Time : Mon Jul 9 12:23:52 2012 Checksum : debde30 - correct Events : 340849 Layout : near=2 Chunk Size : 512K Device Role : Active device 3 Array State : ..AA ('A' == active, '.' == missing)dle tohoto výpisu jsem zadal uuid fe53973a:4b3abb79:fdb6ad1a:bea0fe63 Ruda
mdadm --assemble --force /dev/md127 /dev/sda1 /dev/sdb1 /dev/sdd1to proste musi sestavit. Co me jeste napada je, zda to rescue CD nema nejakou historickou verzi mdadm, ktera neumi superblock verze 1.2 a proto se nepodari to pole sestavit. Pokud vsechny tyto varianty selzou, jeste lze vzdy postupovat podle tohoto navodu, http://en.wikipedia.org/wiki/Mdadm#Recovering_from_a_loss_of_raid_superblock, ale to uz je destruktivni operace a je potreba vsechny parametry dukladne uvazit a spustit to stale jen na tech 3 diskach ve spravnem poradi .
mdadm --assemble --force /dev/md127 /dev/sda1 /dev/sdb1 /dev/sdd1 mdadm: forcing event count in /dev/sdd1(1) from 340839 upto 340849 mdadm: /dev/md127 assembled from 3 drives - not enough to start the array. [root@localhost ~]# cat /proc/mdstat Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] [linear] md127 : inactive sdd1[1](S) sda1[3](S) sdb1[4](S) 5851014418 blocks super 1.2 md1 : active raid1 sdf1[2] sde1[1] 5118968 blocks super 1.1 [2/2] [UU] md0 : active raid1 sdf2[0] sde2[1] 2047988 blocks super 1.0 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunk md2 : active raid1 sdf3[0] sde3[1] 237028220 blocks super 1.1 [2/2] [UU] bitmap: 0/2 pages [0KB], 65536KB chunkPole se nahodí ale je neaktivní
mdadm --assemble --force --run /dev/md127 /dev/sda1 /dev/sdb1 /dev/sdd1tohle by uz mohlo to pole nastartovat
mdadm --manage --run /dev/md127
mdadm --detail /dev/md127 /dev/md127: Version : 1.2 Creation Time : Tue Mar 6 09:20:54 2012 Raid Level : raid10 Array Size : 3900675072 (3719.97 GiB 3994.29 GB) Used Dev Size : 1950337536 (1859.99 GiB 1997.15 GB) Raid Devices : 4 Total Devices : 3 Persistence : Superblock is persistent Update Time : Tue Jul 10 16:15:17 2012 State : clean, degraded Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : near=2 Chunk Size : 512K Name : backup-server:3 UUID : fe53973a:4b3abb79:fdb6ad1a:bea0fe63 Events : 341017 Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 49 1 active sync /dev/sdd1 4 8 17 2 active sync /dev/sdb1 3 8 1 3 active sync /dev/sda1JSTE BOREC!!!! Moc děkuji za pomoc. co s tím odpojeným diskem? Ruda
mdadm --manage /dev/md127 --add /dev/sdc1pokud to bude prskat, ze na tom disku je uz jine pole, tak muze byt potreba nejprve spustit
mdadm --zero-superblock /dev/sdc1pak staci pockat par hodin na dokonceni synchronizace pole, rebootovat do normalniho provozu a jit si pro premie :) Jinak jeste doporucuji nastavit si odesilani emailu v pripade padu jednoho z disku.
# mdadm.conf written out by anaconda MAILADDR root AUTO +imsm +1.x -all ARRAY /dev/md0 level=raid1 num-devices=2 UUID=833510aa:e7d6aa85:66d20c0d:6dc4b320 ARRAY /dev/md1 level=raid1 num-devices=2 UUID=cf493f3c:bb5e3d4b:682a3004:97749435 ARRAY /dev/md2 level=raid1 num-devices=2 UUID=69b857c5:98cea294:946a8d9a:5d75cfd6To pole co není sestaveno v něm není vubec uvedeno, ale nevím jestli to nemodifikoval rescue mód, který je teď nabootovaný a ve kterém to řeším. Ruda
mdadm --create
dela defaultne 1.2
jeste potrebujes partisny typu fd Linux raid-autodetect
jeste ke swapu, je zbytecny ho davat ma raid, proste das vic partici se stejnou prioritou do fstabu, options je treba sw,pri=0
jeste ke swapu, je zbytecny ho davat ma raid, proste das vic partici se stejnou prioritou do fstabu, options je treba sw,pri=0
na to pozor, pokud odejde disk na kterem je pak neco odswapovano, muze to vest k velice neprijemne situaci
Tiskni
Sdílej: