Na čem aktuálně pracují vývojáři GNOME a KDE Plasma? Pravidelný přehled novinek v Týden v GNOME a Týden v KDE Plasma.
Ubuntu 25.10 bude (𝕏) Questing Quokka (pátrající klokan quokka).
Ubisoft uvolnil zdrojové kódy softwaru Chroma pro simulaci barvosleposti pro vývojáře počítačových her. K dispozici jsou na GitHubu pod licencí Apache 2.0.
Defold (Wikipedie) je multiplatformní herní engine. Nejnovější verze je 1.10.0. Zdrojové kódy jsou k dispozici na GitHubu. Licence vychází z licence Apache 2.0.
Správa služeb hlavního města Prahy se potýká s následky kyberútoku. Hackerská skupina začala zveřejňovat na internetu některé z ukradených materiálů a vyzvala organizaci k vyjednávání. Ta zatím podrobnosti k případu sdělovat nechce. Případem se zabývá policie i Národní úřad pro kybernetickou a informační bezpečnost (NÚKIB).
OCCT je oficiálně k dispozici na Linuxu (YouTube). Jedná se o proprietární software pro zátěžové testování a monitorování hardwaru.
Společnost OpenAI představila AI modely o3 a o4-mini (𝕏).
Canonical vydal Ubuntu 25.04 Plucky Puffin. Přehled novinek v poznámkách k vydání. Jedná se o průběžné vydání s podporou 9 měsíců, tj. do ledna 2026.
Desktopové prostředí LXQt (Lightweight Qt Desktop Environment, Wikipedie) vzniklé sloučením projektů Razor-qt a LXDE bylo vydáno ve verzi 2.2.0. Přehled novinek v poznámkách k vydání.
Vývojáři KDE oznámili vydání balíku aplikací KDE Gear 25.04. Přehled novinek i s náhledy a videi v oficiálním oznámení.
mam k dispozici 4x500GB v RAID 5, abych vyuzil jeste dva starsi disky po 250GB napadlo mne spojit mensi disky pomoci LVM. LVM pak hodit do raidu jako 5.disk => 2TB uloziste.
Sestavit LVM i RAID nebyl problem. Avsak nevim jak (pokud to jde) nastavit lv svazku souborovy typ "LINUX RAID AUTODETECT". V dusledku toho se po rebootu diskove pole spravne nesestavi a LVM svazek v poli chybi:
53.398750] raid5: device hda7 operational as raid disk 0
[ 53.398757] raid5: device hda10 operational as raid disk 4
[ 53.398760] raid5: device hda9 operational as raid disk 3
[ 53.398763] raid5: device hda8 operational as raid disk 2
[ 53.398766] raid5: device hda6 operational as raid disk 1
[ 53.399406] raid5: allocated 6286kB for md0
[ 53.399410] raid5: raid level 5 set md0 active with 5 out of 6 devices, algorithm 2
[ 53.399414] RAID5 conf printout:
[ 53.399416] --- rd:6 wd:5
[ 53.399418] disk 0, o:1, dev:hda7
[ 53.399421] disk 1, o:1, dev:hda6
[ 53.399423] disk 2, o:1, dev:hda8
[ 53.399425] disk 3, o:1, dev:hda9
[ 53.399427] disk 4, o:1, dev:hda10
Takze pak musim zadat rucne prikaz:
# mdadm /dev/md0 -a /dev/vg_test/mylv
mdadm: re-added /dev/vg_test/mylv
To ale zapricini znovusestaveni pole, coz mi prijde naprosto zbytecne:
# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md0 : active raid5 dm-0[6] hda7[0] hda10[4] hda9[3] hda8[2] hda6[1]
481280 blocks level 5, 64k chunk, algorithm 2 [6/5] [UUUUU_]
[====>................] recovery = 24.2% (24064/96256) finish=1.1min speed=1002K/sec
unused devices: < none >
Napadlo me jeste reseni, kdy bych 500GB disky rozdelil na polovinu a nad vsim sestavil RAID6 z 250GB svazku, pak by mohly vypadnout dva oddily a tudiz jeden disk.
PS: zatim jsem si pro testovani vytvoril 100MB oddily na /dev/hda (proto ty velikosti i stejny disk)
/dev/md0 = /dev/sd[abcdef]1 /dev/md1 = /dev/sd[abcd]2Takze az by umrel /dev/sda, tak bude degradovany /dev/md0 aj /dev/md1, ale pole BUDE zit. Je to optimalizacia na miesto, ako to chcel pytajuci sa. Ina alternativa:
/dev/md0 = /dev/sd[abcde]1 /dev/md1 = /dev/sd[abcd]2 /dev/sdf1Tym padom je to RAID5(4+1) + RAID5(4+1). Podmienkou su na chlp rovnake vsetky oblasti, ale to sa da dosiahnut.
Obvykle inicializační skripty počítají spíš s variantou, že jako základ vytvoříte RAID a ten použijete jako PV pro LVM. Pokud to chcete dělat obráceně, musel byste asi otočit pořadí, ve kterém se RAID a LVM inicializují. Možná také bude potřeba vytvořit mdadm.conf
Na vašem místě bych ty dva malé disky spojil spíš pomocí linear RAIDu, s tím bude méně problémů. Skládat RAID 5 z pěti disků, z nichž jeden jsou ve skutečnosti dva (navíc starší) mi ale připadá trochu riskantní, takže bych možná zvážil, zda nepoužít raději RAID 6.
Reseni "nejdriv LVM" jsem volil spis z duvodu, ze ocekavam ze ty maly disky casem odejdou, ja je vyhodim, pripojim jednu 500 a mam "cistej RAID bez LVM". Jak bych mohl otocit to poradi LVM a RAID inicializace?
Jedna se o stroj s Ubuntu s 2.6.20-16-generic
Pomuze to vubec kdyz to LVM bude porad neoznaceny jako typ "RAID AUTOSTART"?
Add MaVac :
Kdyby se jednalo o dve RAID5 pole jak pise Rajo, tak by se tak nestalo.Tzn. když mi odejde fyzicky jeden disk do věčných lovišť, tak mi celé pole ne jen degraduje, ale totálně umře, protože mu vypadnou dvě partice
Ale to uz mi zas prijde lepsi RAID6 (bylo by mozna vykonejsi nez 2xRAID5 + LVM)... nebo ne?
Diky vsem za pomoc.
Jak bych mohl otocit to poradi LVM a RAID inicializace?
To je otázka na dokumentaci k vaší distribuci.
Tiskni
Sdílej: