OCCT3D (Open CASCADE Technology) Open Source 8.0 bylo vydáno. OCCT3D (Wikipedie, GitHub) je objektově orientovaná knihovna pro 3D CAD, CAM nebo CAE. Používá se například v softwarech FreeCAD a KiCad.
Ve FreeBSD byla nalezena a již opravena 21letá zranitelnost CVE-2026-42511 v dhclient. Jedná se o vzdálené spuštění kódu (RCE). Útočník mající pod správou DHCP server může získat plnou kontrolu nad systémem FreeBSD pouze jeho připojením k místní síti.
Na čem aktuálně pracují vývojáři GNOME a KDE Plasma? Pravidelný přehled novinek v Týden v GNOME a Týden v KDE Plasma.
UBports, nadace a komunita kolem Ubuntu pro telefony a tablety Ubuntu Touch, vydala Ubuntu Touch 24.04-1.3. Současně oznámila, že nadcházející větší vydání 24.04-2.0 bude mít modernější webový prohlížeč.
Ploopy po DIY trackballech či sluchátkách představuje nový externí DIY trackpoint se čtyřmi tlačítky Bean. Obsahuje snímač Texas Instruments TMAG5273, spínače Omron D2LS-21 a řadič RP2040, používá firmware QMK. Schémata jsou na GitHubu; sadu lze předobjednat za 69 kanadských dolarů (bez dopravy a DPH).
Mozilla před dvěma týdny na svém blogu oznámila, že díky Claude Mythos Preview bylo ve Firefoxu nalezeno a opraveno 271 bezpečnostních chyb. Včera vyšel na Mozilla Hacks článek s podrobnějšími informacemi. Z 271 bezpečnostních chyb mělo 180 chyb vysokou závažnost, 80 chyb střední závažnost a 11 chyb nízkou závažnost. Celkově bylo v dubnu ve Firefoxu opraveno 423 bezpečnostních chyb. Čísla CVE nemusí být přiřazována jednotlivým chybám. CVE-2026-6784 například představuje 154 bezpečnostních chyb.
Před týdnem zranitelnost Copy Fail. Dnes zranitelnost Dirty Frag. Běžný uživatel může na Linuxu získat práva roota (lokální eskalaci práv). Na většině linuxových distribucí vydaných od roku 2017. Aktuálně bez oficiální záplaty a CVE čísla [oss-security mailing list].
Ačkoli je papež Lev XIV. hlavou katolické církve a stojí v čele více než miliardy věřících po celém světě, také on někdy řeší všední potíže. A kdo v životě neměl problémy se zákaznickou linkou? Krátce poté, co nastoupil do úřadu, musel papež se svou bankou řešit změnu údajů. Operátorka ale nechtěla uvěřit, s kým mluví, a Svatému otci zavěsila.
Incus, komunitní fork nástroje pro správu kontejnerů LXD, byl vydán ve verzi 7.0 LTS (YouTube). Stejně tak související LXC a LXCFS.
Google Chrome 148 byl prohlášen za stabilní. Nejnovější stabilní verze 148.0.7778.96 přináší řadu novinek z hlediska uživatelů i vývojářů. Vypíchnout lze Prompt API (demo) pro přímý přístup k AI v zařízení. Podrobný přehled v poznámkách k vydání. Opraveno bylo 127 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře.
Dobrý den,
mám problém s instalací SLES 11 na HW RAID. Při instalaci provedu rozdělení, formátování a vše se provede. Po restartu (po nainstalování systému ještě před dokončením instalace) nedokáže systém přimontovat disky. Začne se bootovat a končím tím, že mám výpis o nemožnosti namontovat "/dev/mapper/ddf1_...". Vyzkoušel jsem instalaci, kde jsem místo ID použil UUID a pak i název, ale po restartu se to opět ptá na "/dev/mapper/ddf1_..." a né na UUID či název.
Setkal se někdo s něčím takovým? Co mám zadat pro namontování? V fstable je to zapsáno pomocí UUID, ale ten boot hledá stále "/dev/mapper/ddf1_..."
Předem děkuji
To vypada na takzvany raid-neraid. Zkuste dat do /etc/init.d/boot.localfs toto:
/sbin/dmraid -ay
Pokud není potřeba kompatibilita pole s jinými OS, pak bych opravdu doporučoval linuxový SW raid. I pro řešení bootování mi to přijde jednodušší.
V debianu/ubuntu jsem bootování z RAID0 striping dělal tak, že jsem nabootoval z liveCD, ručně nastartoval pole (/ systému na HDD), přimontoval někam do /mnt/raid, namontoval tam proc, zkopíroval tam /dev (aby měl alespoň md0), chrootnul do /mnt/raid, upravil menu.lst v grubu, aby koukal na raid (pokud možno všude UUID), opravil /etc/fstab, vyrobil /etc/mdadm s přiřazením UUID raidu na md0 klasicky viz man mdadm, spustil update-initramfs (to si již zapamatovalo, že má dát kořen přes raid) a pak jen updatnul instalaci grubu ručně přes grub (nějak těm skriptům kolem grubu nevěřím). Po restartu to bootlo z raid0.
Tak jsem se po prostudování diskuzí ohledně RAIDU na základní desce rozhodl, že půjdu cestou SW RAIDU, ale asi opět dělám něco špatně.
Mám momentálně dva totožné disky.
V BIOSU jsem vypnul RAID.
Při instalaci SLES 11 v nabídce na sestavení pole RAID dostanu následující odpověď: "Pro vytvoření pole RAID není k dispozici dostatek vhodných nepoužívaných zařízení.". Ani jeden disk nemám používaný. Když se podívám do "Nepoužívaná zařízení" tak tam jsou, ale ten SW RAID se jim vytvořit nechce.
Jaký je obecný postup pro vytvoření SW RAIDu? (Jak jsem psal používám SLES 11 -64).
Ještě jedna věc, někde jsem četl, že je možné u některých desek po zadání (zakoupení) nějakého klíče aktivovat plný RAID i na té desce. Jak zjistím, zda to má deska umožňuje? Na stránkách intelu jsem na nic takového nenarazil.
Můj HW: S5000PSL obsahuje Embedded RAID II
Předem děkuji
SW raid obecně jede na partišnami. Instalátor suse neznám, ale v debianu/ubuntu se musí nejdříve vytvořit partišny, nastavit jim typ RAID autodetect a pak teprve lze zvolit root na raid a vybrat typ raidu a jaké partišny do něj spadají. Lze to přímo v instalátoru, nebo v jiné konzoli ručně a vrátit se v instalátoru o krok zpět, aby si znovu načetl rozdělení disků. V ubuntu 9.04 mi stejně nastavil špatně initramfs, takže jsem následně musel dělat ty výše popsané šachy s liveCD, protože systém po rebootu nenajel.
Tipnul bych si, že to v suse bude podobné.
U SLES by to melo byt stejne, SLES je jen trochu konzervativnejsi openSuse. Ja postupoval zhruba podle tohohle navodu. Je sice pro gentoo, ale princip je stejny :
http://en.gentoo-wiki.com/wiki/HOWTO_Gentoo_Install_on_Bios_(Onboard)_RAID
Tak jsem to vyřešil jak pomocí SW RAIDu, tak pomocí BIOS RAIDu.
Postup je následující SW RAID:
Na prvnim i druhém disku udělat příslušné oddíly.
Já jsem udělal prvně jeden rozšířený a do něho pak logické.
Ty logické je potřeba prvně vytvořit - není potřeba formátovat, ale hlavně nepřipojovat. Takže na každém disku jsem udělal rozšířený oddíl a do něho 5 logických disků.
Následně ve volbě RAID už vybírám oddíly z prvního a druhého disku, nastavuji RAID 0 nebo 1 nebo 5, Nastavím velikost bloku a provedu formátování a připojení. Toto zopakuji tolikrát, kolikrát potřebuji.
Použil jsem následující rozdělení boot, swap, root, srv, var
Postup pro BIOS RAID
V BIOSU si udělám RAID.
Následně při instalaci využívám disk, který je ten BIOS RAID (v mém případě hrozné číslo)
Já jsem opět provedl následující. Na celý RAID jsem udělal jeden rozšířený oddíl a do něho několik logických disků.
Logické disky je nutné připojovat pomocí UUID
Po restartu - po nainstalování základních komponent před dokončením instalace nedojde k nastartování systému, protože zavaděč se neodkazuje pomocí UUID, ale ID (to hrozné číslo).
Spustit nějakou live distribuci. V mém případě SLAX. Podívat se na můj disk a zjistit jaké je UUID pro root partitions a pro swap. Já to našel v /etc/fstab (u swap tam nebylo uuid tak jsem následně při editaci bootu nechal to hrozné číslo a swap uuid jsem zjistil až po naběhnutí systému přes nástroj rozdělování disků) Toto si opsat a provést restart.
Po restartu jsem udělal upravu spouštěcího řádku (editovat pomocí e). Nahradil jsem /by-id/raid_ddf1... za /by-uuid/uuidcislo zjištěné pomocí live distribuce.
Pak už se dá nabootovat a dokončit instalaci systému.
Po doinstalování je nutné spustit konfiguraci zavaděče a nahradit by-id tím by-uuid. Já jsem musel v zavaděči ještě nahradi hd(0,0) za hd(0,4).
Následně jsem ještě v /etc/fstab u swap doplnil to uuid, zjištěné přes nástroj rozdělení disků.
Po restartu vše jede tak jak má. I ten BIOS RAID funguje. Jen je tam trochu více práce.
Doufám, že až někdo bude hledat, tak to třeba najde a pomůže mu to.
Když už to mám uděláno - je vhodnější SW RAID nebo ten BIOS RAID?
Co zatěžuje procesor méně? Kdy pojede linux lépe?
Použitý OS - SLES 11 - 64
Zajímavé by bylo srovnání výkonu biosového a linuxového raidu. Když máš obojí, můžeš to porovnat?
Jinak swap umí vlastní "raid0" - stačí nastavit více oddílům stejnou prioritu a mělo by to jet ve stripingu. Výkon bude asi podobný raid0.
Já to mám teď dost komplikované. Vše dělám doma, protože nechci chodit do práce. Pak jen přenesu servery. Dělám to na jednom stroji. To znamená: tam kde jsem vyzkoušel SW RAID je už BIOS RAID a asi to už vracet nebudu
Jak velký se doporučuje udělat swap. Domníval jsem se, že když mám 8GB RAM, tak swap 8GB, ale během ostrého provozu jsem se dostal na maximální využití cca 500MB.
Tiskni
Sdílej: