Mozilla před dvěma týdny na svém blogu oznámila, že díky Claude Mythos Preview bylo ve Firefoxu nalezeno a opraveno 271 bezpečnostních chyb. Včera vyšel na Mozilla Hacks článek s podrobnějšími informacemi. Z 271 bezpečnostních chyb mělo 180 chyb vysokou závažnost, 80 chyb střední závažnost a 11 chyb nízkou závažnost. Celkově bylo v dubnu ve Firefoxu opraveno 423 bezpečnostních chyb. Čísla CVE nemusí být přiřazována jednotlivým chybám. CVE-2026-6784 například představuje 154 bezpečnostních chyb.
Před týdnem zranitelnost Copy Fail. Dnes zranitelnost Dirty Frag. Běžný uživatel může na Linuxu získat práva roota (lokální eskalaci práv). Na většině linuxových distribucí vydaných od roku 2017. Aktuálně bez oficiální záplaty a CVE čísla [oss-security mailing list].
Ačkoli je papež Lev XIV. hlavou katolické církve a stojí v čele více než miliardy věřících po celém světě, také on někdy řeší všední potíže. A kdo v životě neměl problémy se zákaznickou linkou? Krátce poté, co nastoupil do úřadu, musel papež se svou bankou řešit změnu údajů. Operátorka ale nechtěla uvěřit, s kým mluví, a Svatému otci zavěsila.
Incus, komunitní fork nástroje pro správu kontejnerů LXD, byl vydán ve verzi 7.0 LTS (YouTube). Stejně tak související LXC a LXCFS.
Google Chrome 148 byl prohlášen za stabilní. Nejnovější stabilní verze 148.0.7778.96 přináší řadu novinek z hlediska uživatelů i vývojářů. Vypíchnout lze Prompt API (demo) pro přímý přístup k AI v zařízení. Podrobný přehled v poznámkách k vydání. Opraveno bylo 127 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře.
Richard Hughes oznámil, že po společnostech Red Hat a Framework a organizacích OSFF a Linux Foundation, službu Linux Vendor Firmware Service (LVFS) umožňující aktualizovat firmware zařízení na počítačích s Linuxem, nově sponzorují také společnosti Dell a Lenovo. Do dnešního dne bylo díky LVFS provedeno více než 145 milionů aktualizací firmwarů od více než 100 různých výrobců na milionech linuxových zařízení.
Americké technologické společnosti Microsoft, Google a xAI souhlasily, že vládě Spojených států poskytnou přístup k novým modelům umělé inteligence (AI) před jejich uvedením na trh. Oznámila to americká vláda, která tak bude moci prověřit, zda modely nepředstavují hrozbu pro národní bezpečnost. Oznámení podtrhuje rostoucí obavy Washingtonu z rizik spojených s výkonnými AI systémy. Americké úřady chtějí v rámci předběžného přístupu
… více »Společnost Valve zveřejnila (GitLab) nákresy ovladače Steam Controller a puku. Pro všechny, kdo by jej chtěli hacknout nebo modifikovat, případně pro ně navrhnout nějaké příslušenství. Pod licencí Creative Commons (CC BY-NC-SA 4.0).
PHP bylo dlouho distribuováno pod vlastní licencí – s výjimkou částí spadajících pod licenci Zend Engine. Po několikaleté práci se povedlo PHP přelicencovat na 3bodovou licenci BSD.
Na čem pracují vývojáři webového prohlížeče Ladybird (GitHub)? Byl publikován přehled vývoje za duben (YouTube). Na Linuxu je vedle Qt frontendu nově k dispozici také GTK4 / libadwaita frontend.
Zdravím,
chci se poradit, mám zde řadič LSI 9271-8i na něm pověšeno 8 SAS disků 2TB, chci nad tím postavit ZFS , odděleně na 2x SSD pro samotný systém (Linux). Jaká bude vhodná konfigurace, nastavit pole na LSI řadiči a poslat to do ZFS jako jeden block device nebo je lepší udělat hromadu samostatných disků (LSI umí pouze RAID0, nevím jestli jde disk pouze připojit do systému aby se to LSI chovano jako obyčejný HDA, takže mám 16x RAID0 a nastaveno write-through) a ZFS si ty disky už samostatně úspořádat jak potřebuji tak aby nad nimi mělo ZFS kontrolu.
Co z toho je lepší přístup pro ZFS, raději bych disky přímo do ZFS, ale mám obavu, že to toho bude LSI kecat (je nutný update firmware aby to LSI umělo?)
Díky Max.
Díky, přesně v tomto duchu jsem to četl s tím, že LSI neumí JBOD tak se to obchází s RAID0, chtěl jsem se ještě přeptat místní komunity, potvrzuje to diskuze na serverfault co jsem četl dříve i když trochu se to tam taky tluče.
Jak je to pak s výměnou disků pokud selže? Dostáva ZFS informace o "stavu" disku, jakože v LSI si to nebude tutlat pro sebe? Výměna je pak odebrání disku ze ZFS poolu, fyzická výměna, znovu nastavení v LSI klikákátku nebo přes megacli a poté opět přidání do poolu, žadný hotswap asi nepůjde? Nebo?
Max
http://serverfault.com/questions/699035/zfs-error-behind-lsi-raidcontroller
http://serverfault.com/questions/335144/megaraid-jbod-substitute
Aby melo ZFS vubec smysl, je dulezite zajistit mu pristup primo k diskum. Davat ZFS na raid pole vytvorene raid-radicem je znamkou naprosteho nepochopeni konceptu ZFS.
Mensi zlo je vytvorit JBOD nebo Raid0, coz se obcas jako z nouze cnost(radic vyrobce nic jineho neumoznuje) doporucuje. Timto se ale vytvari dalsi mezivrstva mezi ZFS a disky. Cert vi co ten radic s konkretnim firmwarem bude delat s disky konkretiho vyrobce, ktere bezi na konkretnim firmware v pripade, ze zacne disk zlobit. Tech kombinaci je tolik, ze to nikdo nikdy nedokaze otestovat.
Pro stabilni nasazeni se doporucuji raid-karty, ktere bud maji funkcionalitu primo od vyrobce nebo je mozne je preflasovat do "IT" modu, kdy se karta v podstate zbavi veskere logiky raid-funkci a slouzi jen jako hub pro pripojeni disku(nadava se tomu "Straight pass through") a to je presne to co ZFS pro svuj korektni beh potrebuje. ZFS totiz predpoklada(by-design), ze pracuje primo s diskem. ZFS nevi a ani nemuze vedet, tudiz ho to nezajima, ze je na ceste jeste dalsi mezivrstva v podobe raidu nebo jbodu. Kdyz tedy dojde k problemu s diskem, tak ZFS se to snazi resit po vlastni ose a v momente, kdy se do toho jeste zacne srat firmware raid radice, tak je na pruser zadelano.
Co se poslednich par let doporucovalo je karta IBM ServeRAID M1015 postavena na cipu LSI SAS2008, ktery zvlada SAS-6.0gbps/SATA III, coz je plne dostacujici pro jakykoliv plotnovej disk, ktery se dnes vyrabi. Tato karta jde relativne snadno preflashovat do IT modu(provedl jsem to u 3 kusu a bez problemu) a stoji to par babek na ebay(80-100$). Nema aktivni chladic(je urcena do serveru, kde se predpoklada hafo vetraku a mistnost s 22 stupnama), takze pokud je to storage na doma, je potreba pocitat s dodatecnym chlazenim, aby se to neupeklo.
Díky za reakci, je mi vcelku jasné, že ZFS miluje "obyčejný" HW a přímo přístup k němu je to pravé ořechové kvůli celkovému designu ZFS, mám přechozí zkušenosti.
Aktuálně jsem narazil na tento řadič v serveru, myslel jsem, že pouze nastavím "passthrough", ale ouha taková volba zde není v konfiguraci,, štve mě to, protože nevím jaká "metadata" si tam to LSI žvejká, dle diskuzí na internetu to lidé řeší právě s RAID0, jinak M1015 znám, použival jsem.
Max
Možná, každopádně jsem na IRC dostal radu ať zkusím EnableJBOD příkaz z megacli toolu, záleží to na verzi firmware, ale udajně by to mělo umět i když ofiko podpora LSI tvrdí, že JBOD není podporován na žádnem MEGAraid HW, zkusíme uvidíme, když to neprojde tak zkusím samostatné RAID0. Max
Tak je to tam, JBOD nastaven, vsechny virtual device a RAID0 pole jsem zrusil, disky se zacali hlasit primo do linuxu, tak snad to bude takto OK.
Netusite nekdo jak je s nastavenim cache na write through pri JBOD, uz tam nelze nic nastavit jelikoz nastaveni cache se da udelat jen nad LD (v megacli) a zadne LD zarizeni uz nemam, takze tak nejak predpokladam, ze to cele bezi bez cache na radici a cache si uz bude resit ZFS.
Jdu ho tedy nainstalovat a udelat nejake testy. Diky Max
root@backuper:/root# lsblk -io KNAME,TYPE,SIZE,MODEL
KNAME TYPE SIZE MODEL
sda disk 1.8T ST2000NM0023
sdb disk 1.8T ST2000NM0023
sdc disk 1.8T ST2000NM0023
sdd disk 1.8T ST2000NM0023
sde disk 1.8T ST2000NM0023
sdf disk 1.8T ST2000NM0023
sdg disk 1.8T ST2000NM0023
sdh disk 1.8T ST2000NM0023
[ 14.289603] megasas:IOC Init cmd success
[ 14.313649] megasas: INIT adapter done
[ 14.385677] megaraid_sas 0000:04:00.0: Controller type: MR,Memory size is: 1024MB
[ 14.386032] scsi2 : LSI SAS based MegaRAID driver
[ 14.387980] scsi 2:0:8:0: Direct-Access SEAGATE ST2000NM0023 0004 PQ: 0 ANSI: 6
[ 14.389048] scsi 2:0:9:0: Direct-Access SEAGATE ST2000NM0023 0004 PQ: 0 ANSI: 6
[ 14.390088] scsi 2:0:10:0: Direct-Access SEAGATE ST2000NM0023 0004 PQ: 0 ANSI: 6
[ 14.391346] scsi 2:0:13:0: Direct-Access SEAGATE ST2000NM0023 0004 PQ: 0 ANSI: 6
[ 14.392610] scsi 2:0:16:0: Direct-Access SEAGATE ST2000NM0023 0004 PQ: 0 ANSI: 6
[ 14.393758] scsi 2:0:18:0: Direct-Access SEAGATE ST2000NM0023 0004 PQ: 0 ANSI: 6
[ 14.394785] scsi 2:0:19:0: Direct-Access SEAGATE ST2000NM0023 0004 PQ: 0 ANSI: 6
[ 14.395793] scsi 2:0:20:0: Direct-Access SEAGATE ST2000NM0023 0004 PQ: 0 ANSI: 6
---
Tiskni
Sdílej: