O víkendu probíhá konference OpenAlt 2025. Na programu je spousta zajímavých přednášek. Pokud jste v Brně, stavte se. Vstup zdarma.
Josef Průša představil novou velkoformátovou uzavřenou CoreXY 3D tiskárnu Prusa CORE One L a nový open source standard chytrých cívek OpenPrintTag i s novou přepracovanou špulkou.
Na GOG.com běží Autumn Sale. Při té příležitosti je zdarma hororová počítačová hra STASIS (ProtonDB: Platinum).
Ubuntu 25.10 má nově balíčky sestavené také pro úroveň mikroarchitektury x86-64-v3 (amd64v3).
Byla vydána verze 1.91.0 programovacího jazyka Rust (Wikipedie). Podrobnosti v poznámkách k vydání. Vyzkoušet Rust lze například na stránce Rust by Example.
Ministerstvo průmyslu a obchodu vyhlásilo druhou veřejnou soutěž v programu TWIST, který podporuje výzkum, vývoj a využití umělé inteligence v podnikání. Firmy mohou získat až 30 milionů korun na jeden projekt zaměřený na nové produkty či inovaci podnikových procesů. Návrhy projektů lze podávat od 31. října do 17. prosince 2025. Celková alokace výzvy činí 800 milionů korun.
Google v srpnu oznámil, že na „certifikovaných“ zařízeních s Androidem omezí instalaci aplikací (včetně „sideloadingu“) tak, že bude vyžadovat, aby aplikace byly podepsány centrálně registrovanými vývojáři s ověřenou identitou. Iniciativa Keep Android Open se to snaží zvrátit. Podepsat lze otevřený dopis adresovaný Googlu nebo petici na Change.org.
Byla vydána nová verze 18 integrovaného vývojového prostředí (IDE) Qt Creator. S podporou Development Containers. Podrobný přehled novinek v changelogu.
Cursor (Wikipedie) od společnosti Anysphere byl vydán ve verzi 2.0. Jedná se o multiplatformní proprietární editor kódů s podporou AI (vibe coding).
Google Chrome 142 byl prohlášen za stabilní. Nejnovější stabilní verze 142.0.7444.59 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 20 bezpečnostních chyb. Za nejvážnější z nich bylo vyplaceno 50 000 dolarů. Vylepšeny byly také nástroje pro vývojáře.
Pro mnoho lidí je SW RAID jen levnou náhražkou hardwareového diskového pole. Jan „Yenya“ Kasprzak ve svém blogovém zápisku píše o tom, že dle něj může být SW RAID v mnoha případech rychlejší a přikládá srovnávací test, který měl možnost nyní udělat.
Tiskni
Sdílej:
several 2TB WDC RE-4 black drives ... HW RAID-10 volume using 10 diskspodivně málo. Pro zajímavost jsem teď otestoval:
HW RAID10, 4 × 500 GB SATA -- CentOS 5.5 / Xen Dom0 -- LVM -- DRBD -- Xen guest -- LVM -- ext3a zápis 10 GB přes dd + sync trval 1m25s, tedy skoro stejně jako v testu v článku. Tady šlo o 2 stroje se SmartArray 212 + DRBD replikace přes GbE, což je úzké místo. Přímo na Dom0 to šlo cca dvakrát rychleji. Obecně u většího množství disků může u sekvenční zátěže být HW RAID slabé místo a linuxový swraid ho překoná. Když ale přijde na náhodný zápis, kdy lze těžit z baterií zalohované write cache, chtěl bych vidět test, kde bude swraid lepší. Jinak mám teď k dispozici stroj s HW RAIDem (HP SmartArray P410, 512 MB cache) a 8 kusů 146GB 10krpm SAS disků, a chystám testy srovnávající ext3/ext4/xfs a hwraid 5 / hwraid 10 / mdraid, a to hlavně při masivním náhodném čtení i zápisu souborů o velikostech v kB až jednotkách MB. Existuje na to nějaký vhodný nástroj nebo nějaké standardně používané testy?
zas nekdo bohuzel objevuje ameriku s tim, ze nejaky radoby hw raid je pomalejsi, sam radeji dam sw raid, kdyz nemam jistotu o kvalite daneho "hw" raidu, o kvalite toolu na jeho pripadnou opravu nehlede o dostupnosti druheho hw radice v pripade havarie, naposled jsem to udelal treba u ***** smartarray E200 a rekl bych ze je to mozna i mensi ***** nez ten od LSI...
HW raidu sem videl jen par (mylexy/adaptecy), levne nebyly a prijemna prace s nimi taky ne. Nastesti uz sem dlouho skutecny (novy) hw raid nevidel, mylexy byly vyrazeny vsechny (cast utopena) a adaptecy bezi posledni 2...
... jak to tak ctu... taky bych nedokazal vyplodit nezaujaty zapis v blogu
), a hlavne pri syncu netrpi system tak moc. Kdyz mate zelezo kde honite iopsy jak divy, pak vam odejde jeden sas disk, a nedejboze LSI radic + jeho hw raid, tak jde zelezo do kytek.. a co s tim udelate? U sw raidu alespon upravim rychlost resyncu, u poradneho hw raidu neresim, tam se s tim popere karta..
Omlouvam se za gramatiku... malo casu
Ja tim byl nedavno taky prekvapen.Proč překvapen? Pokud vím, tak takhle se chová naprostá většina software, že jako výchozí používají nejnovější verzi svého formátu.
Horší to bude s takovými těmi integrovanými na obyčejných základovkách.Já měl za to, že je řeč o HW raidu.
když vykoply disk z pole při jakémkoliv zaváhání disku a nebo když se disk při pravidelných týdeních kontrolách nepodařilo "uzdravit" (recover). Zato takový SMART mi dal vědět, až když už byl disk mrtvý nebo jsem z něj nebyl schopen dostat všechny data :-/ Prostě následující hlášky mě ujišťují o vhodnosti HW RAIDů a o tom, že prevence u nich funguje perfektně:
smartmontools, hej?
smartmontools nedovedu odpovědět. Nevím totiž zda dokáží testovat povrch HDD ("na badblocky") nebo "RAID checksums" i za plného provozu pod např. běžící databází a snadno omezit prostředky testu na 30% a zbylých 70% výkonu ponechat uživatelům, aby se "nerušeně" mohli vrtat v databázi svého informačního systému... A to vše jediným kratkým příkazem "CmdTool2 -AdpPR -Start -A0" ;)
Dále spoléhat se pouze na SMART po svých zklamáních a ztrátách už nechci. A proto jsem si pořídil HW RAID i domů - na takovéto domací video s maželkou a dítětem. Za 12tis na přímých 8 disků (bez "enclosure") - no neberte to :)
echo check > /sys/block/md0/md/sync_action... treba fedora uz to ma v tydenim cronu. (od F12 urcite., kdy to tam dali nevim) Opet "zakladni" test disku jde online vyzadat pomoci
smartctl -t long /dev/sda. (pokud se nepletu, je to jen cteci test a jeho vysledky zavisi hlavne na libovuli vyrobce disku) pravdou je, ze oboji pak masinu zpomali, nemeril jsem jak. Delat se na tom da, interaktivita je znatelne horsi. Samozrejme badblocks v rw modu na zivem poli spustit rozumne nelze.
Mimochodem - jsou uz nastroje na diagnostiku SSD disku? Kolik ma realokovane a podobne? (linux, pokud mozno)
Sice mi vedle toho stojí opravený původní server se všemi ostatními službami, ale nějak se nemám k tomu, abych to překopnul zpět :)
Zajimalo by me porovnani s btrfs a ZFS, linuxovy md a LVM potrebuje umrit.
linuxovy md a LVM potrebuje umrit.Kromě toho, že k tomu nevidím jediný důvod, tak ani btrfs, ani ZFS nenahrazuje ani MD ani LVM. Takže, těžko.
LVM se pochopitelně hodí i pro další věci jako dynamické dělení disku pro virtuální guesty (daleko menší počet fragmentů, než v případě souboru na FS), "problém" je zřejmě v tom, že (nevím, jak btrfs) ZFS není jen filesystém, je to údajně kombinace něčeho jako LVM s filesystémem a co jsem pochopil, umožňuje použít i jiné FS nad svými "oddíly". Nikdy jsem to ale nezkoušel, takže se možná pletu. I tak bych nerad přišel o LVM, resp. o úžasnost device mapperu.
ZFS není jen filesystém, je to údajně kombinace něčeho jako LVM s filesystémem a co jsem pochopil, umožňuje použít i jiné FS nad svými "oddíly"
Pořád ale nevidím výhodu spočívající v tom, že se něco, co velmi dobře funguje odděleně, integruje do filesystému.
Pořád ale nevidím výhodu spočívající v tom, že se něco, co velmi dobře funguje odděleně, integruje do filesystému.Volume management bych neintegroval, to nedává smysl. Ale to, že Sun psal, že volume management už není potřeba, jsou podle mě jen marketingové kecy, prostě PR. Využití více zařízení pro jeden filesystém bez volume manageru (což samozřejmě není jeho jediná funkce), ale podle mě není úplně špatný nápad. I když teďka nedám dohromady výhody/nevýhody oproti LVM+FS.
Třeba v tom, že filesystém ví, jaká data tam cpe, a tak může optimalizovat, kam je dá.Teoreticky ano. Ale zajímala by mě praktická implementace, kde to (dobře) funguje.
Například může na RAID 0 nebo RAID 5, dokud je dost místa, hodně používané soubory mirrorovat místo stripovat.Tak něco takového bych rozhodně nedoporučoval. Dělat bordel v technologii, jejímž účelem zabezpečení dat... granularita RAIDu na úrovni souborů... mno je to pouze můj názor, ale rozhodně se mi to nelíbí a nikomu nic takového nedoporučuju.
Dále díky checksumům na RAID 5 a RAID 1 pozná, který z disků je corrupted (tj. vrátí data, ale ta jsou vadná).Rovněž věc, kterou mi přijde zbytečné řešit na úrovni FS.
Implementace něčeho jako ReadyBoost (často používané soubory se zmirrorují na malý SSD disk, zbytek se udržuje jenom na velkém HDD) je další možnost.Na to se mi implementace RAIDu uvnitř FS moc nezdá jako výhoda.
"problém" je zřejmě v tom, že (nevím, jak btrfs) ZFS není jen filesystém, je to údajně kombinace něčeho jako LVM s filesystémem a co jsem pochopil, umožňuje použít i jiné FS nad svými "oddíly".Mezi náma, v kombinaci s podporou loop device, umožňuje použít jiné FS nad svými "oddíly" (soubory) každý FS. Ale u speciální podpory cizích oddílu na ZFS si myslím, že se pleteš (pokud se pletu já, někdo mě opravte), nemůžu takovou informaci nikde najít a byla by to pro mě novinka.
I tak bych nerad přišel o LVM, resp. o úžasnost device mapperu.Na device mapperu i hezky navrženého LVM se shodnem.