Nová čísla časopisů od nakladatelství Raspberry Pi: MagPi 141 (pdf) a HackSpace 78 (pdf).
Byla vydána verze 2.0.0 programovacího jazyka Kotlin (Wikipedie, GitHub). Oficiálně bude představena ve čtvrtek na konferenci KotlinConf 2024 v Kodani. Livestream bude možné sledovat na YouTube.
Byla vydána nová major verze 27.0 programovacího jazyka Erlang (Wikipedie) a související platformy OTP (Open Telecom Platform, Wikipedie). Přehled novinek v příspěvku na blogu.
Byla vydána nová verze 1.8.0 svobodného multiplatformního softwaru pro konverzi video formátů HandBrake (Wikipedie). Přehled novinek v poznámkách k vydání na GitHubu. Instalovat lze také z Flathubu.
Microsoft představil nové označení počítačů Copilot+. Dle oznámení se jedná se o počítače poskytující funkce umělé inteligence. Vedle CPU a GPU mají také NPU (Neural Processing Unit). Uvnitř představených Copilot+ notebooků běží ARM čipy Qualcomm Snapdragon X Elite nebo X Plus.
Příspěvek na blogu Codean Labs rozebírá zranitelnost CVE-2024-4367 v PDF.js, tj. mj. prohlížeči PDF souborů ve Firefoxu. Při otevření útočníkem připraveného pdf souboru může být spuštěn libovolný kód v JavaScriptu. Vyřešeno ve Firefoxu 126.
Lazygit byl vydán ve verzi 0.42.0. Jedná se o TUI (Text User Interface) nadstavbu nad gitem.
K open source herní konzole Picopad přibyla (𝕏) vylepšená verze Picopad Pro s větším displejem, lepšími tlačítky a větší baterii. Na YouTube lze zhlédnout přednášku Picopad - open source herní konzole z LinuxDays 2023.
Byla vydána (𝕏) nová major verze 17 softwarového nástroje s webovým rozhraním umožňujícího spolupráci na zdrojových kódech GitLab (Wikipedie). Představení nových vlastností i s náhledy a videi v oficiálním oznámení.
Sovereign Tech Fund, tj. program financování otevřeného softwaru německým ministerstvem hospodářství a ochrany klimatu, podpoří vývoj FFmpeg částkou 157 580 eur. V listopadu loňského roku podpořil GNOME částkou 1 milion eur.
Pro mnoho lidí je SW RAID jen levnou náhražkou hardwareového diskového pole. Jan „Yenya“ Kasprzak ve svém blogovém zápisku píše o tom, že dle něj může být SW RAID v mnoha případech rychlejší a přikládá srovnávací test, který měl možnost nyní udělat.
Tiskni Sdílej:
several 2TB WDC RE-4 black drives ... HW RAID-10 volume using 10 diskspodivně málo. Pro zajímavost jsem teď otestoval:
HW RAID10, 4 × 500 GB SATA -- CentOS 5.5 / Xen Dom0 -- LVM -- DRBD -- Xen guest -- LVM -- ext3a zápis 10 GB přes dd + sync trval 1m25s, tedy skoro stejně jako v testu v článku. Tady šlo o 2 stroje se SmartArray 212 + DRBD replikace přes GbE, což je úzké místo. Přímo na Dom0 to šlo cca dvakrát rychleji. Obecně u většího množství disků může u sekvenční zátěže být HW RAID slabé místo a linuxový swraid ho překoná. Když ale přijde na náhodný zápis, kdy lze těžit z baterií zalohované write cache, chtěl bych vidět test, kde bude swraid lepší. Jinak mám teď k dispozici stroj s HW RAIDem (HP SmartArray P410, 512 MB cache) a 8 kusů 146GB 10krpm SAS disků, a chystám testy srovnávající ext3/ext4/xfs a hwraid 5 / hwraid 10 / mdraid, a to hlavně při masivním náhodném čtení i zápisu souborů o velikostech v kB až jednotkách MB. Existuje na to nějaký vhodný nástroj nebo nějaké standardně používané testy?
Ja tim byl nedavno taky prekvapen.Proč překvapen? Pokud vím, tak takhle se chová naprostá většina software, že jako výchozí používají nejnovější verzi svého formátu.
Horší to bude s takovými těmi integrovanými na obyčejných základovkách.Já měl za to, že je řeč o HW raidu.
smartmontools
, hej?
smartmontools
nedovedu odpovědět. Nevím totiž zda dokáží testovat povrch HDD ("na badblocky") nebo "RAID checksums" i za plného provozu pod např. běžící databází a snadno omezit prostředky testu na 30% a zbylých 70% výkonu ponechat uživatelům, aby se "nerušeně" mohli vrtat v databázi svého informačního systému... A to vše jediným kratkým příkazem "CmdTool2 -AdpPR -Start -A0" ;)
Dále spoléhat se pouze na SMART po svých zklamáních a ztrátách už nechci. A proto jsem si pořídil HW RAID i domů - na takovéto domací video s maželkou a dítětem. Za 12tis na přímých 8 disků (bez "enclosure") - no neberte to :)
echo check > /sys/block/md0/md/sync_action... treba fedora uz to ma v tydenim cronu. (od F12 urcite., kdy to tam dali nevim) Opet "zakladni" test disku jde online vyzadat pomoci
smartctl -t long /dev/sda. (pokud se nepletu, je to jen cteci test a jeho vysledky zavisi hlavne na libovuli vyrobce disku) pravdou je, ze oboji pak masinu zpomali, nemeril jsem jak. Delat se na tom da, interaktivita je znatelne horsi. Samozrejme badblocks v rw modu na zivem poli spustit rozumne nelze. Mimochodem - jsou uz nastroje na diagnostiku SSD disku? Kolik ma realokovane a podobne? (linux, pokud mozno)
Zajimalo by me porovnani s btrfs a ZFS, linuxovy md a LVM potrebuje umrit.
linuxovy md a LVM potrebuje umrit.Kromě toho, že k tomu nevidím jediný důvod, tak ani btrfs, ani ZFS nenahrazuje ani MD ani LVM. Takže, těžko.
LVM se pochopitelně hodí i pro další věci jako dynamické dělení disku pro virtuální guesty (daleko menší počet fragmentů, než v případě souboru na FS), "problém" je zřejmě v tom, že (nevím, jak btrfs) ZFS není jen filesystém, je to údajně kombinace něčeho jako LVM s filesystémem a co jsem pochopil, umožňuje použít i jiné FS nad svými "oddíly". Nikdy jsem to ale nezkoušel, takže se možná pletu. I tak bych nerad přišel o LVM, resp. o úžasnost device mapperu.
ZFS není jen filesystém, je to údajně kombinace něčeho jako LVM s filesystémem a co jsem pochopil, umožňuje použít i jiné FS nad svými "oddíly"
Pořád ale nevidím výhodu spočívající v tom, že se něco, co velmi dobře funguje odděleně, integruje do filesystému.
Pořád ale nevidím výhodu spočívající v tom, že se něco, co velmi dobře funguje odděleně, integruje do filesystému.Volume management bych neintegroval, to nedává smysl. Ale to, že Sun psal, že volume management už není potřeba, jsou podle mě jen marketingové kecy, prostě PR. Využití více zařízení pro jeden filesystém bez volume manageru (což samozřejmě není jeho jediná funkce), ale podle mě není úplně špatný nápad. I když teďka nedám dohromady výhody/nevýhody oproti LVM+FS.
Třeba v tom, že filesystém ví, jaká data tam cpe, a tak může optimalizovat, kam je dá.Teoreticky ano. Ale zajímala by mě praktická implementace, kde to (dobře) funguje.
Například může na RAID 0 nebo RAID 5, dokud je dost místa, hodně používané soubory mirrorovat místo stripovat.Tak něco takového bych rozhodně nedoporučoval. Dělat bordel v technologii, jejímž účelem zabezpečení dat... granularita RAIDu na úrovni souborů... mno je to pouze můj názor, ale rozhodně se mi to nelíbí a nikomu nic takového nedoporučuju.
Dále díky checksumům na RAID 5 a RAID 1 pozná, který z disků je corrupted (tj. vrátí data, ale ta jsou vadná).Rovněž věc, kterou mi přijde zbytečné řešit na úrovni FS.
Implementace něčeho jako ReadyBoost (často používané soubory se zmirrorují na malý SSD disk, zbytek se udržuje jenom na velkém HDD) je další možnost.Na to se mi implementace RAIDu uvnitř FS moc nezdá jako výhoda.
"problém" je zřejmě v tom, že (nevím, jak btrfs) ZFS není jen filesystém, je to údajně kombinace něčeho jako LVM s filesystémem a co jsem pochopil, umožňuje použít i jiné FS nad svými "oddíly".Mezi náma, v kombinaci s podporou loop device, umožňuje použít jiné FS nad svými "oddíly" (soubory) každý FS. Ale u speciální podpory cizích oddílu na ZFS si myslím, že se pleteš (pokud se pletu já, někdo mě opravte), nemůžu takovou informaci nikde najít a byla by to pro mě novinka.
I tak bych nerad přišel o LVM, resp. o úžasnost device mapperu.Na device mapperu i hezky navrženého LVM se shodnem.