PimpMyGRC upravuje vzhled toolkitu GNU Radio a přidává alternativní barevná témata. Primárním cílem autora bylo pouze vytvořit tmavé prostředí vhodné pro noční práci, nicméně k dispozici je nakonec celá škála barevných schémat včetně možností různých animací a vizuálních efektů (plameny, matrix, bubliny...), které nepochybně posunou uživatelský zážitek na zcela jinou úroveň. Témata jsou skripty v jazyce Python, které nahrazují
… více »GIMP 3.2 byl oficiálně vydán (Mastodon, 𝕏). Přehled novinek v poznámkách k vydání.
FRANK OS je open-source operační systém pro mikrokontrolér RP2350 (s FRANK M2 board) postavený na FreeRTOS, který přetváří tento levný čip na plně funkční počítač s desktopovým uživatelským rozhraním ve stylu Windows 95 se správcem oken, terminálem, prohlížečem souborů a knihovnou aplikací, ovládaný PS/2 myší a klávesnicí, s DVI video výstupem. Otázkou zůstává, zda by 520 KB SRAM stačilo každému 😅.
Administrativa amerického prezidenta Donalda Trumpa by měla dostat zhruba deset miliard dolarů (asi 214 miliard Kč) za zprostředkování dohody o převzetí kontroly nad aktivitami sociální sítě TikTok ve Spojených státech.
Projekt Debian aktualizoval obrazy stabilní větve „Trixie“ (13.4). Shrnuje opravy za poslední dva měsíce, 111 aktualizovaných balíčků a 67 bezpečnostních hlášení. Opravy se týkají mj. chyb v glibc nebo webovém serveru Apache.
Agent umělé inteligence Claude Opus ignoroval uživatelovu odpověď 'ne' na dotaz, zda má implementovat změny kódu, a přesto se pokusil změny provést. Agent si odpověď 'ne' vysvětlil následovně: Uživatel na mou otázku 'Mám to implementovat?' odpověděl 'ne' - ale když se podívám na kontext, myslím, že tím 'ne' odpovídá na to, abych žádal o svolení, tedy myslí 'prostě to udělej, přestaň se ptát'.
Po 8. květnu 2026 už na Instagramu nebudou podporované zprávy opatřené koncovým šifrováním. V chatech, kterých se bude změna týkat, se objeví pokyny o tom, jak si média nebo zprávy z nich stáhnout, pokud si je chcete ponechat.
V lednu byla ve veřejné betě obnovena sociální síť Digg (Wikipedie). Dnes bylo oznámeno její ukončení (Hard Reset). Společnost Digg propouští velkou část týmu a přiznává, že se nepodařilo najít správné místo na trhu. Důvody jsou masivní problém s boty a silná konkurence. Společnost Digg nekončí, malý tým pokračuje v práci na zcela novém přístupu. Cílem je vybudovat platformu, kde lze důvěřovat obsahu i lidem za ním. Od dubna se do Diggu na plný úvazek vrací Kevin Rose, zakladatel Diggu z roku 2004.
MALUS je kontroverzní proprietarní nástroj, který svým zákazníkům umožňuje nechat AI, která dle tvrzení provozovatelů nikdy neviděla původní zdrojový kód, analyzovat dokumentaci, API a veřejná rozhraní jakéhokoliv open-source projektu a následně úplně od píky vygenerovat funkčně ekvivalentní software, ovšem pod libovolnou licencí.
Příspěvek na blogu Ubuntu upozorňuje na několik zranitelností v rozšíření Linuxu o mandatorní řízení přístupu AppArmor. Společně jsou označovány jako CrackArmor. Objevila je společnost Qualys (technické detaily). Neprivilegovaný lokální uživatel se může stát rootem. Chyba existuje od roku 2017. Doporučuje se okamžitá aktualizace. Problém se týká Ubuntu, Debianu nebo SUSE. Red Hat nebo Fedora pro mandatorní řízení přístupu používají SELinux.
Sice mě rychlost momentálně nezajímá, ale proč to nezkusit, že(?)…
Do srovnání rychlostí kombinací úložiště jsem vložil i LUKS. Pro ty případy, kdy děláte například video či animace s porno záznamem své babičky, nebo třeba děláte nějaké výpočty pomocí MKP (FEM) kde vám to nějaký předpis nařizuje.
Otázkou je jestli by tyto kombinace dalších úrovní (RAID,LUKS,FS) generovaly stejné vzájemné pořadí, kdyby se jednalo o dva(tři, čtyři) SSD disky (nebo takové ty super SSD, co jsem ještě nikdy v ruce neměl, přímo do PCI-E).
Surový zápis jsem trochu upravil (oflag=sync bs=268435456) celkem 32GiB v 32 souborech. Zapisují se předpřipravená (u)random data (1GiB v souboru v paměti na /dev/shm/). Provedl jsem i mazání pomocí find -type f -delete, pak je ještě smazána struktura již pomocí rm, v čase je zahrnutý i sync.
Struktura celkem obsahuje 223 adresářů a 22000 souborů celkem ≈25.5GiB v tříúrovňové struktuře.
Čtení struktury je podobné jako mazání ted: find -type f -exec dd if={} of=/dev/null bs=268435456
Jako obvykle uvádím i ø vytížení CPU v % (v přílohách je to někde ×10), hodnoty jsou dobou trvání testu, tedy čím menší tím lepší.
V textu uvedu jen 4 grafy (jednotlivé nechávám v přílohách). Grafy jsem tentokráte neseřadil, minule byla námitka a možná je to tak i lepší.




Zde je odkaz na poslední graf setříděný dle času/rychlosti (rovněž je v příloze a v příloze je i dle CPU). Přece jenom na něco je to dobré…
Závěr:
Takovéto informace nejsou potřeba zas tak často, protože rychlost ustupuje jiným kritériím. Ale je spousta aplikací, kde o tu rychlost jde až v prví řadě a pokud máte na výběr z několika možností, tak se to může hodit, minimálně k tomu, aby se na základě toho provedl konkrétní aplikační test.
Pokud máme rychlé úložiště a jde nám o nenáročnost či rychlost, tak s btrfs si to musíme rozmyslet, přece jenom si z toho CPU docela dost ukrajuje, nevím jak by to dopadlo kdyby se použil btrfs RAID0…
Jinak xfs se zdá jako dobrá volba pro nenáročný a rychlý FS ve většině případů (ale ext4 není o mnoho náročnější). Každý si tam musí najít své…
Poznámka k brtrfs a jfs:
Jak jsem zmiňoval, v minulé „hrátce“, jedná se o CentOS 6.4 a jádro 2.6.32, tedy žádná novinka.
btrfs:
Všiml jsem si, že se za stejných okolností chová jinak, tedy přesněji podařilo se zapsat vždy trochu jiné množství dat.
Po skončeném zápisu s hlášením, že už tam neni více místa jsem dostal na df:
/dev/sdf1 22024192 19594732 377140 99% /root/testKdyž jsem chvilku počkal a zkusil dopsat:
dd if=/dev/zero /root/test/kukZapsalo se 717 kB a výpis přes
df vypadal takto:
/dev/sdf1 22024192 19972932 204 100% /root/testVíce už nešlo, ale obě čísla „free“ se u opakovaného stejného testu lišila, druhé nepatrně a první lítalo zhruba od 200000 do 390000.
btrfs jen vypsala:
ERROR: 'nějaká hláška vztahující se k příkazu' - Inappropriate ioctl for device…tak nevím, zkoušel jsem přijít na to kdy-jak-co, ale jediné co jsem zjistil, že se mi to stane jen někdy a to, když bezprostředně po vytvoření jej zaplním…
jfs:
Kombinace RAID5/6→LUKS→LVM→jfs (RAID6 i bez LUKS) po testu (zápis velkých dat, přečtení, smazání, zápis struktury, přečtení, smazání) na umount vykouzlilo doslova BSOD, černý terminál zmodral, umřelo to a restartovalo se to bez jakéhokoliv hlášení jak do terminálu, tak do logu.
Trochu jsem to analyzoval, ale pak jsem se na to vykašlal, je to moc na dlouho, došel sjem jen k tomu, že musí před tím na zařízení (RAID nebo LUKS) existovat FS btrfs a reiserfs, na který se něco zapíše smaže, a odmontuje se (asi jde o to, že se natáhne modul) nevím jestli oba nebo jen některý. Následně před vytvořením jfs se zapíše (nutná podmínka): dd if=/dev/zero of=zařízení bs=512 count=2048, pak se vytvoří jfs, něco se zapíše/smaže provede se vyprázdnění cache sync && echo 3 > /proc/sys/vm/drop_caches && sleep 1, promaže se to přes rm, provede se sync - opět nevím co všechno je nutné,... no a na umount „bác“.
Kombinace roztodivná, a těžko se přihodí, ale při testování to tak náhodou vyšlo a něco tam je zhnilého (může to být klidne „experiemtální“ modul btrfs, těžko říct).
Glosa na závěr: Je „fakt“, že zkušenost z dávné minulosti a z uživatelského hlediska, co šlo z IBM(AIX) bylo pocitově a výkonově horší, než co šlo s SGI(IRIX), a proto SGI(IRIX) skončil…
Tiskni
Sdílej: