Proběhla hackerská soutěž Pwn2Own Ireland 2025. Celkově bylo vyplaceno 1 024 750 dolarů za 73 unikátních zranitelností nultého dne (0-day). Vítězný Summoning Team si odnesl 187 500 dolarů. Shrnutí po jednotlivých dnech na blogu Zero Day Initiative (1. den, 2. den a 3. den) a na YouTube.
Byl publikován říjnový přehled dění a novinek z vývoje Asahi Linuxu, tj. Linuxu pro Apple Silicon. Pracuje se na podpoře M3. Zanedlouho vyjde Fedora Asahi Remix 43. Vývojáře lze podpořit na Open Collective a GitHub Sponsors.
Iniciativa Open Device Partnership (ODP) nedávno představila projekt Patina. Jedná se o implementaci UEFI firmwaru v Rustu. Vývoj probíhá na GitHubu. Zdrojové kódy jsou k dispozici pod licencí Apache 2.0. Nejnovější verze Patiny je 13.0.0.
Obrovská poptávka po plynových turbínách zapříčinila, že datová centra začala používat v generátorech dodávajících energii pro provoz AI staré dobré proudové letecké motory, konvertované na plyn. Jejich výhodou je, že jsou menší, lehčí a lépe udržovatelné než jejich průmyslové protějšky. Proto jsou ideální pro dočasné nebo mobilní použití.
Typst byl vydán ve verzi 0.14. Jedná se o rozšiřitelný značkovací jazyk a překladač pro vytváření dokumentů včetně odborných textů s matematickými vzorci, diagramy či bibliografií.
Specialisté společnosti ESET zaznamenali útočnou kampaň, která cílí na uživatele a uživatelky v Česku a na Slovensku. Útočníci po telefonu zmanipulují oběť ke stažení falešné aplikace údajně od České národní banky (ČNB) nebo Národní banky Slovenska (NBS), přiložení platební karty k telefonu a zadání PINu. Malware poté v reálném čase přenese data z karty útočníkovi, který je bezkontaktně zneužije u bankomatu nebo na platebním terminálu.
V Ubuntu 25.10 byl balíček základních nástrojů gnu-coreutils nahrazen balíčkem rust-coreutils se základními nástroji přepsanými do Rustu. Ukázalo se, že nový "date" znefunkčnil automatickou aktualizaci. Pro obnovu je nutno balíček rust-coreutils manuálně aktualizovat.
VST 3 je nově pod licencí MIT. S verzí 3.8.0 proběhlo přelicencování zdrojových kódů z licencí "Proprietary Steinberg VST3 License" a "General Public License (GPL) Version 3". VST (Virtual Studio Technology, Wikipedie) je softwarové rozhraní pro komunikaci mezi hostitelským programem a zásuvnými moduly (pluginy), kde tyto moduly slouží ke generování a úpravě digitálního audio signálu.
Open source 3D herní a simulační engine Open 3D Engine (O3DE) byl vydán v nové verzi 25.10. Podrobný přehled novinek v poznámkách k vydání.
V Londýně probíhá dvoudenní Ubuntu Summit 25.10. Na programu je řada zajímavých přednášek. Zhlédnout je lze také na YouTube (23. 10. a 24. 10.).
K úvaze o paralelním programování mě inspirovala nedávná debata s kamarádem na téma vícejádrových procesorů. Nečekal bych, že někdy začnu na abclinuxu psát blog. Stalo se. Blogy jsou zde navštěvované právě těmi lidmi, kteří mě zajímají a se kterými lze krásně podiskutovat nad některými aspekty výpočetní techniky.
Současná podoba počítačů vznikla někdy v době druhé světové války. Celou koncepci přivedl na svět VonNeuman, taky se mu od té doby říká VonNeumanova architektura. Trochu odlišná je architektura Harwardská, ale v zásadě se od VonNeumanovy nijak neliší. Základním principem obou architektur je sériové programování. Programy zapisujeme shora dolů, procesor louská instrukce jednu za druhou a ani "paralelní" zpracování v moderních procesorech na tom nic nemění. Procesory pouze předžvýkávají několik instrukcí předem, tak aby hlavní výkonná jednotka v procesoru mohla vykonávat instrukce bez větších prodlev - sériově.
Programování od dob druhé světové války udělalo veliký pokrok - assembler, fotran, strukturované programování, objektové programování, událostní programování, programování vláken... nicméně procesory se stále drží zaběhnuté praxe a přebírají se instrukcemi jak babička klokočím na růženci. Nenastává pomalu čas změnit i procesory a konečně použít na přehazování instrukcí bagr?
Údajně nejsou vytvořené metodiky pro paralelní programování a nejsou připravené ani překladače, které umí zaměstnat více procesorů a nejsou ani procesory, který by obsahovaly desítky či stovky jader. První vlaštovky v podobě vícejaderných procesorů slibují, že se v budoucnu začnou objevovat na uživatelských stolech počítače s desítkami či stovkami jader a vývojáři se budou snažit tyto procesory pochopitelně využít co nejlépe.
Asi každý, kdo někdy donesl jednomu člověku do kanceláře nový počítač, musel zaznamenat, jak se najednou všem ostatním okolo skokově zpomalily počítače. Lidé mají na stolech procesory, které devadesát procent doby zahálejí, přitom jejich uživatelé skřípou zubama a skuhrají, jak ten excel zase dneska dlouho startuje. Mají pravdu - pusťte si na nejrychlejším počítači ve svém okolí třeba office (koffice, openoffice, msoffice - dle vlastního výběru a možností) a sledujte, jak pomalu a jedna za druhou se vykreslují ikonky, čudlíky - celé pracovní prostředí. Rychlejší procesor na tom mnoho nezmění, protože si svým prstíkem ukazuje na instrukci, kterou právě zpracovává, a ani dvakrát rychleji není dostatečně rychle.
Procesory většinu doby zahálejí - lidé výkon nepotřebují. Co potřebují, je rychlá odezva.
Programovací techniky jsou pro paralelní programování připravené. Na uživatelském rozhraní složitejšího programu je vidět, jak se vykreslují komponenty jedna za druhou. Přitom jsou jednotlivé komponenty v kódu solidně oddělené a událostní programování přímo vybízí k jejich paralelnímu zpracování. Brání dnes něco tomu, aby každá vybraná metoda běžela na vlastním procesoru? Dovedu si představit, že v programu rozešlu stovce komponent událost expose a stovka komponet (technicky stovka oddělených vláken) se na stovce procesorů zároveň překreslí. Uživatel může mít procesor se sériovým výkonem prvního pentia (více výkonu není potřeba) a navzdory tomu nebude muset čekat na aplikace půl dne. Stačí se jen vzdát myšlenky, že nejvýkonnějších vícejaderných procesorů je škoda na tak podřadnou úlohu, jako je kreslení blbinek na obrazovku.
Je moje představa správná? Může vést rozvoj vícejádrových procesorů k tomuto způsobu programování? Jakým způsobem by se musely změnit dnešní zaběhnuté programovací techniky, aby programy dokázaly využít stovky procesorů zároveň? Musí být paralelní programování výsadou distribuovaných síťových výpočtů a specializovaných strojů, které stejně nic užitečného nedělají (nepočítám-li simulace atomových výbuchů, hledání mimozemšťanů a léků na X chorob)?
Diskutujte. Zajímá mě váš názor.
Tiskni
Sdílej:
a o pseudoprogramátoroch ani nevravím
V Quantianu je openMossix, clusterKnoppix atd., ale zatim se mi je síťově nepodařilo zprovoznit (a tolik jsem si s tim nehrál). Prostě jsem dva procesory v openMossixView neviděl. Časem se k tomu snad dostanu.
Mozna budu placat blbosti, ale myslim, ze tohle OpenMosix prave bohuzel nepodporuje. OpenMosix se i musi kompilovat bez podpory SMP v jadre.
Pokud to bylo ale mysleno jako ze se pocitace njepropojily pres sit, tak se afaik v openmosixview nezobrazuji procesory ale pocitace. Navic se musi v takovem klikatku propojit 'linkami' aby o sobe vedeli.
Procesory většinu doby zahálejí - lidé výkon nepotřebují. Co potřebují, je rychlá odezva.Ale rychlejší odezvu při startu office nezískáš přidáním dalšího procesoru, který se bude taky většinu času nudit. Ale právě rychlejším diskem/pamětí. Ad: paralelní zpracování ... nic není tak hezké jak to vypadá. Pro paralelní zpracování se hodí jen některé úlohy. Typickým příkladem je zpracování obrazu, vědecké výpočty. U spousty úloh začne být synchronizační režie tak vysoká, že překryje veškerý zisk z vlastního paralelismu. A to vůbec nemluvím o tom, že paralelní programy bývají náročnější na kódování a vůbec se hůř ladí.
Jak říkám, je to opravdu sranda
a vzpomínal jsem je proto, že v tehdejší době to byl jeden z prostředků, jak usnadnit překladači (vývojovému prostředí) seskládání celé aplikace.
a vzpomínal jsem je proto, že v tehdejší době to byl jeden z prostředků, jak usnadnit překladači (vývojovému prostředí) seskládání celé aplikace.
Takže taky máte své zkušenosti.
Rád na tu dobu vzpomínám, i když vrátit bych jí nechtěl.
Pro mě bylo obrovskou zkušeností setkání s realtimovými a simulačními jazyky před cca 20 lety. Studoval jsem technickou kybernetiku - v zásadě teorii řízení systémů a tam jsem se seznámil s jazyky, které dodnes považuji za poklad, mnohá jména už jsem zapomněl. Paralelní a pseudoparalelní programování se tam už tehdy řešilo na sto a jeden způsob a seznamoval jsem se s nejrůznějšími způsoby, jak je zabudovat do jazyků, aby to bylo pro programátora co nejjednodušší.INMOS Transputer? Minimalisticky CPU kontext? Hardwarový message passing? Bezelo to na par megahertzech, ale task switch byl hluboko pod mikrosekundu.. Occam? Otazniky a vykricniky? :) http://en.wikipedia.org/wiki/Transputer