Na Kickstarteru běží kampaň na podporu modulárního otevřeného handheldu Mecha Comet s Linuxem.
V nedávno zveřejněné kolekci dokumentů souvisejících s kontroverzním finančníkem a kuplířem Jeffrey Epsteinem se překvapivě objevil i referenční manuál unixového shellu Bash, jedná se o verzi manuálu z roku 2005. Aktuální vydání si lze stáhnout ze stránek GNU.
The Document Foundation oznámila vydání nové verze 26.2 svobodného kancelářského balíku LibreOffice. Podrobný přehled nových vlastností i s náhledy v poznámkách k vydání (cs). Vypíchnout lze podporu formátu Markdown.
Co se děje ve zprávách, ví asi každý - válka sem, clo tam, demonstrace na jednu i druhou stranu a bastlíř už má pocit, že se snad ani nic jiného neděje. To by však byl velký omyl a Virtuální Bastlírna je zde jako každý měsíc, aby vytáhla na světlo světa události ze světa vědy a techniky. Připojte se tedy nezávaznému povídání Strahovského MacGyvera! Co se tam bude probírat? PCBWay začalo dělat průhledné plošňáky, MARS končí s výrobou skříněk, FEL
… více »Guvernérka státu New York Kathy Hochul (Demokraté) plánuje novou legislativu, která by měla omezit výrobu 3D tištěných zbraní. Tento návrh zákona zavádí povinnost pro všechny 3D tiskárny prodávané ve státě New York obsahovat 'software' bránící ve výrobě zbraní. Návrh zákona rovněž zakazuje lidem sdílet 'digitální plány zbraní' (blueprinty) bez povolení. Existují důvodné obavy, že se tento nešťastný nápad může šířit do dalších zemí a ovlivnit celý 3D tisk jako takový. Ostatně, s podobnou regulací nedávno přišel i stát Washington.
Na čem pracují vývojáři webového prohlížeče Ladybird (GitHub)? Byl publikován přehled vývoje za prosinec 2025 a leden 2026 (YouTube). Zajímavé, že i v roce 2026 celou řadu problémů vyřeší falšování řetězce User-Agent.
Bylo rozhodnuto, že Linux From Scratch (LFS) končí s podporou System V init. Nové verze knih s návody na instalaci vlastního linuxového systému ze zdrojových kódů už budou pouze se systemd.
Byla vydána nová verze 2026.1.0 "Like a Version" svobodného softwaru ScummVM (Wikipedie) umožňujícího bezproblémový běh mnoha klasických adventur na zařízeních, pro které nebyly nikdy určeny. Přehled novinek v poznámkách k vydání a na GitHubu. Změněno bylo číslování verzí. Předchozí verze byla 2.9.1.
Internetový prohlížeč Firefox bude mít nové ovládací prvky pro umělou inteligenci, které umožní uživatelům vypnout vestavěné AI funkce přímo v nastavení prohlížeče. Jednotlivě půjde vypnout nebo zapnout automatické překlady stránek, generovaní popisného textu k obrázkům v otevřených PDF dokumentech, samoorganizaci tabů do skupin, náhledy odkazů s krátkým shrnutím a boční panel s chatbotem. Tyto možnosti v nastavení prohlížeče
… více »Desktopové prostředí KDE Plasma 6.6, která je právě ve fázi beta, nahrazuje stávající SDDM novým Plasma Login Managerem, který je ale pevně navázán na systemd. Plasma Login Manager využívá systemd-logind a další součásti systemd, které nejsou dostupné v operačních systémech bez systemd, jako je například FreeBSD, případně jsou linuxové distribuce Gentoo, Void Linux anebo Alpine Linux. Pro uživatele zatím stále ještě existuje možnost používat SDDM.
K úvaze o paralelním programování mě inspirovala nedávná debata s kamarádem na téma vícejádrových procesorů. Nečekal bych, že někdy začnu na abclinuxu psát blog. Stalo se. Blogy jsou zde navštěvované právě těmi lidmi, kteří mě zajímají a se kterými lze krásně podiskutovat nad některými aspekty výpočetní techniky.
Současná podoba počítačů vznikla někdy v době druhé světové války. Celou koncepci přivedl na svět VonNeuman, taky se mu od té doby říká VonNeumanova architektura. Trochu odlišná je architektura Harwardská, ale v zásadě se od VonNeumanovy nijak neliší. Základním principem obou architektur je sériové programování. Programy zapisujeme shora dolů, procesor louská instrukce jednu za druhou a ani "paralelní" zpracování v moderních procesorech na tom nic nemění. Procesory pouze předžvýkávají několik instrukcí předem, tak aby hlavní výkonná jednotka v procesoru mohla vykonávat instrukce bez větších prodlev - sériově.
Programování od dob druhé světové války udělalo veliký pokrok - assembler, fotran, strukturované programování, objektové programování, událostní programování, programování vláken... nicméně procesory se stále drží zaběhnuté praxe a přebírají se instrukcemi jak babička klokočím na růženci. Nenastává pomalu čas změnit i procesory a konečně použít na přehazování instrukcí bagr?
Údajně nejsou vytvořené metodiky pro paralelní programování a nejsou připravené ani překladače, které umí zaměstnat více procesorů a nejsou ani procesory, který by obsahovaly desítky či stovky jader. První vlaštovky v podobě vícejaderných procesorů slibují, že se v budoucnu začnou objevovat na uživatelských stolech počítače s desítkami či stovkami jader a vývojáři se budou snažit tyto procesory pochopitelně využít co nejlépe.
Asi každý, kdo někdy donesl jednomu člověku do kanceláře nový počítač, musel zaznamenat, jak se najednou všem ostatním okolo skokově zpomalily počítače. Lidé mají na stolech procesory, které devadesát procent doby zahálejí, přitom jejich uživatelé skřípou zubama a skuhrají, jak ten excel zase dneska dlouho startuje. Mají pravdu - pusťte si na nejrychlejším počítači ve svém okolí třeba office (koffice, openoffice, msoffice - dle vlastního výběru a možností) a sledujte, jak pomalu a jedna za druhou se vykreslují ikonky, čudlíky - celé pracovní prostředí. Rychlejší procesor na tom mnoho nezmění, protože si svým prstíkem ukazuje na instrukci, kterou právě zpracovává, a ani dvakrát rychleji není dostatečně rychle.
Procesory většinu doby zahálejí - lidé výkon nepotřebují. Co potřebují, je rychlá odezva.
Programovací techniky jsou pro paralelní programování připravené. Na uživatelském rozhraní složitejšího programu je vidět, jak se vykreslují komponenty jedna za druhou. Přitom jsou jednotlivé komponenty v kódu solidně oddělené a událostní programování přímo vybízí k jejich paralelnímu zpracování. Brání dnes něco tomu, aby každá vybraná metoda běžela na vlastním procesoru? Dovedu si představit, že v programu rozešlu stovce komponent událost expose a stovka komponet (technicky stovka oddělených vláken) se na stovce procesorů zároveň překreslí. Uživatel může mít procesor se sériovým výkonem prvního pentia (více výkonu není potřeba) a navzdory tomu nebude muset čekat na aplikace půl dne. Stačí se jen vzdát myšlenky, že nejvýkonnějších vícejaderných procesorů je škoda na tak podřadnou úlohu, jako je kreslení blbinek na obrazovku.
Je moje představa správná? Může vést rozvoj vícejádrových procesorů k tomuto způsobu programování? Jakým způsobem by se musely změnit dnešní zaběhnuté programovací techniky, aby programy dokázaly využít stovky procesorů zároveň? Musí být paralelní programování výsadou distribuovaných síťových výpočtů a specializovaných strojů, které stejně nic užitečného nedělají (nepočítám-li simulace atomových výbuchů, hledání mimozemšťanů a léků na X chorob)?
Diskutujte. Zajímá mě váš názor.
Tiskni
Sdílej:
a o pseudoprogramátoroch ani nevravím
V Quantianu je openMossix, clusterKnoppix atd., ale zatim se mi je síťově nepodařilo zprovoznit (a tolik jsem si s tim nehrál). Prostě jsem dva procesory v openMossixView neviděl. Časem se k tomu snad dostanu.
Mozna budu placat blbosti, ale myslim, ze tohle OpenMosix prave bohuzel nepodporuje. OpenMosix se i musi kompilovat bez podpory SMP v jadre.
Pokud to bylo ale mysleno jako ze se pocitace njepropojily pres sit, tak se afaik v openmosixview nezobrazuji procesory ale pocitace. Navic se musi v takovem klikatku propojit 'linkami' aby o sobe vedeli.
Procesory většinu doby zahálejí - lidé výkon nepotřebují. Co potřebují, je rychlá odezva.Ale rychlejší odezvu při startu office nezískáš přidáním dalšího procesoru, který se bude taky většinu času nudit. Ale právě rychlejším diskem/pamětí. Ad: paralelní zpracování ... nic není tak hezké jak to vypadá. Pro paralelní zpracování se hodí jen některé úlohy. Typickým příkladem je zpracování obrazu, vědecké výpočty. U spousty úloh začne být synchronizační režie tak vysoká, že překryje veškerý zisk z vlastního paralelismu. A to vůbec nemluvím o tom, že paralelní programy bývají náročnější na kódování a vůbec se hůř ladí.
Jak říkám, je to opravdu sranda
a vzpomínal jsem je proto, že v tehdejší době to byl jeden z prostředků, jak usnadnit překladači (vývojovému prostředí) seskládání celé aplikace.
a vzpomínal jsem je proto, že v tehdejší době to byl jeden z prostředků, jak usnadnit překladači (vývojovému prostředí) seskládání celé aplikace.
Takže taky máte své zkušenosti.
Rád na tu dobu vzpomínám, i když vrátit bych jí nechtěl.
Pro mě bylo obrovskou zkušeností setkání s realtimovými a simulačními jazyky před cca 20 lety. Studoval jsem technickou kybernetiku - v zásadě teorii řízení systémů a tam jsem se seznámil s jazyky, které dodnes považuji za poklad, mnohá jména už jsem zapomněl. Paralelní a pseudoparalelní programování se tam už tehdy řešilo na sto a jeden způsob a seznamoval jsem se s nejrůznějšími způsoby, jak je zabudovat do jazyků, aby to bylo pro programátora co nejjednodušší.INMOS Transputer? Minimalisticky CPU kontext? Hardwarový message passing? Bezelo to na par megahertzech, ale task switch byl hluboko pod mikrosekundu.. Occam? Otazniky a vykricniky? :) http://en.wikipedia.org/wiki/Transputer