Portál AbcLinuxu, 2. května 2025 12:08
K úvaze o paralelním programování mě inspirovala nedávná debata s kamarádem na téma vícejádrových procesorů. Nečekal bych, že někdy začnu na abclinuxu psát blog. Stalo se. Blogy jsou zde navštěvované právě těmi lidmi, kteří mě zajímají a se kterými lze krásně podiskutovat nad některými aspekty výpočetní techniky.
Současná podoba počítačů vznikla někdy v době druhé světové války. Celou koncepci přivedl na svět VonNeuman, taky se mu od té doby říká VonNeumanova architektura. Trochu odlišná je architektura Harwardská, ale v zásadě se od VonNeumanovy nijak neliší. Základním principem obou architektur je sériové programování. Programy zapisujeme shora dolů, procesor louská instrukce jednu za druhou a ani "paralelní" zpracování v moderních procesorech na tom nic nemění. Procesory pouze předžvýkávají několik instrukcí předem, tak aby hlavní výkonná jednotka v procesoru mohla vykonávat instrukce bez větších prodlev - sériově.
Programování od dob druhé světové války udělalo veliký pokrok - assembler, fotran, strukturované programování, objektové programování, událostní programování, programování vláken... nicméně procesory se stále drží zaběhnuté praxe a přebírají se instrukcemi jak babička klokočím na růženci. Nenastává pomalu čas změnit i procesory a konečně použít na přehazování instrukcí bagr?
Údajně nejsou vytvořené metodiky pro paralelní programování a nejsou připravené ani překladače, které umí zaměstnat více procesorů a nejsou ani procesory, který by obsahovaly desítky či stovky jader. První vlaštovky v podobě vícejaderných procesorů slibují, že se v budoucnu začnou objevovat na uživatelských stolech počítače s desítkami či stovkami jader a vývojáři se budou snažit tyto procesory pochopitelně využít co nejlépe.
Asi každý, kdo někdy donesl jednomu člověku do kanceláře nový počítač, musel zaznamenat, jak se najednou všem ostatním okolo skokově zpomalily počítače. Lidé mají na stolech procesory, které devadesát procent doby zahálejí, přitom jejich uživatelé skřípou zubama a skuhrají, jak ten excel zase dneska dlouho startuje. Mají pravdu - pusťte si na nejrychlejším počítači ve svém okolí třeba office (koffice, openoffice, msoffice - dle vlastního výběru a možností) a sledujte, jak pomalu a jedna za druhou se vykreslují ikonky, čudlíky - celé pracovní prostředí. Rychlejší procesor na tom mnoho nezmění, protože si svým prstíkem ukazuje na instrukci, kterou právě zpracovává, a ani dvakrát rychleji není dostatečně rychle.
Procesory většinu doby zahálejí - lidé výkon nepotřebují. Co potřebují, je rychlá odezva.
Programovací techniky jsou pro paralelní programování připravené. Na uživatelském rozhraní složitejšího programu je vidět, jak se vykreslují komponenty jedna za druhou. Přitom jsou jednotlivé komponenty v kódu solidně oddělené a událostní programování přímo vybízí k jejich paralelnímu zpracování. Brání dnes něco tomu, aby každá vybraná metoda běžela na vlastním procesoru? Dovedu si představit, že v programu rozešlu stovce komponent událost expose a stovka komponet (technicky stovka oddělených vláken) se na stovce procesorů zároveň překreslí. Uživatel může mít procesor se sériovým výkonem prvního pentia (více výkonu není potřeba) a navzdory tomu nebude muset čekat na aplikace půl dne. Stačí se jen vzdát myšlenky, že nejvýkonnějších vícejaderných procesorů je škoda na tak podřadnou úlohu, jako je kreslení blbinek na obrazovku.
Je moje představa správná? Může vést rozvoj vícejádrových procesorů k tomuto způsobu programování? Jakým způsobem by se musely změnit dnešní zaběhnuté programovací techniky, aby programy dokázaly využít stovky procesorů zároveň? Musí být paralelní programování výsadou distribuovaných síťových výpočtů a specializovaných strojů, které stejně nic užitečného nedělají (nepočítám-li simulace atomových výbuchů, hledání mimozemšťanů a léků na X chorob)?
Diskutujte. Zajímá mě váš názor.
Tiskni
Sdílej:
V Quantianu je openMossix, clusterKnoppix atd., ale zatim se mi je síťově nepodařilo zprovoznit (a tolik jsem si s tim nehrál). Prostě jsem dva procesory v openMossixView neviděl. Časem se k tomu snad dostanu.
Mozna budu placat blbosti, ale myslim, ze tohle OpenMosix prave bohuzel nepodporuje. OpenMosix se i musi kompilovat bez podpory SMP v jadre.
Pokud to bylo ale mysleno jako ze se pocitace njepropojily pres sit, tak se afaik v openmosixview nezobrazuji procesory ale pocitace. Navic se musi v takovem klikatku propojit 'linkami' aby o sobe vedeli.
Procesory většinu doby zahálejí - lidé výkon nepotřebují. Co potřebují, je rychlá odezva.Ale rychlejší odezvu při startu office nezískáš přidáním dalšího procesoru, který se bude taky většinu času nudit. Ale právě rychlejším diskem/pamětí. Ad: paralelní zpracování ... nic není tak hezké jak to vypadá. Pro paralelní zpracování se hodí jen některé úlohy. Typickým příkladem je zpracování obrazu, vědecké výpočty. U spousty úloh začne být synchronizační režie tak vysoká, že překryje veškerý zisk z vlastního paralelismu. A to vůbec nemluvím o tom, že paralelní programy bývají náročnější na kódování a vůbec se hůř ladí.
Pro mě bylo obrovskou zkušeností setkání s realtimovými a simulačními jazyky před cca 20 lety. Studoval jsem technickou kybernetiku - v zásadě teorii řízení systémů a tam jsem se seznámil s jazyky, které dodnes považuji za poklad, mnohá jména už jsem zapomněl. Paralelní a pseudoparalelní programování se tam už tehdy řešilo na sto a jeden způsob a seznamoval jsem se s nejrůznějšími způsoby, jak je zabudovat do jazyků, aby to bylo pro programátora co nejjednodušší.INMOS Transputer? Minimalisticky CPU kontext? Hardwarový message passing? Bezelo to na par megahertzech, ale task switch byl hluboko pod mikrosekundu.. Occam? Otazniky a vykricniky? :) http://en.wikipedia.org/wiki/Transputer
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.