Vývoj linuxové distribuce Clear Linux (Wikipedie) vyvíjené společností Intel a optimalizováné pro jejich procesory byl oficiálně ukončen.
Byl publikován aktuální přehled vývoje renderovacího jádra webového prohlížeče Servo (Wikipedie).
V programovacím jazyce Go naprogramovaná webová aplikace pro spolupráci na zdrojových kódech pomocí gitu Forgejo byla vydána ve verzi 12.0 (Mastodon). Forgejo je fork Gitei.
Nová čísla časopisů od nakladatelství Raspberry Pi zdarma ke čtení: Raspberry Pi Official Magazine 155 (pdf) a Hello World 27 (pdf).
Hyprland, tj. kompozitor pro Wayland zaměřený na dláždění okny a zároveň grafické efekty, byl vydán ve verzi 0.50.0. Podrobný přehled novinek na GitHubu.
Patrick Volkerding oznámil před dvaatřiceti lety vydání Slackware Linuxu 1.00. Slackware Linux byl tenkrát k dispozici na 3,5 palcových disketách. Základní systém byl na 13 disketách. Kdo chtěl grafiku, potřeboval dalších 11 disket. Slackware Linux 1.00 byl postaven na Linuxu .99pl11 Alpha, libc 4.4.1, g++ 2.4.5 a XFree86 1.3.
Ministerstvo pro místní rozvoj (MMR) jako první orgán státní správy v Česku spustilo takzvaný „bug bounty“ program pro odhalování bezpečnostních rizik a zranitelných míst ve svých informačních systémech. Za nalezení kritické zranitelnosti nabízí veřejnosti odměnu 1000 eur, v případě vysoké závažnosti je to 500 eur. Program se inspiruje přístupy běžnými v komerčním sektoru nebo ve veřejné sféře v zahraničí.
Vláda dne 16. července 2025 schválila návrh nového jednotného vizuálního stylu státní správy. Vytvořilo jej na základě veřejné soutěže studio Najbrt. Náklady na přípravu návrhu a metodiky činily tři miliony korun. Modernizovaný dvouocasý lev vychází z malého státního znaku. Vizuální styl doprovází originální písmo Czechia Sans.
Vyhledávač DuckDuckGo je podle webu DownDetector od 2:15 SELČ nedostupný. Opět fungovat začal na několik minut zhruba v 15:15. Další služby nesouvisející přímo s vyhledáváním, jako mapy a AI asistent jsou dostupné. Pro některé dotazy během výpadku stále funguje zobrazování například textu z Wikipedie.
Více než 600 aplikací postavených na PHP frameworku Laravel je zranitelných vůči vzdálenému spuštění libovolného kódu. Útočníci mohou zneužít veřejně uniklé konfigurační klíče APP_KEY (např. z GitHubu). Z více než 260 000 APP_KEY získaných z GitHubu bylo ověřeno, že přes 600 aplikací je zranitelných. Zhruba 63 % úniků pochází z .env souborů, které často obsahují i další citlivé údaje (např. přístupové údaje k databázím nebo cloudovým službám).
Zajímá vás, co si autor TeXu nebo TAOCP myslí o úspěchu open source, budoucnosti paralelního programování a jednotkovém testování, nebo jaký operační systém a jaké nástroje používá při psaní svých textů a programů? Přečtěte si rozhovor na InformIT.
Tiskni
Sdílej:
Náčelník: Ten Varel je jak sedmiletý dítě! (k učiteli) Václave, prosím tě, ty jako pomocnej učitel mu to snad budeš umět vysvětlit!
Učitel.: Náčelníku, já myslím, že tady na severu se nemusíme oslovovat plnými tituly. Stačí, když mi budeš říkat učitel.
Náčelník: Dobře. Tak to Varlovi vysvětli.
Zaujaly mě ty vícejaderné procesory. Je to prostě jen z nouze ctnost - neschopnost šponovat frekvenci.To mě taky zaujalo. Netvrdím, že bych uživil nějakých osm procesorů, ale dvě až čtyři jádra by se mi šikly. Používám sice většinou jen jednu aplikaci, ale často se stává, že na pozadí běží nějaký jiný proces a zbytečně zpomaluje. A řekl bych, že i kdyby se nemělo začít programovat vyloženě paralelně, většina aplikací by si časem cestu na dvě tři jádra našla. (Bez mučení se ovšem přiznávám, že tomuhle téměř nerozumím.)
přemýšlení je jen jeden běžící procesUpřesnil bych to na maximálně jeden běžící proces. Takhle by to mohlo vypadat, že jde o právě jeden proces, a to byste některým moc fandil
Ale ona ta práce v mnoha případech rychlejší je. A v mnoha dalších by být mohla, ale aplikace bohužel není napsaná tak, aby toho využila. Typickým příkladem je POV-Ray - raytracing se škáluje prakticky lineárně, ale přesto je venku teprve beta od verze 3.7, která umí víc procesorů využít. Z dalších, na které jsem narazil, namátkou třeba John-the-Ripper nebo applydeltaiso.
Takže považuji za naprosto přirozené, že v okamžiku, kdy není únosné dále zvyšovat frekvenci dřívějším tempem, se výrobci procesorů zaměří na jiné způsoby zvyšování výkonu. Stejně jako v okamžiku, kdy přestalo být únosné, aby dále rostla stejným tempem frekvence systémové sběrnice, začaly procesory běhat interně na vyšší frekvenci, než na jaké komunikovaly s okolím - a tehdy (486DX2) se na tento trik veřejnost také dívala s nedůvěrou.
POV-Ray rozhodně není typický příklad, je to naopak velmi speciální úloha, co lze paralelizovat. A kdyby takové byly všechny, tak je no problém.
POV-Ray jsem uváděl hlavně jako příklad programu, který je pro paralelizaci v podstatě ideálním kandidátem, a přesto to ještě nedávno neuměl (budeme-li brát oficiální release, tak neumí dodnes). Pak je tu ještě řada takových, které by to potřebovaly "jako prase drbání", ale neumějí a ani se s tím nepočítá.
A jasně, že přidávání jader je v této situaci "přirozené", jenže to má tu nevýhodu, že to neumí zrychlit všechny aplikace, ale jen některé.
To je samozřejmě pravda. Ale budeme-li se bavit o CPU-intensive aplikacích, tam je IMHO procento těch, které by dokázaly z vícejádrových procesorů těžit, nezanedbatelné. U běžných desktopových aplikací to tak sice většinou moc není, ale tam většinou problém stejně není v rychlosti procesoru, roli hraje spíš disk nebo sběrnice (s PCI-E už moc ne). Takže tvrdím, že vícejádrové procesory přínosem jsou, zvlášť když můžete mít čtyřjádro za 2274 Kč nebo - bojíte-li se té medializované chyby - tříjádro za 2499 Kč a ceny levnějších dvoujádrových modelů jsou prakticky na úrovni jednojádrových.
POV-Ray rozhodně není typický příklad, je to naopak velmi speciální úloha, co lze paralelizovat. A kdyby takové byly všechny, tak je no problém.No IMHO se ulohy daji rozdelit do dvou kategorii - V prvni kategorii jsou ulohy, ktere je mozne implementovat tak, aby byly dost rychle na prakticky vsech soucasny PC. V druhe kategorii jsou ulohy, ktere vyzaduji obrovsky vypocetni vykon a jsou dobre paralelizovatelne. Osobne me nenapada nic, co by bylo znacne vypocetne narocne a spatne se to paralelizovalo.
From the opposite point of view, I do grant that web browsing probably will get better with multicores. I’ve been talking about my technical work, however, not recreation.Jinak, moderní překladače paralelizují překlad třeba Cčka v jednom souboru? (já opravdu nevím, já se ptám). Protože jestli to je na úrovni make -j, tak při Knuthově stylu to zřejmě moc nepomůže.
gcc
make -j
– vzhledem k tomu, že Knuth pravděpodobně píše program pro větších částech, mělo by mu make -j
pomoci, ne? Tedy pokud vůbec používá make
. Každopádně pokud je Knuth jediný, kdo vícejádrové procesory nevyužije, je asi docela dobré pro ostatní ty vícejádrové procesory vyrábět.