Red Hat řeší bezpečnostní incident, při kterém došlo k neoprávněnému přístupu do GitLab instance používané svým konzultačním týmem.
Immich byl vydán v první stabilní verzi 2.0.0 (YouTube). Jedná se o alternativu k výchozím aplikacím od Googlu a Applu pro správu fotografií a videí umožňující vlastní hosting serveru Immich. K vyzkoušení je demo. Immich je součástí balíčků open source aplikací FUTO. Zdrojové kódy jsou k dispozici na GitHubu pod licencí AGPL-3.0.
Český telekomunikační úřad vydal zprávy o vývoji cen a trhu elektronických komunikací se zaměřením na rok 2024. Jaká jsou hlavní zjištění? V roce 2024 bylo v ČR v rámci služeb přístupu k internetu v pevném místě přeneseno v průměru téměř 366 GB dat na jednu aktivní přípojku měsíčně – celkově jich tak uživateli bylo přeneseno přes 18 EB (Exabyte). Nejvyužívanějším způsobem přístupu k internetu v pevném místě zůstal v roce 2024 bezdrátový
… více »Raspberry Pi OS, oficiální operační systém pro Raspberry Pi, byl vydán v nové verzi 2025-10-01. Přehled novinek v příspěvku na blogu Raspberry Pi a poznámkách k vydání. Jedná o první verzi postavenou na Debianu 13 Trixie.
Byla vydána nová verze 4.6 svobodného notačního programu MuseScore Studio (Wikipedie). Představení novinek v oznámení v diskusním fóru a také na YouTube.
Společnost DuckDuckGo stojící za stejnojmenným vyhledávačem věnovala 1,1 milionu dolarů (stejně jako loni) na podporu digitálních práv, online soukromí a lepšího internetového ekosystému. Rozdělila je mezi 29 organizací a projektů. Za 15 let rozdala 8 050 000 dolarů.
Svobodný multiplatformní herní engine Bevy napsaný v Rustu byl vydán ve verzi 0.17. Díky 278 přispěvatelům.
Bylo vydáno openSUSE Leap 16 (cs). Ve výchozím nastavení přichází s vypnutou 32bitovou (ia32) podporou. Uživatelům však poskytuje možnost ji ručně povolit a užívat si tak hraní her ve Steamu, který stále závisí na 32bitových knihovnách. Změnily se požadavky na hardware. Leap 16 nyní vyžaduje jako minimální úroveň architektury procesoru x86-64-v2, což obecně znamená procesory zakoupené v roce 2008 nebo později. Uživatelé se starším hardwarem mohou migrovat na Slowroll nebo Tumbleweed.
Ministerstvo průmyslu a obchodu (MPO) ve spolupráci s Národní rozvojovou investiční (NRI) připravuje nový investiční nástroj zaměřený na podporu špičkových technologií – DeepTech fond. Jeho cílem je posílit inovační ekosystém české ekonomiky, rozvíjet projekty s vysokou přidanou hodnotou, podpořit vznik nových technologických lídrů a postupně zařadit Českou republiku mezi země s nejvyspělejší technologickou základnou.
… více »Radicle byl vydán ve verzi 1.5.0 s kódovým jménem Hibiscus. Jedná se o distribuovanou alternativu k softwarům pro spolupráci jako např. GitLab.
Zajímá vás, co si autor TeXu nebo TAOCP myslí o úspěchu open source, budoucnosti paralelního programování a jednotkovém testování, nebo jaký operační systém a jaké nástroje používá při psaní svých textů a programů? Přečtěte si rozhovor na InformIT.
Tiskni
Sdílej:
Náčelník: Ten Varel je jak sedmiletý dítě! (k učiteli) Václave, prosím tě, ty jako pomocnej učitel mu to snad budeš umět vysvětlit!
Učitel.: Náčelníku, já myslím, že tady na severu se nemusíme oslovovat plnými tituly. Stačí, když mi budeš říkat učitel.
Náčelník: Dobře. Tak to Varlovi vysvětli.
Zaujaly mě ty vícejaderné procesory. Je to prostě jen z nouze ctnost - neschopnost šponovat frekvenci.To mě taky zaujalo. Netvrdím, že bych uživil nějakých osm procesorů, ale dvě až čtyři jádra by se mi šikly. Používám sice většinou jen jednu aplikaci, ale často se stává, že na pozadí běží nějaký jiný proces a zbytečně zpomaluje. A řekl bych, že i kdyby se nemělo začít programovat vyloženě paralelně, většina aplikací by si časem cestu na dvě tři jádra našla. (Bez mučení se ovšem přiznávám, že tomuhle téměř nerozumím.)
přemýšlení je jen jeden běžící procesUpřesnil bych to na maximálně jeden běžící proces. Takhle by to mohlo vypadat, že jde o právě jeden proces, a to byste některým moc fandil
Ale ona ta práce v mnoha případech rychlejší je. A v mnoha dalších by být mohla, ale aplikace bohužel není napsaná tak, aby toho využila. Typickým příkladem je POV-Ray - raytracing se škáluje prakticky lineárně, ale přesto je venku teprve beta od verze 3.7, která umí víc procesorů využít. Z dalších, na které jsem narazil, namátkou třeba John-the-Ripper nebo applydeltaiso.
Takže považuji za naprosto přirozené, že v okamžiku, kdy není únosné dále zvyšovat frekvenci dřívějším tempem, se výrobci procesorů zaměří na jiné způsoby zvyšování výkonu. Stejně jako v okamžiku, kdy přestalo být únosné, aby dále rostla stejným tempem frekvence systémové sběrnice, začaly procesory běhat interně na vyšší frekvenci, než na jaké komunikovaly s okolím - a tehdy (486DX2) se na tento trik veřejnost také dívala s nedůvěrou.
POV-Ray rozhodně není typický příklad, je to naopak velmi speciální úloha, co lze paralelizovat. A kdyby takové byly všechny, tak je no problém.
POV-Ray jsem uváděl hlavně jako příklad programu, který je pro paralelizaci v podstatě ideálním kandidátem, a přesto to ještě nedávno neuměl (budeme-li brát oficiální release, tak neumí dodnes). Pak je tu ještě řada takových, které by to potřebovaly "jako prase drbání", ale neumějí a ani se s tím nepočítá.
A jasně, že přidávání jader je v této situaci "přirozené", jenže to má tu nevýhodu, že to neumí zrychlit všechny aplikace, ale jen některé.
To je samozřejmě pravda. Ale budeme-li se bavit o CPU-intensive aplikacích, tam je IMHO procento těch, které by dokázaly z vícejádrových procesorů těžit, nezanedbatelné. U běžných desktopových aplikací to tak sice většinou moc není, ale tam většinou problém stejně není v rychlosti procesoru, roli hraje spíš disk nebo sběrnice (s PCI-E už moc ne). Takže tvrdím, že vícejádrové procesory přínosem jsou, zvlášť když můžete mít čtyřjádro za 2274 Kč nebo - bojíte-li se té medializované chyby - tříjádro za 2499 Kč a ceny levnějších dvoujádrových modelů jsou prakticky na úrovni jednojádrových.
POV-Ray rozhodně není typický příklad, je to naopak velmi speciální úloha, co lze paralelizovat. A kdyby takové byly všechny, tak je no problém.No IMHO se ulohy daji rozdelit do dvou kategorii - V prvni kategorii jsou ulohy, ktere je mozne implementovat tak, aby byly dost rychle na prakticky vsech soucasny PC. V druhe kategorii jsou ulohy, ktere vyzaduji obrovsky vypocetni vykon a jsou dobre paralelizovatelne. Osobne me nenapada nic, co by bylo znacne vypocetne narocne a spatne se to paralelizovalo.
From the opposite point of view, I do grant that web browsing probably will get better with multicores. I’ve been talking about my technical work, however, not recreation.Jinak, moderní překladače paralelizují překlad třeba Cčka v jednom souboru? (já opravdu nevím, já se ptám). Protože jestli to je na úrovni make -j, tak při Knuthově stylu to zřejmě moc nepomůže.
gcc
make -j
– vzhledem k tomu, že Knuth pravděpodobně píše program pro větších částech, mělo by mu make -j
pomoci, ne? Tedy pokud vůbec používá make
. Každopádně pokud je Knuth jediný, kdo vícejádrové procesory nevyužije, je asi docela dobré pro ostatní ty vícejádrové procesory vyrábět.