Na čem pracují vývojáři webového prohlížeče Ladybird (GitHub)? Byl publikován přehled vývoje za duben (YouTube).
Provozovatel čínské sociální sítě TikTok dostal v Evropské unii pokutu 530 milionů eur (13,2 miliardy Kč) za nedostatky při ochraně osobních údajů. Ve svém oznámení to dnes uvedla irská Komise pro ochranu údajů (DPC), která jedná jménem EU. Zároveň TikToku nařídila, že pokud správu dat neuvede do šesti měsíců do souladu s požadavky, musí přestat posílat data o unijních uživatelích do Číny. TikTok uvedl, že se proti rozhodnutí odvolá.
Společnost JetBrains uvolnila Mellum, tj. svůj velký jazykový model (LLM) pro vývojáře, jako open source. Mellum podporuje programovací jazyky Java, Kotlin, Python, Go, PHP, C, C++, C#, JavaScript, TypeScript, CSS, HTML, Rust a Ruby.
Vývojáři Kali Linuxu upozorňují na nový klíč pro podepisování balíčků. K původnímu klíči ztratili přístup.
V březnu loňského roku přestal být Redis svobodný. Společnost Redis Labs jej přelicencovala z licence BSD na nesvobodné licence Redis Source Available License (RSALv2) a Server Side Public License (SSPLv1). Hned o pár dní později vznikly svobodné forky Redisu s názvy Valkey a Redict. Dnes bylo oznámeno, že Redis je opět svobodný. S nejnovější verzí 8 je k dispozici také pod licencí AGPLv3.
Oficiální ceny Raspberry Pi Compute Modulů 4 klesly o 5 dolarů (4 GB varianty), respektive o 10 dolarů (8 GB varianty).
Byla vydána beta verze openSUSE Leap 16. Ve výchozím nastavení s novým instalátorem Agama.
Devadesátková hra Brány Skeldalu prošla portací a je dostupná na platformě Steam. Vyšel i parádní blog autora o portaci na moderní systémy a platformy včetně Linuxu.
Lidi dělají divné věci. Například spouští Linux v Excelu. Využít je emulátor RISC-V mini-rv32ima sestavený jako knihovna DLL, která je volaná z makra VBA (Visual Basic for Applications).
Revolut nabídne neomezený mobilní tarif za 12,50 eur (312 Kč). Aktuálně startuje ve Velké Británii a Německu.
Malá nenápadná fotografie slajdu z blíže nespecifikované prezentace odhaluje plány Nvidie až do roku 2017. Materiál údajně prezentoval osobně Prof. Bill Dally, vedoucí vývoje v Nvidii a také významný vědec Stanfordské univerzity.
Nejrpve mi dovolte pár slov úvodem. Na již zmíněné GPU Technology Conference se představili CEO a CTO z mnoha významných firem. Sluší se zmínit aspoň společný výstup Jeffrey Vettera (vědec z Národních laboratoří v Oak Ridge, provozovatele aktuálně druhého nejrychlejšího superpočítače planety Cray XT5 Jaguar), Steva Scotta (CTO společnosti Cray) a Shawna Edwardse (CTO finanční korporace Bloomberg). Právě Steve Scott byl před pár lety v týmu zvaném DARPA Exascale Study, který zkoumal směr vývoje superpočítačů na cestě ke stroji s výkonem v řádu EFLOPS (1 EFLOPS = 1 milión TFLOPS, tedy přibližně výkon miliónu grafik generace HD 4800, resp. GTX 285, kde tato hodnota představuje ale pouze single-precision). Tým složený z expertů zjistil, že při současném směru vývoje dojdeme k Exascale počítači o spotřebě kolem 100 MW, což představuje roční výdaje za elektřinu v řádu kolem 100 miliónů dolarů. A to je pochopitelně nepřijatelné, nemluvě o absenci dostatečných silových vedení a rozlehlých prostor pro takový superpočítač, i s ohledem na chlazení.
Bill Dally nabízí výhled na možné řešení. To spočívá pochopitelně ve zlepšení poměru výkon/spotřeba. Berte následující informace s rezervou, jsou založeny na teoretickém propočtu na bázi Moorova zákona a nakonec vše může být za 7 let jinak.
Nvidia plánuje superpočítač postavený jako jakousi stavebnici (nic překvapivého, tak je to odjakživa). Základem bude 300W krabice (box, nebo chcete-li „výpočetní uzel“) obsahující 2400 výkonných jader (celkem 7200 FPU jednotek) a 16 CPU (patrně míněno 16jádrový procesor) na jednom čipu. Tato krabice by měla nabídnout výkon 40, resp. 13 TFLOPS v single, resp. double-precision a on-chip paměti plus rychlou komunikaci a synchronizaci. K paměti a komunikaci připomenu, že je to klíčová věc, o které hovořil jak Steve Scott, tak Jeffrey Vettera. Jakmile nemáte cache co nejblíže výpočetním jádrům, musíte s daty/pro data o úroveň výše a tím jste na vyšších latencích, další jednotky v procesoru čekají, zacpává se sběrnice tím, co by se dalo vyřešit „lokálně“ a ve výsledku ztrácíte i cenné milisekundy, které při počtu miliónů jader znamenají velké ztráty výpočetního výkonu zbytečnou komunikací mezi vzdálenými částmi GPU, nebo nedejbože dokonce karet, pokud by se muselo až do lokální paměti (navíc vás to vše stojí hodně ne zrovna levné elektřiny). Právě proto bude mít Fermi tak velkou L1 a L2 cache, lokální registry a řadu sběrnic, aby se tomu vyhnula.
Součástí boxu bude 128 GB lokální DRAM s propustností 2 TB/s a také 512GB datové úložiště tvořené pamětí phase-change (novinka, velice rychlá s prakticky neomezenou životností) nebo flash.
Tyto 300W boxy, řekněme v 1U či 2U rackovém provedení budou skládány na sebe/k sobě do celkového počtu 384 kusů, přičemž tento celek již bude mít výpočetní výkon 15,7 PFLOPS v single-precision a celkově 50 TB lokální paměti DRAM. Pospojování bude realizováno sítí s propustností 1 TB/s pro každý box. Celý takovýto „rack“ si již pochopitelně řekne o 100kW přísun energie.
Racků bude v modelové hale naskládáno celkem 128, takže se spotřebou dostaneme na zhruba 10 MW, ale výkonem na „vědeckofantastických“ 2 EFLOPS, kde budou mít výpočetní jádra k dispozici celkem 6,4 PB DRAM. Datové úložiště nejvyšší úrovně obstará diskové pole a propojení opět síť, a to z optických vláken. Připomenu, že DARPA hovořila o 1 EFLOPS při 100 MW, Nvidia očekává 2 EFLOP při 10 MW, což je 20× lepší.
Přesně jak Steve Scott řekl, bude celý systém naplněn sběrnicemi a paměťmi různých úrovní, které všechny do jednoho budou disponovat ECC. Prvotní implementaci přinese již Fermi a jakkoli to pro běžné desktopy nebo systémy s pár desítkami karet Tesla není nutné, pokud chcete spřáhnout zhruba sto tisíc a čtvrt miliónu karet Tesla (můj hrubý odhad tohoto 2EFLOPS systému) spolu s 50 tisíci 16jádrovými procesory, bez hodně dlouhých vedení a korekce chyb na sběrnicích a pamětech či párování výpočetních jader pro samokontrolu integrity dat se prostě neobejdete.
Jistě již chápete, proč jsem obě tato témata spojil do jednoho článku. Na jedné straně tu máme Jen-Hsun Huanga hovořícího o zaměření Nvidie na software a související technologie a výpočty, na straně druhé jeho vrchního vědátora Billa Dallyho s pohledem pod pokličku, kde se vaří polévka pro rok 2017. Třetím dílem skládačky je architektonický článek o Nvidia Fermi.
Nvidia ani ATI nevydělávají obrovské peníze na Radeonech a GeForce. Tyto karty drží cenově velice nízko, protože probíhá konkurenční boj (zejména si obě firmy musí dát pozor, poté co dostaly před časem od příslušných regulačních orgánů za uši za někdejší cenový kartel). Když vyrobíte GPU a dáte ho na GeForce, prodáte kartu za 10 tisíc. Když ho dáte na Teslu nebo Quadro, prodáte kartu za 40 až 70 tisíc. Sice v tom máte i nějakou podporu pro uživatele, vaše náklady jsou pak průběžně o něco vyšší, ale celkově jste výrazně ziskovější.
Nevidím jedinný důvod, proč by měly být kroky posledních tří let (od představení G80 a CUDA) a zejména posledních měsíců v Nvidii nějak špatné. Firma se dle mého vydává optimálním směrem. V grafických kartách pro běžné uživatele již toho není moc co nabídnout (prosím nechytat za slovo). DirectX pipeline se nijak výrazně nemění a dva nové typy shaderů v DX11 (Hull, Domain) toho také moc nemění a výkon GPU je již dnes tak vysoký, že pro běžné použití (1920×1200) stačí naprosto s přehledem. Něco jiného je fyzika, umělá inteligence, raytracing, encoding videa, filtrace ve Photoshopu atd. Všechny tyto věci mohou být výpočetně nesmírně náročné a stále z nich bude těžit i běžný uživatel a ten tak ocení optimalizace směrem ke GPGPU, které Fermi přinese.
Osobně věřím, že Fermi bude pro Nvidii něčím takovým jako G80 (GeForce 8800). Bude to první stavební kámen odlišné architektury, na kterém bude firma po příští roky stavět svá GPU. Ano, bude přidávat shadery, bude zmenšovat výrobní proces, ale základy architektury jsou dle mého (laického soudu) u Fermi dostatečně nadčasové pro několik příštích let. Oponenti rádi poukazují na zbytečnost počítání fyziky na GPU, jen velmi omezenou užitečnost double-precision v dnešní době atd. Zde si ale dovolím oponovat. Ano, současnou herní fyziku lze bezpochyby počítat na CPU, zde nebudu Nvidii nijak hájit. Ale současná herní fyzika, jakkoli již před 5 lety v Half-Life 2 vypadal Havok nádherně, je pouze prvním krůčkem do světa dokonalé fyzikální simulace.
I to, co programátoři Nvidie sedící dlouhé měsíce v herním studiu předvedli v Batman Arkham Asylum, berte pouze jako první ochutnávku, ukázku potenciálu. Proč si nedat větší cíl a nesimulovat nejen objekty v blízkosti, ale i objekty velmi vzdálené (spolu s renderingem obrovských prostor, i za přispění hardwarové tesselace prosazované pro změnu firmou ATI) a oněch „rigid bodies“ nemít ve scéně několik set tisíc? Proč si nevzít za cíl supervěrnou simulaci vodní masy, písečných bouří, tropické vegetace? To, co předvedl Crysis, je z tohoto pohledu stále ubohost. To, co předvede Crytek v nové generaci svého herního enginu, bude stále nedokonalé prostě proto, že zatím nemáme dostatek výkonu (ať již na CPU, nebo GPU) a dostatečně věrné matematické modely, které by mohly být počítány. Velký svět reálných simulací je teprve před námi a i když bude Nvidia tlačit svá budoucí GPU primárně do superpočítačů, budeme z toho těžit i my, řadoví hráči.
Nezapomínejme ani na to, že aktuálně nás omezuje z hlediska herního prožitku nízká 60Hz obnovovací frekvence typických LCD monitorů. Vlaštovka v podobě 120Hz LCD (primárně určených pro Nvidia 3D Vision) je prima, ale výhledově svět počítá i s 240Hz LCD. A já nebudu sedět při zemi, na 240Hz LCD chci mít zapnutý V-sync a v počítači kartu, která v daném rozlišení zvládne oněch 240 snímků za vteřinu počítat za všech okolností plynule.
A nejsou to jen hry. Je zde třeba uživatelská komprese videa. Spoustu věcí sice nelze efektivně paralelizovat (speciálně v x264, jak o tom hovoří tvůrci tohoto formátu), ale spoustu ano a zpracování videa není jen o H.264, je též o filtrech, přechodech a spoustě dalších věcí. Momentálně ještě většina z nás funguje s rozlišením 720×576, někteří s 1280×720, či dokonce 1920×1080, ale filmy v Industrial Light & Magic se dnes většinou renderují ve „4k“ (tedy 4096×3072, resp. spíše 4096×2048) a ani to nebude konečná. 1080p kamerám také za „pár let odzvoní“ a přijde něco lepšího. Jednoho krásného dne se také dočkáme plnohodnotného 3D obrazu, který si vyžádá opět více výpočetního výkonu a dotkne se i simulací fyziky. Nevěříte? Podívejte se na výstup Christophera Horvatha na GTC, jasně tam hovořil o tom, že pro dostatečně věrný rendering filmu sice používají 2k, někdy 4k rozlišení, ale v Z ose jim stačí jen 128 úrovní. V plném 3D zobrazení už tomu tak nebude.
Ale to jsem se asi již nechal unést a zaběhl příliš do budoucnosti. Nvidia jasně dala najevo, jak to vidí ona. Ani na okamžik nepochybuji, že se ATI nehodlá nechat zahanbit, a prozatím bych si nedovolil odepsat ani Intel Larrabee, jakkoli je po něm již delší dobu ticho po pěšině (minimálně od doby, kdy „byl odejít“ z Intelu Pat Gelsinger). Příští rok bude zajímavé sledovat, jak se Nvidii podaří, nebo nepodaří s Fermi prosadit v segmentu HPC a pracovních stanic, kde má s Quadro velmi dobrý základ. Totéž platí pro karty GeForce.
Nástroje: Tisk bez diskuse
Tiskni
Sdílej:
if
a jakýkoliv cyklus. Tyto instrukce dělají paseku v cache a předpočítávání.
GPU nic takového řešit nemusí (nemusela) bere data tak jak jdou a jejich "programy" jsou tak malé, že se vlezou do interních cache jednotlivých stream procesorů.
Tak by mě zajímalo, zda už je toto vyřešeno a pokud ano, jak s touto megakoulí na noze mohou být 1000x výkonnější.
No, Nvidia je softwarová společnost a to bude pohánět náš růst.A toho se vždycky zhrozím. Když se HW firma sere do softwaru.
z hlediska herního prožitku nízká 60Hz obnovovací frekvence typických LCD monitorů.A to jako konkrétně v čem? Obnovovací frekvence lidského oka je prej právě kolem 60Hz, takže zase vygenerovat polovinu dat co je kvůli limitům lidského vnímání zase úplně k ničemu?
Momentálně ještě většina z nás funguje s rozlišením 720×576, někteří s 1280×720, či dokonce 1920×1080, ale filmy v Industrial Light & Magic se dnes většinou renderují ve „4k“ (tedy 4096×3072, resp. spíše 4096×2048) a ani to nebude konečná. 1080p kamerám také za „pár let odzvoní“ a přijde něco lepšího.Další mezník by prej mělo být Super Hi-Vision. 33MPix. Jinak zatím si myslím, že nám právě něco v oblasti frekvencí a rozlišení uniká(něco jako maskovací efekt v oblasti zvuku), protože si myslím, že už i u 1080p dochází k nějaké ztrátě dat. Takže to
lepšíhobych nechal ležet. V mém případě HD určitě neznamená automaticky lepší.