Portál AbcLinuxu, 10. května 2024 23:26

NVIDIA o budoucnosti i sama o sobě

5. 11. 2009 | David Ježek
Články - NVIDIA o budoucnosti i sama o sobě  

Dnes se opět vrátíme k nedávné GPU Technology Conference 2009 pořádané společností Nvidia, abychom se podívali na další informace, které z ní vzešly, odpověděli si ústy ředitele firmy (Jen-Hsun Huang) na řadu zajímavých otázek a současně si s šéfem vývoje v Nvidii (Bill Dally) popovídali o blízké i vzdálenější budoucnosti.

Obsah

GPU Technology Conference 2009 přinesla v Nvidii řadu změn. Firma definitivně dala všeobecně najevo, že se hodlá v budoucnu zaměřit více na využití GPU k výpočtům, což ostatně již tři roky vývojem rozhraní CUDA a získáním Prof. Billa Dallyho (ještě o něm dnes bude řeč) pro pozici šéfa vývoje naznačovala dost silně.

Jen-Hsun Huang obecně o firmě

link

Na konferenci byla představena architektura Fermi a své přednášky zde měla řada vysoce postavených expertů z mnoha oborů, od nichž bylo nejčastěji slyšet volání po vyšším výkonu, speciálně v double-precision, a nadále pokračujících inovacích. Nvidia tato slova hodlá vyslyšet, věci, které sdělil její ředitel a spoluzakladatel Jen-Hsun Huang v rozhovoru, jsou i částečně revoluční.

2009 11 nvidia jen hsun huang


Co bude pohánět růst Nvidie v budoucnu? Hardware, software, GeForce, Tegra, Tesla, …?

Jen-Hsun: No, Nvidia je softwarová společnost a to bude pohánět náš růst. Nepíšeme jen aplikace, ale vytváříme všechny klíčové technologie, vytváříme více klíčových technologií pro vizuální počítání než jakákoli jiná společnost na světě. Dáváme je k dispozici, jsme jako Google; ten dělá vyhledávání, ale dává jej volně k dispozici, prodávají reklamu. Jaký jste a jak vyděláváte peníze, nemusí být to samé. Nvidia je komplexní společnost integrující kompletní technologické řešení pro vizuální a paralelní počítání.


Jak tedy vyděláváte peníze?

Jen-Hsun: Prodejem hardwaru. Jistě víte, že Apple je softwarová společnost, která si ale vydělává prodejem hardware. V budoucnosti bude software nejdůležitější věcí, čipy může dělat každý, je to sice hodně drahé, ale může to dělat kdokoli. Těžká část je inspirovat lidi k tvorbě úžasných věcí. My máme software, systémy, architekturu, nástroje, kompilátory a jazyky, cokoli si to žádá.


Jak chráníte svůj tržní podíl?

Jen-Hsun: Způsob, jak si chráníme tržní podíl, nebo se také dá říct způsob, jak jsme se stali výjimečnou firmou, je nabídnout více. Takže když máte Tegru, váš výkon je vyšší bez ohledu na to, že je to týž čip vyrobený v TSMC; náš čip je lepší, protože má lepší architekturu.

Jiné společnosti jako TI, Qualcomm, Freescale si licencují části technologie od ARMu a dalších lidí a protože my máme schopnost vyvíjet naše vlastní řešení, je více integrované a části pracují lépe pospolu.


Jak plánujete být nadále nejlepší? Jak toho chcete dosahovat?

Jen-Hsun: Nejlepší způsob je nemít žádný záložní plán. Dám vám příklad, když jdete po visuté hrazdě, měli byste prý předstírat, že pod sebou nemáte žádnou síť. Ale když spadnete, je dobré mít síť pod sebou. My žádnou síť nemáme, mí zaměstnanci vědí že tu žádná není, není žádné bezpečí, není žádná záloha, v důsledku čehož musíme dělat dobré věci.

Nejsme vždy nejlepší, ale vždy se snažíme být úplně nejlepší, v průběhu posledních 15 let jsme takoví v průměru byli. Co je pro nás výzvou, je být více kreativní. Nejsou zde žádné záruky, a proto potřebujeme kvalitní lidi.


Je to 10 let, kdy jste uvedli značku GeForce, tehdy začaly GPU přebírat úlohu CPU v některých oblastech. Jak byste popsal výpočetní svět tehdy, dnes a jak si představujete budoucnost?

Jen-Hsun: Když jsme před 10 lety spustili značku GeForce, většina obsahu aplikací používala CPU, GPU pouze na grafickou akceleraci, takže triangle setup, triangle transform, velmi jednoduché nasvícení scény, velmi jednoduché stíny, texture mapping, multi texture. Tato specifická funkcionalita byla vložena do grafické pipeline, vůbec první popsanou byla OpenGL pipeline, pak Microsoft vytvořil DirectX pipeline, která umožnila grafickým čipům některé věci specifikovat. Grafické čipy nebyly příliš chytré, mohly dělat jen jednu věc, ale byly v tom velmi rychlé, velmi dobré, a tak začaly být populární.

Aby mohlo CPU nahradit GPU, mělo by být 1000× rychlejší, a proto grafický trh roste a rostl a rostl, i když se CPU zrychlují, je pro ně nemožné dohnat GPU. A pak vývojáři her objevili, jak skvělé je, když je grafika tak neskutečně rychlá, a tak začali tvořit ještě hezčí grafiku. Pokud se podíváte na Quake 3 a Batmana [pozn: Arkham Asylum] dnes, ani je nemůžete porovnat. Takže tvůrci obsahu se zamilovali do nekonečně rychlejšího grafického subsystému a ten je stále krásnější, zvětšuje se obsah, zvětšuje se rozlišení, lidé chtějí lepší anti aliasing, a tak rostou nároky na GPU dál a dál.

Zhruba před 7 lety jsem začal pozorovat, že bez ohledu na to, jak rychlý uděláte grafický čip, jedna věc (texture mapping) je stejná a všichni vývojáři ji mají stejnou. Když se podíváte na texturové mapy ve starých hrách, obraz vypadá velmi ploše, každá hra tak vypadala, nebyl zde žádný styl, žádné umění. Takže jsme se rozhodli udělat GPU více programovatelné, což byl úvod k programovatelným shaderům. Přidali jsme jen tuto trošku programovatelnosti a vývojáři jakoby se zbláznili, protože jejich hry začaly vypadat úplně jinak a tak se objevila programovatelnost. My jsme tedy přinesli styl a umění do herního průmyslu [pozn: zde Jen-Hsun hovořil o GeForce 3, která jako první přišla s Pixel Shadery].

Jakmile představíte uměleckou formu, chtějí po vás [vývojáři] neomezené možnosti k vyprávění příběhů. V tu chvíli nám říkali, že chtějí mít všechno programovatelné. Nechtějí stovky shaderů, chtějí mít stovky procesorů, aby mohli psát jakýkoliv program chtějí. Za 10 let bude každé CPU heterogenní, každé jedno CPU bude mít pár CPU jader a GPU jádra, o tom není pochyb. Otázkou je pouze, jestli musí být všechny na jednom čipu. Absolutně ne. Někdy je máte na jednom čipu, někdy na dvou, někdy 1 CPU a mnoho GPU, v serverech je mix jiný, závisí na potřebách, ale je to budoucnost.

Věřím, že tato architektura, kterou jsme vytvořili, vydrží nejméně 30 let. Jakmile se vývojáři obsahu začnou učit architekturu, nechtějí ji měnit, protože chtějí, aby jejich dnešní programy běhaly i v budoucnu.


Jaké jsou plány pro čipsetovou divizi?

Jen-Hsun: Naše čipsetová divize uvede některé velmi vzrušující technologie v budoucnu, příští rok bude tato divizi dospívat, ale kvůli akcím Intelu na tomto trhu je pro nás nemožné postavit čipsety s DMI pro novou generaci CPU, takže tento trh opustíme [pozn: Intel neudělil Nvidii licenci na sběrnici v procesorech Core iX]. Naše čipsetová divize bude pracovat 1,5 až 2 roky, uvedeme některé vzrušující nové technologie, které nejsou čipset nebo GPU, takže jsme z nich nadšení, ale zatím to nebylo oznámeno. Sběrnici Pentium 4 FSB budeme podporovat tak dlouho, jak dlouho o ni bude na trhu zájem.


Jsou hráči nejziskovějším trhem pro Nvidii?

Jen-Hsun: Asi bych řekl, že ne. 2/3 našich příjmů jsou od hráčů, ale 2/3 zisků jsou z pracovních stanic s Quadro. Jistě víte, že Nvidia je světově největším dodavatelem technologií pro pracovní stanice, náš tržní podíl je 95 % v tomto segmentu, každá jednotlivá společnost, každá země, každý subjekt v oblasti automobilů, ropy, letectví, železnici, botách atd. používá naše technologie Quadro. Je to nejvyšší podíl na trhu pro jakoukoli společnost na trhu pracovních stanic v historii, byť trh pracovních stanic není moc velký, jakkoli je důležitý.


Hodně se toho očekává od Tegra, kdy můžeme čekat chytré telefony s Tegrou?

Jen-Hsun: Pracuje se na mnoha smartphonech s Tegrou, na trhu se objeví v prvním, druhém a třetím kvartálu, každého čtvrt roku uvidíte nějaké nové.


S kým spolupracujete na chytrých telefonech, nějací velcí hráči? Protože jsme viděli pár čínských OEM výrobců pracujících na smartphonech s Tegrou. Víme, že Apple najal hodně lidí na vývoj čipů a Nokia má partnerství s Intelem na vývoj smartphonů založených na Atomu.

Jen-Hsun: Nemohu je zveřejnit, ale jsou to velcí hráči. iPhone je skutečně úspěšný produkt, ale je zde spousta dalších příležitostí mimo svět Apple. Každý telefon v budoucnu bude chytrý, trh je obrovský a my na něj budeme připraveni.


Budete Tegru licencovat nebo její části? Tak jako to dělá ARM.

Jen-Hsun: Nemáme žádný důvod ji licencovat, pokud máte opravdu rádi GeForce, kupte si prostě Tegru. Je tak malá.


Co očekáváte od ARMu na poli CPU a GPU? Vnímáte je jako konkurenci?

Jen-Hsun: Jsme přátelé. Tegra má v sobě GPU jádro a ARM jádro, ale to není Tegra. Je to procesor s osmi jádry uvnitř, je to jádrové zpracovávání dovedené do extrému. Ale lidé si nekoupí Tegru kvůli CPU nebo GPU, koupí si ji kvůli zážitkům, které přináší. ARM licencuje své technologie našim konkurentům, ale nám nekonkurují.


Bylo pro vás, jako herní společnost, těžké získat si pozornost vědecké komunity?

Jen-Hsun: Nejprve, jsme vnímáni jako herní společnost, protože GeForce jako značka je tak silná. A když děláte něco velmi velmi dobře po dlouhou dobu a děláte to pro lidi s obrovskou mírou vášně, pozvou vás nakonec domů.

Ale my nejsme skutečně herní společnost, jsme firma zabývající se počítáním obrazu/videa, nicméně jsme se tak dlouho věnovali hráčům, že jsme jedněmi z nich.

Samozřejmě by se mohlo stát, že by nás vědecká komunita nebrala vážně, ale nezapomínejte, že mnoho našich zákazníků jsou vědci. Včera jsem viděl prezentaci ředitele Technyscan, firmy, která dělá na včasném odhalování rakoviny prsu. O CUDA se dozvěděli od inženýra, který CUDA objevil, protože je sám hráč. Takže jakmile CUDA objevil, okamžitě poznal, jak s ní může lidem pomoci. Trvalo mu téměř jeden rok, než přesvědčil společnost k použití CUDA. On byl naším nejlepším prodejcem, pamatujte, že tu jsou milióny a milióny hračů a ti jsou chytří. Hráče chcete mít na své straně.


Co si myslíte o čipu Lucid Hydra 200?

Jen-Hsun: Já vám nevím, zní to jako hrozný nápad. Je tu [pozn: v multi GPU] potřeba tolik softwaru, ovladačů, aplikací a optimalizací, že by bylo hloupé si myslet si, že software není potřeba. Plus SLI a CrossFire jsou dostupné komukoli.


Můžeme si promluvit o příští generaci? Nabyl jsem dojmu, že Fermi nebude tak dobré na hry, jako bude na paralelní počítání. Můžete to komentovat?

Jen-Hsun: Nemusíte se obávat, Fermi jsme prezentovali jako paralelní procesor, protože GTC není herní akce.

Nové grafické schopnosti nových GeForce ještě nebyly odhaleny. Podělíme se o několik skutečně vzrušujících technologií a samozřejmě jednou z nich je ta, o kterou jsme se podělili včera: V budoucnu bude možná rasterizace i raytracing, nebudete si muset vybírat. A je tu více vzrušujících tajemství, o kterých budeme mluvit později.


Bude Fermi připravena pro hráče?

Jen-Hsun: Ano, testování pro hráče věnujeme stejné množství času jako pro vědce, není nic více frustrujícího, než když chcete hrát hru a počítač padá.

Bill Dally odhaluje plány až do roku 2017

link

Malá nenápadná fotografie slajdu z blíže nespecifikované prezentace odhaluje plány Nvidie až do roku 2017. Materiál údajně prezentoval osobně Prof. Bill Dally, vedoucí vývoje v Nvidii a také významný vědec Stanfordské univerzity.

Nejrpve mi dovolte pár slov úvodem. Na již zmíněné GPU Technology Conference se představili CEO a CTO z mnoha významných firem. Sluší se zmínit aspoň společný výstup Jeffrey Vettera (vědec z Národních laboratoří v Oak Ridge, provozovatele aktuálně druhého nejrychlejšího superpočítače planety Cray XT5 Jaguar), Steva Scotta (CTO společnosti Cray) a Shawna Edwardse (CTO finanční korporace Bloomberg). Právě Steve Scott byl před pár lety v týmu zvaném DARPA Exascale Study, který zkoumal směr vývoje superpočítačů na cestě ke stroji s výkonem v řádu EFLOPS (1 EFLOPS = 1 milión TFLOPS, tedy přibližně výkon miliónu grafik generace HD 4800, resp. GTX 285, kde tato hodnota představuje ale pouze single-precision). Tým složený z expertů zjistil, že při současném směru vývoje dojdeme k Exascale počítači o spotřebě kolem 100 MW, což představuje roční výdaje za elektřinu v řádu kolem 100 miliónů dolarů. A to je pochopitelně nepřijatelné, nemluvě o absenci dostatečných silových vedení a rozlehlých prostor pro takový superpočítač, i s ohledem na chlazení.

2009 11 nvidia bill dally

Bill Dally nabízí výhled na možné řešení. To spočívá pochopitelně ve zlepšení poměru výkon/spotřeba. Berte následující informace s rezervou, jsou založeny na teoretickém propočtu na bázi Moorova zákona a nakonec vše může být za 7 let jinak.

Nvidia plánuje superpočítač postavený jako jakousi stavebnici (nic překvapivého, tak je to odjakživa). Základem bude 300W krabice (box, nebo chcete-li „výpočetní uzel“) obsahující 2400 výkonných jader (celkem 7200 FPU jednotek) a 16 CPU (patrně míněno 16jádrový procesor) na jednom čipu. Tato krabice by měla nabídnout výkon 40, resp. 13 TFLOPS v single, resp. double-precision a on-chip paměti plus rychlou komunikaci a synchronizaci. K paměti a komunikaci připomenu, že je to klíčová věc, o které hovořil jak Steve Scott, tak Jeffrey Vettera. Jakmile nemáte cache co nejblíže výpočetním jádrům, musíte s daty/pro data o úroveň výše a tím jste na vyšších latencích, další jednotky v procesoru čekají, zacpává se sběrnice tím, co by se dalo vyřešit „lokálně“ a ve výsledku ztrácíte i cenné milisekundy, které při počtu miliónů jader znamenají velké ztráty výpočetního výkonu zbytečnou komunikací mezi vzdálenými částmi GPU, nebo nedejbože dokonce karet, pokud by se muselo až do lokální paměti (navíc vás to vše stojí hodně ne zrovna levné elektřiny). Právě proto bude mít Fermi tak velkou L1 a L2 cache, lokální registry a řadu sběrnic, aby se tomu vyhnula.

Součástí boxu bude 128 GB lokální DRAM s propustností 2 TB/s a také 512GB datové úložiště tvořené pamětí phase-change (novinka, velice rychlá s prakticky neomezenou životností) nebo flash.

Tyto 300W boxy, řekněme v 1U či 2U rackovém provedení budou skládány na sebe/k sobě do celkového počtu 384 kusů, přičemž tento celek již bude mít výpočetní výkon 15,7 PFLOPS v single-precision a celkově 50 TB lokální paměti DRAM. Pospojování bude realizováno sítí s propustností 1 TB/s pro každý box. Celý takovýto „rack“ si již pochopitelně řekne o 100kW přísun energie.

Racků bude v modelové hale naskládáno celkem 128, takže se spotřebou dostaneme na zhruba 10 MW, ale výkonem na „vědeckofantastických“ 2 EFLOPS, kde budou mít výpočetní jádra k dispozici celkem 6,4 PB DRAM. Datové úložiště nejvyšší úrovně obstará diskové pole a propojení opět síť, a to z optických vláken. Připomenu, že DARPA hovořila o 1 EFLOPS při 100 MW, Nvidia očekává 2 EFLOP při 10 MW, což je 20× lepší.

Přesně jak Steve Scott řekl, bude celý systém naplněn sběrnicemi a paměťmi různých úrovní, které všechny do jednoho budou disponovat ECC. Prvotní implementaci přinese již Fermi a jakkoli to pro běžné desktopy nebo systémy s pár desítkami karet Tesla není nutné, pokud chcete spřáhnout zhruba sto tisíc a čtvrt miliónu karet Tesla (můj hrubý odhad tohoto 2EFLOPS systému) spolu s 50 tisíci 16jádrovými procesory, bez hodně dlouhých vedení a korekce chyb na sběrnicích a pamětech či párování výpočetních jader pro samokontrolu integrity dat se prostě neobejdete.

Závěr s komentářem

link

Jistě již chápete, proč jsem obě tato témata spojil do jednoho článku. Na jedné straně tu máme Jen-Hsun Huanga hovořícího o zaměření Nvidie na software a související technologie a výpočty, na straně druhé jeho vrchního vědátora Billa Dallyho s pohledem pod pokličku, kde se vaří polévka pro rok 2017. Třetím dílem skládačky je architektonický článek o Nvidia Fermi.

Nvidia ani ATI nevydělávají obrovské peníze na Radeonech a GeForce. Tyto karty drží cenově velice nízko, protože probíhá konkurenční boj (zejména si obě firmy musí dát pozor, poté co dostaly před časem od příslušných regulačních orgánů za uši za někdejší cenový kartel). Když vyrobíte GPU a dáte ho na GeForce, prodáte kartu za 10 tisíc. Když ho dáte na Teslu nebo Quadro, prodáte kartu za 40 až 70 tisíc. Sice v tom máte i nějakou podporu pro uživatele, vaše náklady jsou pak průběžně o něco vyšší, ale celkově jste výrazně ziskovější.

Nevidím jedinný důvod, proč by měly být kroky posledních tří let (od představení G80 a CUDA) a zejména posledních měsíců v Nvidii nějak špatné. Firma se dle mého vydává optimálním směrem. V grafických kartách pro běžné uživatele již toho není moc co nabídnout (prosím nechytat za slovo). DirectX pipeline se nijak výrazně nemění a dva nové typy shaderů v DX11 (Hull, Domain) toho také moc nemění a výkon GPU je již dnes tak vysoký, že pro běžné použití (1920×1200) stačí naprosto s přehledem. Něco jiného je fyzika, umělá inteligence, raytracing, encoding videa, filtrace ve Photoshopu atd. Všechny tyto věci mohou být výpočetně nesmírně náročné a stále z nich bude těžit i běžný uživatel a ten tak ocení optimalizace směrem ke GPGPU, které Fermi přinese.

Osobně věřím, že Fermi bude pro Nvidii něčím takovým jako G80 (GeForce 8800). Bude to první stavební kámen odlišné architektury, na kterém bude firma po příští roky stavět svá GPU. Ano, bude přidávat shadery, bude zmenšovat výrobní proces, ale základy architektury jsou dle mého (laického soudu) u Fermi dostatečně nadčasové pro několik příštích let. Oponenti rádi poukazují na zbytečnost počítání fyziky na GPU, jen velmi omezenou užitečnost double-precision v dnešní době atd. Zde si ale dovolím oponovat. Ano, současnou herní fyziku lze bezpochyby počítat na CPU, zde nebudu Nvidii nijak hájit. Ale současná herní fyzika, jakkoli již před 5 lety v Half-Life 2 vypadal Havok nádherně, je pouze prvním krůčkem do světa dokonalé fyzikální simulace.

I to, co programátoři Nvidie sedící dlouhé měsíce v herním studiu předvedli v Batman Arkham Asylum, berte pouze jako první ochutnávku, ukázku potenciálu. Proč si nedat větší cíl a nesimulovat nejen objekty v blízkosti, ale i objekty velmi vzdálené (spolu s renderingem obrovských prostor, i za přispění hardwarové tesselace prosazované pro změnu firmou ATI) a oněch „rigid bodies“ nemít ve scéně několik set tisíc? Proč si nevzít za cíl supervěrnou simulaci vodní masy, písečných bouří, tropické vegetace? To, co předvedl Crysis, je z tohoto pohledu stále ubohost. To, co předvede Crytek v nové generaci svého herního enginu, bude stále nedokonalé prostě proto, že zatím nemáme dostatek výkonu (ať již na CPU, nebo GPU) a dostatečně věrné matematické modely, které by mohly být počítány. Velký svět reálných simulací je teprve před námi a i když bude Nvidia tlačit svá budoucí GPU primárně do superpočítačů, budeme z toho těžit i my, řadoví hráči.

Nezapomínejme ani na to, že aktuálně nás omezuje z hlediska herního prožitku nízká 60Hz obnovovací frekvence typických LCD monitorů. Vlaštovka v podobě 120Hz LCD (primárně určených pro Nvidia 3D Vision) je prima, ale výhledově svět počítá i s 240Hz LCD. A já nebudu sedět při zemi, na 240Hz LCD chci mít zapnutý V-sync a v počítači kartu, která v daném rozlišení zvládne oněch 240 snímků za vteřinu počítat za všech okolností plynule.

A nejsou to jen hry. Je zde třeba uživatelská komprese videa. Spoustu věcí sice nelze efektivně paralelizovat (speciálně v x264, jak o tom hovoří tvůrci tohoto formátu), ale spoustu ano a zpracování videa není jen o H.264, je též o filtrech, přechodech a spoustě dalších věcí. Momentálně ještě většina z nás funguje s rozlišením 720×576, někteří s 1280×720, či dokonce 1920×1080, ale filmy v Industrial Light & Magic se dnes většinou renderují ve „4k“ (tedy 4096×3072, resp. spíše 4096×2048) a ani to nebude konečná. 1080p kamerám také za „pár let odzvoní“ a přijde něco lepšího. Jednoho krásného dne se také dočkáme plnohodnotného 3D obrazu, který si vyžádá opět více výpočetního výkonu a dotkne se i simulací fyziky. Nevěříte? Podívejte se na výstup Christophera Horvatha na GTC, jasně tam hovořil o tom, že pro dostatečně věrný rendering filmu sice používají 2k, někdy 4k rozlišení, ale v Z ose jim stačí jen 128 úrovní. V plném 3D zobrazení už tomu tak nebude.

Ale to jsem se asi již nechal unést a zaběhl příliš do budoucnosti. Nvidia jasně dala najevo, jak to vidí ona. Ani na okamžik nepochybuji, že se ATI nehodlá nechat zahanbit, a prozatím bych si nedovolil odepsat ani Intel Larrabee, jakkoli je po něm již delší dobu ticho po pěšině (minimálně od doby, kdy „byl odejít“ z Intelu Pat Gelsinger). Příští rok bude zajímavé sledovat, jak se Nvidii podaří, nebo nepodaří s Fermi prosadit v segmentu HPC a pracovních stanic, kde má s Quadro velmi dobrý základ. Totéž platí pro karty GeForce.

Související články

Nová architektura NVIDIA Fermi
Grafické karty nVIDIA
Rozhovor: Andy Ritger, NVIDIA
AMD uvádí generaci Radeon HD 5800

Odkazy a zdroje

CHW entrevista a Jen-Hsun Huang

Další články z této rubriky

HW novinky: podzimní přehled #2
HW novinky: podzimní přehled #1
HW novinky: návrat skleněných ploten v HDD
HW novinky: PCI Express 4.0 prý ještě letos
HW novinky: i Skylake-X s 12 jádry používá levnou teplovodivou pastu

Diskuse k tomuto článku

5.11.2009 08:08 Martin London
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Odpovědět | Sbalit | Link | Blokovat | Admin
hlavne by uz konecne mohli opravit ten hrozny bug v proprietarnom ovladaci, ktory rozhasi cely kwin a vyzera to potom ako rozhadzane kusky lega...
5.11.2009 08:26 bubo. | skóre: 20 | blog: Buboo | Bratislava
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Odpovědět | Sbalit | Link | Blokovat | Admin
Nerozumiem ako "nas obmedzuje" z hladiska herneho pozitku obnovovacia frekvencia 60 Hz? Samozrejme nemam na mysli stereoskopiu - 3D, a ked ano tak potom preco 240 Hz a kde je to obmedzenie pri 120 Hz? Vazne by som rad cital overitelne vysvetlenie tohoto tvrdenia, teda kuknem a vidim... :-)
ICQ 217-602-332
Heron avatar 5.11.2009 10:21 Heron | skóre: 53 | blog: root_at_heron | Olomouc
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Odpovědět | Sbalit | Link | Blokovat | Admin
Opravdu ten závěr s komentářem psal tentýž David Ježek, který tu před nedávnem souhlasil s jistým herním vývojářem? Ten tvrdil, že GPU je na fyziku škoda. ;-)

Mě by zajímala jiná věc. Před lety GPU nebyl plnohodnotný procesor a chybělo mu právě to, co "velké" cpu nejvíce zpomaluje. Tedy instrukce skoku a rozhodování (mimo jiné). V high level jazyce tedy nejzákladnější příkaz if a jakýkoliv cyklus. Tyto instrukce dělají paseku v cache a předpočítávání.

GPU nic takového řešit nemusí (nemusela) bere data tak jak jdou a jejich "programy" jsou tak malé, že se vlezou do interních cache jednotlivých stream procesorů.

Tak by mě zajímalo, zda už je toto vyřešeno a pokud ano, jak s touto megakoulí na noze mohou být 1000x výkonnější.
Heron
David Ježek avatar 5.11.2009 10:46 David Ježek | skóre: 83 | blog: Mostly_IMDB
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
ano, jisteže ten samý. můj názor se nijak nezměnil. na "současnou fyziku" je gpu opravdu škoda, ale na "fyziku, jaká by mohla být, kdyby byl výkon" takového gpu rozhodně škoda není.
5.11.2009 11:06 Martin Stransky | skóre: 6
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Odpovědět | Sbalit | Link | Blokovat | Admin
Hlanvni problem soucastnych systemu (GPU/CPU) je hlavne velikost RAM/Video RAM. Muzete mit 100x rychly GPU co spocita milion simulaci/pixelu/trojuhelniku ale do nekolika malo GB ram verne textury nenacpete ani se sebelepsi kompresi. (nebo tam nacpete par hi-res textur ktere se donekonecna opakuji) A s rostoucim rozlisenim / velikosti monitoru to bude cim dal vice zretelne. A pokud se vykon GPU zvysuje geometrickou radou tak velikosti pameti rostou spis slimejsim tempem.
David Ježek avatar 5.11.2009 11:15 David Ježek | skóre: 83 | blog: Mostly_IMDB
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
přiznám se, že tenhle aspekt jsem zatím hlouběji nezkoumal. ale dnes si můžeš do běžné x58 desky nacpat 6x4=24GB ddr3 od kingstonu v pohodě (akkorát paměť teda vyjde na celkem 45k) a na quadro/tesla kartách nvidia mí běžně 4GB paměti. teď nevím jistě, ale vsadím boty, že fermi bude 8 a 16GB :-). je toto dle tebe málo?
5.11.2009 12:03 Martin Stransky | skóre: 6
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Ano, je to smesne malo :) A hlavne je treba porozumnet jak se hry vyvyjeji. Kazde studio navrhuje svuj produkt tak aby fungoval pokud mozno vsude a pokud 80% hracu bude mit za 3 roku v prumeru 4GB ram a 1GB videokartu, bude na to ta hra optimalizovana. A 1 GB video ram neznamena 1GB textur ale kazda textura potrebuje light-mapu (osvetleni), bump-mapu (pokud pouziva), dale jsou ve VRAM vertex buffery s geometrii sceny, frame buffery a podobne. Takze ciste pixmapy mohou byt cca. 1/2-2/3 celkove video-ram.
David Ježek avatar 5.11.2009 12:31 David Ježek | skóre: 83 | blog: Mostly_IMDB
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
já se aspoň z vlaku budu muset na "to programování" podívat. díky za popis, už mi docvaklo.
5.11.2009 21:41 Hynek (Pichi) Vychodil | skóre: 43 | blog: Pichi | Brno
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
A co takhle Marconi to zkusit bez drátů? Co takhle místo pixmap textur používat fraktálové? Pak vám na jejich uložení stačí pár kB.
XML je zbytečný, pomalý, nešikovný balast, znovu vynalézané kolo a ještě ke všemu šišaté, těžké a kýčovitě pomalované.
Bilbo avatar 6.11.2009 16:51 Bilbo | skóre: 29
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Idea pekna, ale vygenerovat fraktalni texturu aby vypadala aspon priblizne tak jak chci (napr. posprejovana betonova zed s graffiti) je celkem dost netrivialni uloha.

V praxi se casto vysledna textura sklada z nekolika pixmap - jedna pixmapa pro betonouvou zed (textura betonu), pak "detail texture" kde je opakujici se vzor zrniteho betonu (s jemnym rozlisenim, takze je vlastne videt az kdyz je clovek u zdi blizko, cimz taky pak neni ani videt ze se to opakuje) a na to pripadne textury s napisy, graffiti nebo dalsimi "dekoracemi" (pochopitelne kazda pixmapa se muze skladat z vice typu - barevna slozka, bump mapa, ...). Splacat X textur je pro GPU celkem trivialni a usetri se tim celkem dost pameti pri prakticky stejnem konecnem vizualnim efektu.
Big brother is not watching you anymore. Big Brother is telling you how to live...
5.11.2009 11:21 Adam Pribyl
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Odpovědět | Sbalit | Link | Blokovat | Admin
A zkusili ste se nekdy podivat z okna? To je 3D, v neporovnatelne vetsi vzorkovaci frekvenci, neprebernou paletou barev ted na podzim a to rozliseni..:)
5.11.2009 11:27 Robert Krátký | skóre: 94 | blog: Robertův bloček
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Jenže tam pořád nefunguje Pause a Undo... nepříjemné.
David Ježek avatar 5.11.2009 11:31 David Ježek | skóre: 83 | blog: Mostly_IMDB
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
nehledě na to, že se tam dost blbě hraje Carmageddon :-D.
5.11.2009 12:29 Václav Kramář | skóre: 31 | Nechanice
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Ale tak on by se asi i hrál v pohodě... Ale ty následky... :-D
5.11.2009 15:29 Miloslav Ponkrác | blog: miloslavponkrac
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Hraje se tam velice dobře a ta dokonalá fyzika, to na GPU nezažijete.
5.11.2009 12:14 trekker.dk | skóre: 72
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
A save/load je taky nějakej rozbitej.
Quando omni flunkus moritati
5.11.2009 15:14 alkoholik | skóre: 40 | blog: Alkoholik
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Neni. Jenom ovladaci tlacitko nekdo moc dobre schoval.
5.11.2009 12:28 anti
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Odpovědět | Sbalit | Link | Blokovat | Admin
Blázni, nic jiného. V této době, kdy stojíme na samém počátku kvantových počítačů oni přemýšlí o budoucnosti v roce 2017. K smíchu.
5.11.2009 16:43 trekker.dk | skóre: 72
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Nebude to tak trochu tím, že na tom počátku stojíme dost dlouho? Oni potřebují vydělávat peníze, takže jim nezbývá, než se pohybovat.
Quando omni flunkus moritati
Bilbo avatar 6.11.2009 17:27 Bilbo | skóre: 29
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Pocatek kvantovych pocitacu? No, mam pocit ze s kvantovymi pocitaci je to podobne jako s energiii z jaderne fuze - tam uz se poslednich X let rika, ze za 30 let to dotahnou vedci do obecne pouzitelneho stavu (tedy ze by si to elektrarenske firmy mohly koupit a provozovat, jako treba dnes provozuji jaderne elektrarny), ale zatim existuje akorat par prototypu tokamaku...

U kvantovych pocitacu zase s poctem qubitu roste prudce narocnost jeho postaveni a soucasne kvantove pocitace s 5-12 qubity jsou zatim jen hracka, na to aby to bylo realne pouzitelne (= rychlejsi nez klasicky pocitac o stejne cene) by musel mit kvantovy pocitac radove aspon stovky az tisice qubitu. Mozna budu nakonec prekvapen, ale tipuju ze v roce 2017 jeste takovy pouzitelny kvantovy pocitac k dispozici nebude.

I kdyz celkem vidim budoucnost v kvantove kryptografii - tam staci pro realnou pouzitelnost i dnesni kvantove systemy, ale zase je problem se stinenim aby predavanou kvantovou informaci po ceste mezi odesilatelem a prijemcem nic neprecetlo (staci nejaky foton z kosmickeho zareni nebo skoro cokoliv co nahodou "cvrkne" do prenasene informace a ta se tim znici)
Big brother is not watching you anymore. Big Brother is telling you how to live...
5.11.2009 18:37 Andrtalec | skóre: 15 | Trnava
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Odpovědět | Sbalit | Link | Blokovat | Admin
Příloha:
IMHO zážitok z hry nesúvisí s dokonalosťou grafického zobrazenia. Viď príloha. :-)
SomaFM commercial-free internet radio
Grunt avatar 6.11.2009 19:41 Grunt | skóre: 23 | blog: Expresivní zabručení | Lanžhot
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Bývávalo.
Na co 64-bitů když to jde i s jedním? | 80.78.148.5 | Hack (for) free or Die Hard!
7.11.2009 18:06 xyz
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Amen. A kdo to tvrdí něco jiného, nikdy podobné hry doopravdy nehrál. A je úplně jedno, co tu bude v případných dalších reakcích upouštět do éteru.
Grunt avatar 8.11.2009 12:11 Grunt | skóre: 23 | blog: Expresivní zabručení | Lanžhot
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Odpovědět | Sbalit | Link | Blokovat | Admin
No, Nvidia je softwarová společnost a to bude pohánět náš růst.
A toho se vždycky zhrozím. Když se HW firma sere do softwaru.
z hlediska herního prožitku nízká 60Hz obnovovací frekvence typických LCD monitorů.
A to jako konkrétně v čem? Obnovovací frekvence lidského oka je prej právě kolem 60Hz, takže zase vygenerovat polovinu dat co je kvůli limitům lidského vnímání zase úplně k ničemu?
Momentálně ještě většina z nás funguje s rozlišením 720×576, někteří s 1280×720, či dokonce 1920×1080, ale filmy v Industrial Light & Magic se dnes většinou renderují ve „4k“ (tedy 4096×3072, resp. spíše 4096×2048) a ani to nebude konečná. 1080p kamerám také za „pár let odzvoní“ a přijde něco lepšího.
Další mezník by prej mělo být Super Hi-Vision. 33MPix. Jinak zatím si myslím, že nám právě něco v oblasti frekvencí a rozlišení uniká(něco jako maskovací efekt v oblasti zvuku), protože si myslím, že už i u 1080p dochází k nějaké ztrátě dat. Takže to lepšího bych nechal ležet. V mém případě HD určitě neznamená automaticky lepší.
Na co 64-bitů když to jde i s jedním? | 80.78.148.5 | Hack (for) free or Die Hard!
9.11.2009 10:27 alkoholik | skóre: 40 | blog: Alkoholik
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
60Hz? Nenechte se vysmat.
Clovek, ktery hraje FPS nemuze jit ani do kina, protoze u CGI efektu vidi rozdily mezi jednotlivymi snimky. Rekneme, ze bitvy z Pana Prstenu nebyly animace, ale hodne rychle slide show.
Grunt avatar 9.11.2009 11:27 Grunt | skóre: 23 | blog: Expresivní zabručení | Lanžhot
Rozbalit Rozbalit vše Re: NVIDIA o budoucnosti i sama o sobě
Nenechte se mýlit, ale to to že vidíte na obrazovce 500FPS ještě neznamená, že je skutečně dostanete. Já viděl max. 120Mhz CRTčko. U LCD ani nevím pořádně jak to je, ale myslím, že moc nad 60Hz to nebude. Tzn. že 500FPS může být klidně, ale 3/4 těch snímků bude pohřbených ve framebufferu a hráč je nikdy neuvidí.
Na co 64-bitů když to jde i s jedním? | 80.78.148.5 | Hack (for) free or Die Hard!

ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.