Portál AbcLinuxu, 5. května 2025 13:18
Zhruba dva a půl měsíce to trvalo, než Nvidia uvedla na trh plnohodnotnou, tedy 28nm konkurenci k Radeonům HD 7970. Dnes se tedy podíváme jen na jediné téma, ale zato pořádně do hloubky. Nvidia „Kepler“ alias „Fermi Reloaded“ přichází…
Nejprve mi ale dovolte malé varování úvodem: tento článek může v čitateli vyvolat záchaty fanATIsmu, připadně nVidiotismu, pokud je v něm bude chtít najít. Není mým cílem tyto vášně zde rozdmýchávat, ale mám tu historickou zkušenost, že téma AMD vs. Nvidia funguje takřka spolehlivě .
Takže nejprve k parametrům. GeForce GTX 680 je kartou, která se dle mnohých vlastně měla původně jmenovat trochu jinak. GeForce GTX 660 Ti by byl adekvátní název v pokračující linii šedesátkových herních grafik s dobrým poměrem výkon/cena(/spotřeba). Jenže to v Nvidii „poněkud podělali“ a povedlo se jim stvořit GPU, které sice neoslní v GPGPU, ale pro hry dává výkon na úrovni Radeonu HD 7970.
Kdo zažívá malé dejá vu z doby GeForce GTX 260/280 a Radeonů HD 4850/4870, ten zažívá správný pocit. Tehdy přišly na trh první GeForcky a prodávaly se za velké peníze. Velmi krátce poté ale ATI uvedla Radeon HD 4850 (a jeho většího bratříčka) za šíleně dumpingovou cenu 3 500 Kč. Nejmenovaný člověk z AMD mi to tehdy zdůvodňoval tím, že se „rozhodli Nvidii zničit“ (expresivní formulace pro „udělat jí opravdu hodně vrásek na čele“), protože si to při nízkých výrobních nákladech můžou dovolit. Ostatně GPU Radeonů HD 4800 neslo 800 stream procesorů namísto původních 640 jen proto, že při 640 by bylo tak malé, že by se prostě nedalo napojit na dostatečně širokou paměťovou sběrnici (256bit a zbytek systému). Tak prostě tehdy v ATI přidali „pár SP navíc“. Nvidii možná potkalo něco podobného, jsme na trojnásobku jednotek a za chvíli si řekneme proč. Každopádně HD 4850 tehdy přišlo na trh s cenovkou 3 500 Kč včetně daně a během pár týdnů donutil Nvidii zlevnit její modely o desítky procent, až to někteří Nv-only výrobci nevydrželi a třeba EVGA se rozhodla svým zákazníkům, kteří do té doby zaplatili plnou cenu, rozdíl cen refundovat.
A teď k souvislosti s dneškem: Nvidia GK104, GPU obsažené v GeForce GTX 680, má plochu 294 mm² a využívá 256bitové paměťové rozhraní, zatímco konkurenční Radeony HD 7900 nesou čip o velikosti 365 mm² a 384bitové paměťové rozhraní – s ohledem na aktuálně velmi vysoké ceny za 28nm wafer u TSMC je jasné, že Nvidia má na čip výrazně nižší výrobní náklady (samozřejmě za předpokladu podobné výtěžnosti). Technicky jsme tak měli mít (a v nějakých jiných vesmírech jistě máme) GeForce GTX 660 Ti s cenovkou někde kolem 6 až 7 tisíc Kč. Nicméně v našem vesmíru nemá Nvidia potřebu „je zničit“, naopak se chová pragmaticky jako rozumný ekonomický subjekt, který pokud dostane od konkurence šanci mít vysoké marže, tuto šanci využije. Takže místo GeForce GTX 660 Ti tu máme GeForce GTX 680 s cenovkou aktuálně ~12 000 Kč, podobnou jako u Radeonů HD 7970.
GK104 nese 1536 CUDA jader, trojnásobek Fermi, díky skutečnosti, že z GPU zmizela spousta obvodové logiky týkající se hot-clock (dvojnásobné taktování CUDA jader), GPGPU (zejména double-precision) plus samozřejmě přibyly optimalizace a využití menšího (i co do počtu tranzistorů) paměťového řadiče. Navíc jsou tato jádra výrazně výše taktována, mimochodem aktuální rekordy s tekutým dusíkem se pomalu ale jistě blíží k 2GHz hranici.
Máme zde tedy konečně po letech GPU s přibližně dvojnásobným teoretickým výkonem, navíc také s výrazně vyšším počtem texturovacích a render jednotek, nemluvě o opět posílené teselační části.
Paměťová sběrnice může být „pouze“ 256bitová díky tomu, že jsou využívány superrychlé 6,0GHz GDDR5 čipy, které navíc lze ještě dále taktovat – Nvidia hodně zapracovala na GDDR5 řadiči, který býval v minulosti spíše slabší částí jejích karet.
Tři hlavní supertrháky jsou tím, co činí z GTX 680 kartu, po které se vyplatí skočit i v případě, že by vám jinak výkon GTX 580 stačil a spotřeba vás netrápila.
GPU Boost je řekněme variací na téma PowerTune u AMD. Zatímco AMD svoje PowerTune razí jako cestu pro snižování spotřeby (PowerTune generace karet díky pokročilému monitoringu a realtime ladění parametrů opravdu baští méně), Nvidia to prezentuje přesně opačně: GPU Boost má na starosti automatické přetaktovávání karty, pokud se tato vejde do daných operačních parametrů, tedy do dané hodnoty TDP, teplot a proudových odběrů. Toto je vyhodnocováno 10× za vteřinu. Základním taktem GPU tedy sice je 1,006 GHz, ale obvykle karta poběží o cca. 50 MHz výše a nezřídka dokonce o 100 MHz výše. K dispozici jsou přitom utility, které umožňují softwarové navýšit nejen přírůstek taktů, ale také povolenou hodnotu TDP – potenciál všude tam, kde není problém s teplotami, tedy je zajištěno dobré chlazení.
Framelock je pro změnu technologie umožňující systému/kartě říci, jaké fps má renderovat. A pokud má GTX 680 například dostatek výkonu aby renderovala hru v variabilním fps někde v rozmezí například 100 až 250 fps, pak zamknutím na obvyklých 60 fps bude moci značně ubrat na plynu – automaticky pak snižuje své takty tak, aby stále držela 60fps výkon, což pochopitelně vede k poklesu spotřeby během hraní, v závislosti na náročnosti herního enginu a rozlišení monitor(ů) pak buď mírnému, nebo naopak výraznému. Adaptivní Vsync pak řeší na úrovni karty/ovladačů časté negativní jevy v obraze plynoucí z vynucování Vsync – karta nyní v případě, že by fps padalo pod framerate monitoru a docházelo k jevu známému jako stuttering, Vsync vypne. Pokud je fps na úrovni obnovovací frekvence monitoru nebo vyšší, tak Vsync opět zapíná, čímž samozřejmě eliminuje jev známý jako tearing.
Z dalších novinek musím zmínit nové AA/AF algoritmy, ale protože jde o softwarovou zálěžitost, která bude/je zprovozněna i s grafikami generace Fermi, nebudu se jim podrobněji věnovat.
Co stojí za zmínku z hlediska výstupů, jsou dvě příjemné skutečnosti: za prvé je konečně na referenčním designu přítomen DisplayPort a za druhé je zde konečně podpora více než dvou, konkrétně čtyř nezávislých obrazových výstupů: na kartě je vyvedeno 2×DVI, 1×HDMI a 1×DP. Je to samozřejmě částečně i proto, aby Nvidia mohla nabídnout na jedné kartě konkurenci k Eyefinity, kde je 3×LCD nejčastější konfigurací – v případě Nvidie se rovnou musíme zmínit i o 3D Vision Surround, tedy 3D s aktivními brýlemi na více monitorech.
Další novinkou, která dorovnává obdobné novinky u CPU Intel a GPU AMD, je NVENC, logika video encoderu přímo zabudovaná v GPU. Nvidia podporuje na GeForce GTX 680 1080p H.264 High Profile Level 4.1 encoding, stejně jako MVC (Multi-View Coding, tedy mj. „Blu-ray 3D“), rychlost encodingu 1080p videa je 4 až 8× vyšší než reálná (což si volně přeložme jako 120 až 240 fps).
Z mého pohledu Nvidia touto kartou tak trochu vypekla rybník řadě lidí. Ano, jsou zde velké kompromisy: karta NENÍ skutečným Keplerem, to bude až další model uvedený někdy později v tomto roce. Není tak úplně vhodná pro GPGPU nasazení, hlavně ne tam, kde je potřeba double-precision. Skvěle se ale hodí do herních PC, kde odvede neméně tak dobrou, dokonce o něco lepší práci než Radeon HD 7970, a to i při nižší spotřebě.
Zdá se, že TSMC se 28nmn proces opravdu vydařil a daří se jí vyrábět GPU podstatně lépe, než když začínala se 40nm procesem (jeho zpackaný osud ostatně předčasně pohřbil třeba slibný Radeon HD 4770) a stejně tak se oběma výrobcům GPU (AMD a Nvidia) podařilo své návrhy převést do reálné výroby ve velmi dobré podobě.
GeForce GTX 680 má jeden dobrý bonus: zatímco u Radeonů HD 7000 jsme na ovladače čekali mnoho týdnů (ostatně ještě ani není k dispozici ovladač pro Windows XP, 1/4 roku po uvedení karet), Nvidia v den uvedení GeForce GTX 680 nabídla na svém webu nejen ovladače pro všechny současné Windowsy, ale i pro Linux či FreeBSD, ve všech případech i v 64bitové verzi. A to je věc, která se zde na linuxovém webu rozhodně počítá mezi ty opravdu velké klady.
Poznámka na závěr: pokud si chcete o technologiích nového GPU přečíst opravdu plnotučný článek s veškerou oblohou, pak vás odkazuji na článek Jirky Součka na DIIT.cz. Testy GeForce GTX 680 v tuto chvíli naleznete na většině českých, slovenských i světových webů.
Nejprve mi ale dovolte malé varování úvodem: tento článek může v čitateli vyvolat záchaty fanATIsmu, připadně nVidiotismu, pokud je v něm bude chtít najít. Není mým cílem tyto vášně zde rozdmýchávat, ale mám tu historickou zkušenost, že téma AMD vs. Nvidia funguje takřka spolehlivě .No já nevím, mě by článek bez odkazů na fanatismus jako "flame vyvolávající" nepřišel. Tohle varování mě přijde jako offtopic :-/.
U Radeonu HD 7xxx stale na ovladace cekame. Pokud teda za funkcni ovladace nepovazuje me ty s watermarkem "Unsupported hardware" a vykonem na urovni sw renderingu. (Vysly vcera, jako Catalyst 12-3!). V lepsim pripade pak na internetu vyhrabeme beta ovladace s "testing use only" watermarkem, a alespon normalnim vykonem.
Ocekval bych, ze autor HW o kterem pise alespon pod tim Linuxem vyzkousel.
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.