Portál AbcLinuxu, 1. května 2025 21:45
Druhá polovina tohoto roku bude ve znamení generační obměny. Spolu s hi-endovou platformou Intel Haswell-E přinášející až 8jádrové / 16×HT procesory, se objeví i čipset Intel X99 a podpora pamětí DDR4…
JEDEC jakožto konzervativní organizace definující spolehlivé standardy startuje éru DDR4 na efektivním taktu 2,133 GHz, tedy základním taktu 1 066 MHz. Do budoucna se počítá s takty až na úrovni DDR4-4266 a hodnotou napájecího napětí vedle základních 1,2 V i na low-power hodnotě 1,05 V. Osobně jsem přesvědčen, že to nebude konečná, tak jako DDR3 oficiálně končí na 1600, ale jsou na trhu i v 3000MHz podobě, půjdou DDR4 dále. Jistě za DDR4-4500 hranici, možná ve finále až k DDR4-5000.
Crucial, jakožto značka, pod kterou neprodává své paměťové čipy nikdo menší než Micron, ohlásil rovnou ještě před Computexem moduly typu DDR4-2666 a DDR4-3000. Tyto takty samozřejmě nebudou k dispozici v SPD jako standardní JEDEC specifikace, nýbrž v podobě profilů Intel XMP 2.0, tedy všude tam, kde bude nasazen čipset Intel X99. Ostatně AMD zatím podporu DDR4 nijak nehlásí, víme pouze, že ji má přinést SoC platforma Hierofalcon v roce 2014 – zde ale půjde primárně o hledisko nízké spotřeby, nikoli o trhání frekvenčních rekordů.
Pokud si dobře vzpomínám na éru SDR, DDR, DDR2 i DDR3, tak si dovolím tvrdit, že nůžky mezi standardizací nových taktů JEDECem a možnostmi výrobců paměťových čipů a řadičů, se rozevírají. Výroba stále více předbíhá definované standardy, ostatně mimo jiné proto vznikly nadstandardní profily jako Intel XMP (eXtreme Memory Profile) a AMD AMP (AMD Memory Profile). U DDR4 tomu tak bude už od startu. Důvod je prostý: už dnes na platformě Sandy Bridge-E / Ivy Bridge-E s čipsetem Intel X79 a SB / IB / Haswell deskách (vybraných otestovaných modelech v koperaci výrobce desky a modulu) je možné provozovat přes XMP právě i DDR3-3000. Tomu by DDR4-2133 nijak příliš konkurovat nemohly. DDR4-3000 v podání Crucialu tak vlastně startuje na minimální rozumné hodnotě, byť to je jen začátek, už odedávna se hovoří o tom, že tu bude rovnou i „enthusiastový“ profil pamětí DDR4-3200. Očekávat také můžeme snad i návrat DDR4 mezi grafické karty, kde samozřejmě bude hrát jinou roli (low-end / mainstream) než v éře Radeonu X19xx / HD 2900 (hi-end).
Crucial své moduly Ballistix Elite DDR4 uvede na trh v sprnu.
Tedy on ho vyvíjí hlavně Samsung, tvůrce technologie PLS (levnější variace na IPS), na přání Intelu, s nímž táhnou ve zlevnění ne-TN 4k za jeden provaz. Intel totiž chce 23,6palcový 4K displej ne-TN typu (což prostě u Samsungu nic jiného než PLS nemůže znamenat), hodlá takový monitor uvést v ceně 400 dolarů a za 1 tisíc dolarů pak rovnou celé all-in-one PC.
Displej nabídne 100% pokrytí sRGB (osobně to tipuji na 6bit+FRC elektroniku, ale to je jen spekulace) a monitory pak odhadem poloviční ceny proti současné nabídce v rozmezí 17 až 20 tisíc Kč za 28palcové TN UltraHD monitory s rozlišením 3840×2160.
A proč, ptáte se? Proč ne? Inu, Intel nejde ani tak po vyšším rozlišení, jako spíš po vyšší hodnotě dpi / ppi. Víme to již pár let, je to jeho dlouhodobý cíl a upřímně, pokaždé když vidím 15,6palcový TN 1366×768 notebook, tak to jedině schvaluji. Uvidíme, kdy výsledek společné spolupráce dorazí na trh, ale doufejme, že co nejdříve. Minimálně proto, že takové produkty pomůžou zlevnit i stávající nabídku trhu, třeba takové ty 21,5palcové IPS/VA monitory s 1920×1080, které se pohybují mezi 2 400 až 3 200 Kč dle konektorové výbavy.
Když jsem tu posledně psal o nových Haswell Refresh Core i7, resp. výročním dvoujádrovém Pentiu s odemčeným násobičem, rozplýval jsem se nad návratem ke kvalitnímu materiálu pro převod tepla mezi pouzdrem CPU čipu a heatpsreaderem. No, mohlo mě napadnout, že to nebude návrat k pájecí metodě á la Sandy Bridge, byť jsem to tak přímo nespecifikoval. Intel prostě hledal od fiaska s mizerným overclockingem, které nijak neřešil ani u Haswellu, nějaké levnější, ale kvalitativně špičkové řešení. A našel jej v podobě nového polymerového materiálu.
Ten využívají čerstvé procesory Core i7-4790K, Core i5-4690K a výroční Pentium G3258. Kvalitativně má být na úrovni pájení, ale levnější na výrobu i použití, podobně jako běžná teplovodivá pasta. Mimochodem, ono to Pentium G3258 asi bude celkem bomba, až přijde. Cenově nijak nevybočuje z levných Pentií, ale nabídne tedy velký OC potenciál, ať již díky odemčenému násobiči, nebo právě kvalitnějšímu převodu tepla na heatpsreader a také přídavným filtračním kondenzátorům více stabilizujícím napájení, než je tomu u běžných procesorů. Chce se snad Intel blýsknout a dát vzpomenout na legendární procesory jako Celeron 300A či třeba celou generaci Tualatin?
Průsvitný displej přímo v zorném poli, nutící v podstatě „šilhat“ či nepřirozeně ostřit oproti tomu, co by mozek/oko přirozeně chtěli a do toho zpracovávat blikající obraz, s tím prostě nic nenadělá ani Nvidia (a její 3D Vision), ani Google s jeho brýlemi Glass.
Z testování na širší škále uživatelů vyplývá, že mnoho z nich hlásilo bolesti hlavy. Tak jako u Nvidia 3D Vision, stejně jako v minulosti třeba u virtuální helmy VFX-1 a do jisté míry i současné technologie Oculus Rift, jde o potíže individuální. Někdo je vůči nepřirozenému způsobu fungování svého těla ve spojení s daným přístrojem v podstatě imunní (tedy minimálně z krátkodobého hlediska – žádné dlouhodobé studie o těchto technologiích nejsou a hned tak nebudou), někdo má potíže obrovské. Lidské tělo se prostě do takového způsobu zasahování do přirozeného běhu věcí brání.
V případě Google Glass má jít dle firmy o problém s tím, že brýle nutí uživatele sledovat pravou horní část pole brýlí, což při dlouhodobém pozorování velmi oči namáhá, tedy jak okohybné svalstvo, tak oční nerv i další vnitřní části oční bulvy). Do středu zorného pole ale zase nejde grafika přemístit, jelikož by mohla působit dezorientaci uživatele v reálném světě.
Osobně jsem Google Glass na hlavě neměl, naposledy před několika lety právě Nvidia 3D Vision a stačilo mi to. Moje kompatibilita s těmito unavovači očí je minimální a tak ač bych si třeba rád jednoho dne dal System Shock 2, Bioshoc či Skyrim na Oculus Riftu, takové zařízení si nepořídím. Mám své oči rád.
Vyloučit samozřejmě nejde, že si lidé – i lidstvo – nakonec na něco takového zvykne. Podobně skeptičtí byli mnozí s příchodem televize a ostatně i filmu blikajícího 24 políčky za vteřinu a hle, nyní už máme i stoletou historickou zkušenost s tím, že to problém nepředstavuje. Historickou zkušenost s virtuální či rozšířenou realitou si nyní budeme budovat a je dobré, že Google se nebál do toho jít a je jedním z prvních průkopníků.
Problém s nepřirozeným ostřením by se dal vyřešit tím, že by se sledovalo nějakým způsobem zakřivení čočky oka (nejspíš by stačila specializovaná boční kamerka), nicméně muselo by se přidat předávání dat zpět (to by také nebyl problém, dat by nebylo tolik) a hlavně by musely herní či VR enginy řešit hloubku ostrosti, což by u dnešních grafických karet znamenalo mohutné navýšení složitosti vykreslování scény (musela by se udělat ve "vrstvách" dle vzdálenosti, rozostřit a pak složit, viz toto PDF). Na druhou stranu, pokud by v budoucnu grafické karty používaly raytracing, nebyl by to pro ně problém.Bohužel tak jednoduché to není. Problém totiž není hloubka ostrosti, ale to, že u stereografie oko musí ostřit na plátno/obrazovku, kdežto mozek vnímá jinou hloubku. Navrhované řešení je zhruba takové řešení, jako kdybys někomu dal fotografii hor v dálce do ruky, řekl mu ať očima zaostří na nekonečno (někam na horizont) a čekal, že dotyčný na fotografii, co drží v ruce, uvidí hory ostře. Jediné pořádné řešení je holografie, protože hologram kromě intenzity (amplitudy) reprodukuje i fázi, která je důležitá právě pro vnímání hloubky i ostření. Bohužel u hologramů je problém jak s jejich vytvářením (výpočetně hodně náročné), tak i výslednou reprodukcí, protože display musí být hodně jemný (pro názornost – display, který jsem měl možnost si vyzkoušet měl zhruba 0.5cmx0.5cm a rozlišení něco na úrovni 1024x1024 a stačilo to tak akorát na nesmírně rozmazanou reprodukci, ve které člověk bunnyho viděl jen s notnou dávkou fantazie
stereografie oko musí ostřit na plátno/obrazovku, kdežto mozek vnímá jinou hloubkuMej jsem dojem, ze hlavnim problem je, ze oko je neustale nuceno stridave ostrit na blizko (bryle) a do dalky (svet okolo). Za par hodin preostrovani jste unaven, vastecne otazka ciste mechaniky ocnich svalu. Tohle se ted zacina resit i u aut, u pripadne projekce informace na predni sklo.
Na centimetr pred okem zdrave oko nezaostriTo byla řečnická otázka.
a minuta je nic. Je tam hranol a miniprojektor, ktery bere v uvahu ze ostrite do dalky. Nicmene podvedome, v okamziku kdy se zacnete soustredit na informaci, ktera je promitana, preostrujete, nebo drzite oko ve stavu, ktery zpusobuje unavuJo, to zní rozumně.
Je tam hranol a miniprojektor, ktery bere v uvahu ze ostrite do dalky. Nicmene podvedome, v okamziku kdy se zacnete soustredit na informaci, ktera je promitana, preostrujete, nebo drzite oko ve stavu, ktery zpusobuje unavu.Musím říct, že zrovna na mě to platí. Google glass jsem měl na sobě jen krátce (a zrovna odvařený jsem z toho nebyl) a několikrát jsem se během té krátké chvíle přistihl, že oběma očima šilhám směrem do brýlí. A už po chvíli to není nic příjemného. Nehledě na to, že se brýle začaly znatelně zahřívat. Ale možná jde o zvyk, něco jako když se člověk učí nandavat si kontaktní čočky a ze začátku neustále instinktivně okem uhýbá.
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.