Portál AbcLinuxu, 30. dubna 2025 15:44
Tiskni
Sdílej:
http://www.theregister.co.uk/
http://inquirer.net/
(ok, tie dva su trochu bulvar)
http://www.realworldtech.com/
arstechnica.com
http://beyond3d.com/
No mozna by nebylo spatny vyuzit vysoky vypocetni vykon soucasnych GPU treba k virtualizaci. GK by tak ani nemusela plnit funkci GK tzn nemusel by k ni byt vubec pripojen monitor. Ten by byl pripojen k integrovane GK.
To je tezky. GPU toho tak moc neumi, jsou to suprovy SIMD procesory, ale nic jinyho nez SIMD jim moc nejde. Muze to delat fotorealistickej rendering v realnym case nebo mit naprosto sileny vedecky vypocty ktery by na CPU trvaly nekolik hodin hotovy za minutku, ale virtualizaci to nezvladne.
Ale hiend karty od nvidie (tisic jader, desitky tisic EUR za jednu) se tak delaji, pac se pocita ze to je na pocitani a ne na kresleni.
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.