Obrovská poptávka po plynových turbínách zapříčinila, že datová centra začala používat v generátorech dodávajících energii pro provoz AI staré dobré proudové letecké motory, konvertované na plyn. Jejich výhodou je, že jsou menší, lehčí a lépe udržovatelné než jejich průmyslové protějšky. Proto jsou ideální pro dočasné nebo mobilní použití.
Typst byl vydán ve verzi 0.14. Jedná se o rozšiřitelný značkovací jazyk a překladač pro vytváření dokumentů včetně odborných textů s matematickými vzorci, diagramy či bibliografií.
Specialisté společnosti ESET zaznamenali útočnou kampaň, která cílí na uživatele a uživatelky v Česku a na Slovensku. Útočníci po telefonu zmanipulují oběť ke stažení falešné aplikace údajně od České národní banky (ČNB) nebo Národní banky Slovenska (NBS), přiložení platební karty k telefonu a zadání PINu. Malware poté v reálném čase přenese data z karty útočníkovi, který je bezkontaktně zneužije u bankomatu nebo na platebním terminálu.
V Ubuntu 25.10 byl balíček základních nástrojů gnu-coreutils nahrazen balíčkem rust-coreutils se základními nástroji přepsanými do Rustu. Ukázalo se, že nový "date" znefunkčnil automatickou aktualizaci. Pro obnovu je nutno balíček rust-coreutils manuálně aktualizovat.
VST 3 je nově pod licencí MIT. S verzí 3.8.0 proběhlo přelicencování zdrojových kódů z licencí "Proprietary Steinberg VST3 License" a "General Public License (GPL) Version 3". VST (Virtual Studio Technology, Wikipedie) je softwarové rozhraní pro komunikaci mezi hostitelským programem a zásuvnými moduly (pluginy), kde tyto moduly slouží ke generování a úpravě digitálního audio signálu.
Open source 3D herní a simulační engine Open 3D Engine (O3DE) byl vydán v nové verzi 25.10. Podrobný přehled novinek v poznámkách k vydání.
V Londýně probíhá dvoudenní Ubuntu Summit 25.10. Na programu je řada zajímavých přednášek. Zhlédnout je lze také na YouTube (23. 10. a 24. 10.).
Gemini CLI umožňuje používání AI Gemini přímo v terminálu. Vydána byla verze 0.10.0.
Konference OpenAlt 2025 proběhne již příští víkend 1. a 2. listopadu v Brně. Nabídne přibližně 80 přednášek a workshopů rozdělených do 7 tematických tracků. Program se může ještě mírně měnit až do samotné konference, a to s ohledem na opožděné úpravy abstraktů i případné podzimní virózy. Díky partnerům je vstup na konferenci zdarma. Registrace není nutná. Vyplnění formuláře však pomůže s lepším plánováním dalších ročníků konference.
Samsung představil headset Galaxy XR se 4K Micro-OLED displeji, procesorem Snapdragon XR2+ Gen 2, 16 GB RAM, 256 GB úložištěm, operačním systémem Android XR a Gemini AI.
Práce s pamětí nebyla měřena žádným benchmarkem, můžeme nicméně srovnat, jak obě virtualizační technologie s pamětí pracují a jaké z toho pro ně plynou výhody a nevýhody. Částečně se přitom zaměříme i na to, jak dostupné mechanismy umožňují přidělit hostům více paměti, než má hostitel.
K čemu je to dobré? Málokdy se stane, že by všichni hosté najednou potřebovali využít všechnu paměť, která je jim přidělena. Rozdáním většího množství paměti je tedy možné hostitele využít intenzivněji, aniž by tím výrazně utrpěl výkon.
Poměrně často používaná technologie je „balónový ovladač“, který zabere paměť v hostovi tak, aby ji nebylo možné použít; tuto paměť je poté možné vrátit hostiteli k využití jinde. Jak KVM, tak Xen (a další) tento mechanismus využívají. Je nicméně potřeba brát v potaz, že tento mechanismus vyžaduje spolupráci hosta, který musí danou paměť nějak uvolnit, když je to po něm požadováno.
S tím souvisí i fakt, že přinejmenším u KVM je tento ovladač (virtio_balloon) zcela obyčejný ovladač6, je ho tedy možné vyjmout z jádra, pokud se k tomu správce hosta rozhodne. Uvolňování paměti tímto způsobem tedy není příliš spolehlivé.
V jádře 2.6.32 se objevila technologie KSM, což je mechanismus, který periodicky prochází fyzickou paměť hostitele (a tedy i hostů) a hledá identické stránky. Tyto stránky následně sloučí – ve fyzické paměti nechá pouze jednu kopii, paměť zbylých kopií je uvolněna k použití jinde.
KVM tuto technologii přijalo poměrně rychle, prakticky ihned po vydání jádra 2.6.32 (od 2.6.33 je možné sloučené stránky odswapovat), ve kterém se KSM objevilo poprvé. Xen od verze 4.0 umožňuje něco podobného (nedohledal jsem, jestli používá nějak upravené KSM nebo svůj vlastní mechanismus). Od verze 4.0 Xen také umí využít mechanismus přechodné paměti, který ještě nebyl začleněn do hlavní řady jádra a KVM jej nepoužívá.
Velmi důležitý rozdíl je ale ve způsobu, jak oba virtualizační mechanismy pracují s pamětí hostitele a jak ji přidělují hostům. Xen mapuje paměťové stránky hostů přímo do hardwarových tabulek stránek hostitele – neumožňuje tedy systému správy paměti v hostiteli s těmito stránkami nijak pracovat, což mimo jiné znamená, že tyto stránky nelze odswapovat.
Virtuální stroj KVM z pohledu operačního systému vypadá jako běžný (téměř) proces – jeho paměť tedy lze odswapovat – záležitosti s tím spojené řeší mechanismus stínových stránek nebo hardwarová podpora přímo v CPU. To určuje i způsob, jak je možné na hostech nasadit nejčastěji praktikovanou metodu využívání více paměti, než je fyzicky k dispozici – swapování. Zatímco u KVM je možné prostě hostům přidělit více paměti a žádný swap (swapování vyřeší hostitel), u Xenu je nutné dát každému hostovi k dispozici jeho vlastní swap, což je méně flexibilní a navíc to vytlačuje víc práce s diskem směrem k hostovi.
Lze tedy říci, že KVM je na tom díky spolupráci se správou paměti hostitele v mezních situacích o něco lépe. Prakticky se to ale může projevit jenom v případě, že je hostům přiděleno více fyzické paměti, než má hostitel k dispozici. Pokud se ji všichni hosté pokusí využít zároveň, všechny výše zmíněné mechanismy pravděpodobně selžou – v takovém případě KVM začne swapovat, kdežto Xen (pokud si dobře pamatuji) zastaví některý z virtuálních strojů.
6 Například pro VMware platí to samé.
Iozone je nástroj pro benchmarkování souborového systému (a v podstatě tedy i hardwaru pod ním, pokud je souborový systém stejný). V nejjednodušším volání (iozone -a) provádí několik typů testů (zápis, přepis, čtení, náhodné čtení, …) na různě velkých datových souborech (od 64 kB do 512 MB) s různě velkými záznamy (od 4 kB po 16 MB). Výstupem je objem dat za sekundu, který lze daným způsobem zpracovat.
Původně se výsledky tohoto testu měly objevit mezi benchmarky výše, ale při paralelním běhu se v naměřených datech objevily nesrovnalosti: Xen podle průměrných hodnot podal lepší výkon než KVM (ztráta oproti hostiteli 20 %, KVM mělo cca 40 %), nicméně na všech virtuálních strojích KVM testy doběhly do cca 10 minut, kdežto na virtuálních strojích pod Xenem běh trval tři hodiny. Zjištěná data by tedy bylo nutné dodatečně upravovat a vypovídací hodnota takových výsledků by pravděpodobně nebyla nijak velká.
Při běhu na jednom hostu KVM podalo o cca 20 % větší výkon než hostitel (pravděpodobně vliv cache), Xen o 4 % horší.
Jak je vidět, z těchto měření nelze nijak dobře vyvozovat, které z virtualizačních řešení je lepší. Za normálního provozu je výkonnost srovnatelná a pokud hostitele přetížíme, je přetížen bez ohledu na to, jak virtualizujeme.
Před vydáním Xenu 4.0 bylo KVM trochu ve výhodě, co se vlastností týče, nyní je situace víceméně vyrovnaná. Při rozhodování, které řešení nasadit, je nicméně zapotřebí brát v potaz i to, že KVM začleněné v hlavní řadě jádra rychle přijímá nové vlastnosti (z nichž většina zlepšuje výkon). Uživatelé Xenu musí čekat na to, až vyjde verze pro novější jádro.
Tato lepší spolupráce s hlavní řadou jádra společně s faktem, že za KVM se postavil Red Hat, jsou důvody, proč mnoho vývojářů věří, že KVM nakonec nad Xenem zvítězí jak co se výkonnosti, tak co se počtu nasazení týče.
Nástroje: Tisk bez diskuse
Tiskni
Sdílej:
Ano, to je velice nepříjemná věc v debianu (u mě squeeze) - musí se instalovat balík "qemu-kvm", protože balíček "kvm" je VELICE a značně zastaralý, způsobuje výkonnostní anomálie, padání guestů, ...
Prvne diky moc za clanek.
Kdyby na to nekdy byla chut, tak bych moc rad videl aspon zakladni porovnani behu widli na Xen a KVMku. Sam jsem si hral s Win 2k3 serverem a na obojim se chova proti Linuxu mnohem hur. Na Xenu widle doslova staly na miste kvuli desivejm odezvam. Na KVM to bylo lepsi, ale zase se dost desne chovaly disky.
Lidi, jakou mate zkusenost s virtualizaci widli? Zaslech jsem, ze velmi dobre chodi vmware server, ale zrovna nemam volnej HW na testovani.
Protože se KVM poměrně rychle vyvíjí, byla použita verze z Debianu Unstable – v té době nejnovější jádro 2.6.31 (balík linux-image-2.6.31-1-amd64) a kvm-85 (85+dfsg-4.1).Opravdu bylo použito poslední KVM? kvm-85 je poměrně starý balík. Aby nedošlo ke zmatení čtenářů... Sám používám na desktopu unstable a používám balík qemu-kvm, teď ve verzi 0.12.3+dfsg-4. V dokumentaci se lze dočíst v
/usr/share/doc/qemu-kvm/changelog.upstream-kvm.gz, že tento balík je založen na kvm-88 [12 july 2009]. Sám jsem používal chvíli kvm-85 a měl problémy s virtualizovanými Windoze. Po čase jsem si všiml balíku qemu-kvm (s novějším KVM). V tom mě Windoze běžely o řád lépe (to už je tak 3/4 rok zpět). Tedy nevím kdy tyhle testy proběhly, ale o aktuálnosti user-space části KVM lze dost pochybovat?
No a co se týče XENu, tak ten je teď samozřejmě v kernelu 2.6.32 připravován pro Squeeze také zřejmě v novější podobě.
Nechtěl by si někdo dát práci a ty testy zopakovat?
Opravdu bylo použito poslední KVM?V té době... je to cca půl roku, spíš víc, nechá se to odvodit i podle "nejnovějšího jádra" 2.6.31. Holt docela dlouho trvalo to sepsat.
qemu-kvm (0.11.0+dfsg-1) unstable; urgency=low * Package qemu-kvm (stable series) instead of kvm (snapshots) * Simplify the packaging, remove support for external module source * Move old debian/changelog to debian/changlog.kvm -- Jan Lübbe <jluebbe@debian.org> Mon, 02 Nov 2009 11:49:28 +0100Zrejme ty testy probehly jiz v roce 2009...
Take jsem testoval jenom jeden Host a jeden VM, zadne paralelni stroje. Chtel jsem proste porovnat pouze ubytek vykonu ve virtualizovanych masinach. Testoval jsem XEN, KVM a VMware. Host OS byl Debian Lenny a Windows XP prof EN SP2, guest OS byl Debian Lenny a Windows XP (predpripraveny profil), vsechno jenom 32bit.
Na disk jsem pouzival bonnie++, tomu bych veril, dokonce to dokaze odstranit vliv disk cache, takze clovek opravdu presne vi, jak rychle to s diskem pracuje a testuje zapis, cteni a prepis, blokove i znakove a tusim i nahodny pristup.
Misto kompilace jsem provadel test spousteni bash scriptu. Script spoustel sam sebe nekolikrat v rekurzi. Proste test spousteni procesu, coz pouzivame v nasem kompilacnim prostredi.
Na testy site pouzivam iperf. Generuje na TCP nebo UDP nejaky data, coz nezatezuje CPU ani disk, takze pak clovek dostane opravdu rychlost site. iperf pracuje mezi dvema hosty, jeden je jako server, druhy jako client. Pokud je server na Gbit siti a neni nicim jinym zatezovany pres sit, tak iperf da opravdu kvalitni vysledek o rychlosti spojeni.
Pro praci s pameti jsem pouzil jednoduchy perl script, ktery do promenne nacpal string s milionem znaku "0". Potom v cyklu malych a velkych pismen prepsal pomoci s///g nuly na to pismeno. sakra, mel jsem spis pouzit tr///, ale i tak bych rekl, ze to dobre odrazelo praci v pameti.
Testy jsem delal z casti proto, ze si sef myslel, ze XEN virtualizace ubira vykon a ze mame teda servery instalovat primo na HW. A pak mame system pro kompilaci naseho produktoru pod Linux 32bit a 64bit a pod Windows 32bit a 64bit a pod Windows se pouziva Cygwin a je to desne pomaly.
Z testu my vyplynulo, ze CPU (openssl encrypt) je na vsech Host OS i Guest OS priblizne stejne rychly. Windows v KVM nebo VMware a Linux ve Vmware 2 jsou o trosku pomalejsi.
Perl script byl na Linux Host a XEN guest pomalejsi nez KVM guest.
Disk byl take relativne stejny. Jenom KVM bylo na Vmware discich asi dvakrat pomalejsi nez Host Linux a XEN guest. Kolega rikal, ze by vmware obrazy mely byt stejne rychle jako qemu.
Bohuzel spatne dopadl test site a spousteni.
Sit na Linux Hostu a XEN a VMware (1.0 i 2.0) Linux guestu hlasila kolem 930Mbps. Bohuzel i Windows XP host delal jenom 528Mbps. Ovsem zbytek byl horsi. Linux KVM Guest mel s VirtIO jenom 150Mbps, Windows XP KVM guest s VirtIO jenom 73Mbps, Win XP na Vmware 1.0 na 2.6.26 i na etch 2.6.18 kernelu Linux Hosta jenom 290Mbps, Win XP na Vmware 2.0 jenom 217Mbps. Win XP na VMware 1.0 Server na Win XP Hostu 349Mbps a na Vmware 2.0 275Mbps.
Zalostne taky dopadlo rekurzivni spousteni skriptu. Linux Host mel 1:25 (v minutach), XEN guest mel 1:34, windows xp host s cygwinem sam mel 20:31. Dale KVM Linux guest 5:45, Vmware 1.0 Linux guest na Linuxu 2:48, Linux Vmware 2.0 guest na linuxu 2:54, KVM Win XP guest s cygwinem 319:17, Win XP Vmware 1.0 guest s cygwinem na Linux hostu 47:50 a s vmware 2.0 127:39 a Win XP guest s cygwin na Win XP vmware server 1.0 46:30 a s vmware 2.0 129:05.
Prakticky mi z toho vyslo, ze pro Windows je porad jeste nutnost Vmware, ikdyz bych radsi KVM. A pro Linux jeste porad XEN, ktery bezi i na starsich masinach bez HW virt a neztraci zadny vykon v siti a spousteni procesu ani disku. Jeste budu testovat KVM pro Windows, ale to je tak akorat pro adminy, kdyz to nema consoli jako vmware. Jinak vmware 2 je peknej shit. WEb interface management funguje jak kdy, rychlosti to taky neoplyva, aspon ze se da vykopirovat vmware console a pouzivat oddelene, protoze ve FF3.6 tusim zatim nebezi.
Jednou uz driv jsem zkouseli Windows na XEN Enterprise, to bylo dobry i s managementem, zustali jsme u vmware.
Bohuzel spatne dopadl test site a spousteni.Teď jsem ještě zkusil netperf -t TCP_STREAM mezi KVM Linux hostem (virtio síť) a fyzickým strojem (ne hostitelem) a vyšlo cca 920×10^6 b/s na gigové síťovce. Stejný fyzický stroj proti hostiteli dá 940, takže tu síť bych opravdu tak špatně neviděl. netperf AFAIK používají k benchmarkování i vývojáři jádra, takže špatným nástrojem to IMO taky nebude...
Zalostne taky dopadlo rekurzivni spousteni skriptu. Linux Host mel 1:25 (v minutach), XEN guest mel 1:34, windows xp host s cygwinem sam mel 20:31.Zatímco v Linuxu, jako ostatně ve většině unixů, jsou procesory "lehké" (light-weight) a jejich spouštění přes
fork()+exec() relativně nenáročné, ve Windows jsou procesy relativně "těžkotonážní", fork() není nativně v dispozici (Cygwin ho musí emulovat) a mnohem víc se využívají lehká vlákna. Pokud se na
Windows provozuje program silně používající unixový styl (např. právě ono rekurzivní spouštění skriptů), je logické, že výsledek dopadne takto žalostně.
Pamatuju si, jak jsem kdysi musel při portování jednoho svého programu z Linuxu na Windows přepsat volání externích utilit na používání knihoven, protože to, co Linuxu běžel celkem slušně, bylo ve Windows nepoužitelně pomalé - rozdíl v rychlostech byl téměř o řád a většinu zátěže spotřebovalo spouštění oněch externích utlilit (užívaných jako "filtry" na načítání vstupních a ukládání výstupních obrázků).
Tisk bez diskuzetak dostanes cely clanek...
Asi tolik ke slavne virtualizaci 


