Byla vydána beta verze openSUSE Leap 16. Ve výchozím nastavení s novým instalátorem Agama.
Devadesátková hra Brány Skeldalu prošla portací a je dostupná na platformě Steam. Vyšel i parádní blog autora o portaci na moderní systémy a platformy včetně Linuxu.
Lidi dělají divné věci. Například spouští Linux v Excelu. Využít je emulátor RISC-V mini-rv32ima sestavený jako knihovna DLL, která je volaná z makra VBA (Visual Basic for Applications).
Revolut nabídne neomezený mobilní tarif za 12,50 eur (312 Kč). Aktuálně startuje ve Velké Británii a Německu.
Společnost Amazon miliardáře Jeffa Bezose vypustila na oběžnou dráhu první várku družic svého projektu Kuiper, který má z vesmíru poskytovat vysokorychlostní internetové připojení po celém světě a snažit se konkurovat nyní dominantnímu Starlinku nejbohatšího muže planety Elona Muska.
Poslední aktualizací začal model GPT-4o uživatelům příliš podlézat. OpenAI jej tak vrátila k předchozí verzi.
Google Chrome 136 byl prohlášen za stabilní. Nejnovější stabilní verze 136.0.7103.59 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 8 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře.
Homebrew (Wikipedie), správce balíčků pro macOS a od verze 2.0.0 také pro Linux, byl vydán ve verzi 4.5.0. Na stránce Homebrew Formulae lze procházet seznamem balíčků. K dispozici jsou také různé statistiky.
Byl vydán Mozilla Firefox 138.0. Přehled novinek v poznámkách k vydání a poznámkách k vydání pro vývojáře. Řešeny jsou rovněž bezpečnostní chyby. Nový Firefox 138 je již k dispozici také na Flathubu a Snapcraftu.
Šestnáctý ročník ne-konference jOpenSpace se koná 3. – 5. října 2025 v Hotelu Antoň v Telči. Pro účast je potřeba vyplnit registrační formulář. Ne-konference neznamená, že se organizátorům nechce připravovat program, ale naopak dává prostor všem pozvaným, aby si program sami složili z toho nejzajímavějšího, čím se v poslední době zabývají nebo co je oslovilo. Obsah, který vytvářejí všichni účastníci, se skládá z desetiminutových
… více »Výkon při využívání těchto systémových prostředků současně byl testován rozbalením zdrojových kódů jádra. Zdrojové kódy byly rozbalovány desetkrát po sobě, každá kopie do samostatného adresáře. Pomocí time bylo měřeno, za jak dlouho se rozbalování dokončí.
Testovací proces byl postupně spuštěn na hostiteli2, na jednom KVM 1/1 hostu a jednom Xen 1/1 hostu. Ve všech případech byl test třikrát opakován.
Hostitel | KVM 1/1 | Xen 1/1 | |
---|---|---|---|
minimum | 5 m 10,147 s | 2 m 50,257 s (-45,1 %) | 4 m 54,941 s (-4,9 %) |
průměr | 5 m 11,105 s | 2 m 52,423 s (-44,6 %) | 4 m 56,981 s (-4,5 %) |
maximum | 5 m 12,231 s | 2 m 55,511 s (-43,8 %) | 4 m 58,776 s (-4,3 %) |
Test byl spuštěn sedmkrát paralelně na hostiteli, na sedmi KVM 1/1 hostech a sedmi Xen 1/1 hostech. Test byl třikrát opakován.
Hostitel | KVM 1/1 | Xen 1/1 | |
---|---|---|---|
minimum | 26 m 17,560 s | 22 m 45,506 s (-13,4 %) | 44 m 47,015 s (+70,3 %) |
průměr | 38 m 43,156 s | 71 m 57,967 s (+85,9 %) | 50 m 55,523 s (+31,5 %) |
maximum | 46 m 25,065 s | 137 m 40,253 s (+196,6 %) | 57 m 53,668 s (+24,7 %) |
Práce s diskem je naopak pro virtualizované prostředí poměrně problematická zátěž – většina práce sestává z operací s virtualizovaným hardwarem, které je nutné „přeložit“ pro hardware skutečný – to se v tomto testu také ukázalo. Samotné rozbalování nebylo příliš náročné na CPU a zátěž se tak v podstatě skládala ze zápisů mnoha souborů na disk3.
Poměrně překvapující je proto výsledek virtuálních strojů 1/1, které při samostatném běhu rozbalování zdrojových kódu jádra dosáhly kratšího času než samotný hostitel, KVM dokonce výrazně kratšího. S největší pravděpodobností je to důsledek ukládání zapisovaných dat do paměti se zpožďováním skutečného zápisu na disk.
Při paralelním běhu byl výkon KVM podstatně horší. Zatímco Xen si s paralelním rozbalováním poradil poměrně dobře, testovací běh KVM způsobil velké přetížení hostitelského systému – při vzdálené práci přes SSH byla odezva na stisk klávesy řádově několik vteřin a v dmesg se objevovala hlášení typu
BUG: soft lockup – CPU#0 stuck for 135s! [kswapd0:179] INFO: task pdflush:1648 blocked for more than 120 seconds.
a podobná. Oproti Xenu také trvalo déle úlohu zpracovat.
Poznámka – zatímco Xen u této úlohy při každém běhu podával víceméně stejné výkony, KVM z nějakého důvodu podávalo při každém běhu různé – při jednom běhu dosáhlo všech sedm hostitelů času okolo půl hodiny, při jiném naopak všem hostům trvalo zpracování stejného testu hodiny dvě. Pokud někoho napadne, čím by to mohlo být způsobeno, nechť dá vědět v diskuzi.
K dobru je zde KVM možné přičíst to, že po dokončení testů se situace vrátila do normálního stavu, s hostitelem i hosty bylo možné normálně pracovat a žádný host nezhavaroval. Také je zde vhodné uvážit, že takováto zátěž, kdyby měla být provozována v produkčním prostředí, by si zasluhovala více než jeden fyzický stroj.
2 Ve všech případech, kdy se na hostiteli testuje úloha využívající souborový systém, je tento souborový systém vytvořen na LVM oddílu. V případě, že na hostiteli běží několik testů paralelně, je na LVM vytvořeno tolik oddílů, kolik úloh běží.
3 To s sebou hlavně při paralelním běhu testovacích úloh navíc přináší nutnost neustále měnit polohu hlaviček disku, což se podepisuje na výkonu i při běhu na hostiteli.
Nástroje: Tisk bez diskuse
Tiskni
Sdílej:
Ano, to je velice nepříjemná věc v debianu (u mě squeeze) - musí se instalovat balík "qemu-kvm", protože balíček "kvm" je VELICE a značně zastaralý, způsobuje výkonnostní anomálie, padání guestů, ...
Prvne diky moc za clanek.
Kdyby na to nekdy byla chut, tak bych moc rad videl aspon zakladni porovnani behu widli na Xen a KVMku. Sam jsem si hral s Win 2k3 serverem a na obojim se chova proti Linuxu mnohem hur. Na Xenu widle doslova staly na miste kvuli desivejm odezvam. Na KVM to bylo lepsi, ale zase se dost desne chovaly disky.
Lidi, jakou mate zkusenost s virtualizaci widli? Zaslech jsem, ze velmi dobre chodi vmware server, ale zrovna nemam volnej HW na testovani.
Protože se KVM poměrně rychle vyvíjí, byla použita verze z Debianu Unstable – v té době nejnovější jádro 2.6.31 (balík linux-image-2.6.31-1-amd64) a kvm-85 (85+dfsg-4.1).Opravdu bylo použito poslední KVM? kvm-85 je poměrně starý balík. Aby nedošlo ke zmatení čtenářů... Sám používám na desktopu unstable a používám balík qemu-kvm, teď ve verzi 0.12.3+dfsg-4. V dokumentaci se lze dočíst v
/usr/share/doc/qemu-kvm/changelog.upstream-kvm.gz
, že tento balík je založen na kvm-88 [12 july 2009]. Sám jsem používal chvíli kvm-85 a měl problémy s virtualizovanými Windoze. Po čase jsem si všiml balíku qemu-kvm (s novějším KVM). V tom mě Windoze běžely o řád lépe (to už je tak 3/4 rok zpět). Tedy nevím kdy tyhle testy proběhly, ale o aktuálnosti user-space části KVM lze dost pochybovat?
No a co se týče XENu, tak ten je teď samozřejmě v kernelu 2.6.32 připravován pro Squeeze také zřejmě v novější podobě.
Nechtěl by si někdo dát práci a ty testy zopakovat? Opravdu bylo použito poslední KVM?V té době... je to cca půl roku, spíš víc, nechá se to odvodit i podle "nejnovějšího jádra" 2.6.31. Holt docela dlouho trvalo to sepsat.
qemu-kvm (0.11.0+dfsg-1) unstable; urgency=low * Package qemu-kvm (stable series) instead of kvm (snapshots) * Simplify the packaging, remove support for external module source * Move old debian/changelog to debian/changlog.kvm -- Jan Lübbe <jluebbe@debian.org> Mon, 02 Nov 2009 11:49:28 +0100Zrejme ty testy probehly jiz v roce 2009...
Bohuzel spatne dopadl test site a spousteni.Teď jsem ještě zkusil netperf -t TCP_STREAM mezi KVM Linux hostem (virtio síť) a fyzickým strojem (ne hostitelem) a vyšlo cca 920×10^6 b/s na gigové síťovce. Stejný fyzický stroj proti hostiteli dá 940, takže tu síť bych opravdu tak špatně neviděl. netperf AFAIK používají k benchmarkování i vývojáři jádra, takže špatným nástrojem to IMO taky nebude...
Zalostne taky dopadlo rekurzivni spousteni skriptu. Linux Host mel 1:25 (v minutach), XEN guest mel 1:34, windows xp host s cygwinem sam mel 20:31.Zatímco v Linuxu, jako ostatně ve většině unixů, jsou procesory "lehké" (light-weight) a jejich spouštění přes
fork()+exec()
relativně nenáročné, ve Windows jsou procesy relativně "těžkotonážní", fork()
není nativně v dispozici (Cygwin ho musí emulovat) a mnohem víc se využívají lehká vlákna. Pokud se na
Windows provozuje program silně používající unixový styl (např. právě ono rekurzivní spouštění skriptů), je logické, že výsledek dopadne takto žalostně.
Pamatuju si, jak jsem kdysi musel při portování jednoho svého programu z Linuxu na Windows přepsat volání externích utilit na používání knihoven, protože to, co Linuxu běžel celkem slušně, bylo ve Windows nepoužitelně pomalé - rozdíl v rychlostech byl téměř o řád a většinu zátěže spotřebovalo spouštění oněch externích utlilit (užívaných jako "filtry" na načítání vstupních a ukládání výstupních obrázků).
Tisk bez diskuzetak dostanes cely clanek...
Asi tolik ke slavne virtualizaci