Proběhla hackerská soutěž Pwn2Own Ireland 2025. Celkově bylo vyplaceno 1 024 750 dolarů za 73 unikátních zranitelností nultého dne (0-day). Vítězný Summoning Team si odnesl 187 500 dolarů. Shrnutí po jednotlivých dnech na blogu Zero Day Initiative (1. den, 2. den a 3. den) a na YouTube.
Byl publikován říjnový přehled dění a novinek z vývoje Asahi Linuxu, tj. Linuxu pro Apple Silicon. Pracuje se na podpoře M3. Zanedlouho vyjde Fedora Asahi Remix 43. Vývojáře lze podpořit na Open Collective a GitHub Sponsors.
Iniciativa Open Device Partnership (ODP) nedávno představila projekt Patina. Jedná se o implementaci UEFI firmwaru v Rustu. Vývoj probíhá na GitHubu. Zdrojové kódy jsou k dispozici pod licencí Apache 2.0. Nejnovější verze Patiny je 13.0.0.
Obrovská poptávka po plynových turbínách zapříčinila, že datová centra začala používat v generátorech dodávajících energii pro provoz AI staré dobré proudové letecké motory, konvertované na plyn. Jejich výhodou je, že jsou menší, lehčí a lépe udržovatelné než jejich průmyslové protějšky. Proto jsou ideální pro dočasné nebo mobilní použití.
Typst byl vydán ve verzi 0.14. Jedná se o rozšiřitelný značkovací jazyk a překladač pro vytváření dokumentů včetně odborných textů s matematickými vzorci, diagramy či bibliografií.
Specialisté společnosti ESET zaznamenali útočnou kampaň, která cílí na uživatele a uživatelky v Česku a na Slovensku. Útočníci po telefonu zmanipulují oběť ke stažení falešné aplikace údajně od České národní banky (ČNB) nebo Národní banky Slovenska (NBS), přiložení platební karty k telefonu a zadání PINu. Malware poté v reálném čase přenese data z karty útočníkovi, který je bezkontaktně zneužije u bankomatu nebo na platebním terminálu.
V Ubuntu 25.10 byl balíček základních nástrojů gnu-coreutils nahrazen balíčkem rust-coreutils se základními nástroji přepsanými do Rustu. Ukázalo se, že nový "date" znefunkčnil automatickou aktualizaci. Pro obnovu je nutno balíček rust-coreutils manuálně aktualizovat.
VST 3 je nově pod licencí MIT. S verzí 3.8.0 proběhlo přelicencování zdrojových kódů z licencí "Proprietary Steinberg VST3 License" a "General Public License (GPL) Version 3". VST (Virtual Studio Technology, Wikipedie) je softwarové rozhraní pro komunikaci mezi hostitelským programem a zásuvnými moduly (pluginy), kde tyto moduly slouží ke generování a úpravě digitálního audio signálu.
Open source 3D herní a simulační engine Open 3D Engine (O3DE) byl vydán v nové verzi 25.10. Podrobný přehled novinek v poznámkách k vydání.
V Londýně probíhá dvoudenní Ubuntu Summit 25.10. Na programu je řada zajímavých přednášek. Zhlédnout je lze také na YouTube (23. 10. a 24. 10.).
Hlavní problém je v tom, že herní servery generují dost trafficu
Většina ne.
No, o CS:S serverech jsem slyšel, že geerují hodně trafficu, CS 1.6 nevím. Každopádně u ničeho jinýho jsem si toho nevšiml 
Třeba mně tam běží veřejný Sauerbraten server a ten nežere skoro vůbec – viz svickova.frantovo.cz – kdybyste si chtěl někdo zahrát, tak napište na jabber.
ty se tam nepřihlásíš? já žádné heslo nezadávám a občas si tam i s někým zahraju 
Asi bychom časem měli umístit jeden server do serverovny s neomezenými přenosy – pro tyhle případy – ať si pak lidi vyberou, jestli chtějí kvalitu a budou se držet trochu na uzdě, nebo chtějí neomezené přenosy a nevadí, že budou občas výpadky nebo problémy. Pak je tu ještě třetí možnost – neomezené přenosy a vysoká kvalita – myslím, že pokud to někdo zaplatí, není problém něco takového zorganizovat pod křídly našeho sdružení – ovšem cena se odvíjí od nabídky datacenter a s tím nic nenaděláme.
Člověče, to vám výměna jádra dá vždycky tak zabrat?
Vždyť se prostě uvaří nové jádro, potřebné soubory se překopírují do /boot a až když je vše připraveno, tak se zavaděči řekne, ať pro tentokrát natáhne nové jádro. Pak dáme reboot a obvykle naběhne nové jádro (aby ne, když se používá oldconfig). Záležitost nejvýše dvou minut. Když se něco pokazí, tak stačí reset a najede starý systém a pak si může člověk v klidu rozmyslet, co udělal špatně. Po úspěšném bootu pak ještě zbývá kontrola, že vše, co má, běží, ale to už nemá vliv na dostupnost služeb. Po nějaké době (hodiny, dny), kdy je stabilita nového jádra prověřena, se v konfiguraci zavaděče přesune nové jádro do výchozí polohy a tím upgradovací cyklus končí.
.
.
. Jen tak dál v dobře započaté práci.
> V takovém případě ale stačilo na power switchi odpojit na chvíli napájení a server by nabootoval do starého jádra.
Pokud to mas tak v GRUBu nastavene.
Ale šikovně se ty stvůry maskujou. Jen je vám pak divný, když bash dělá TCP spojení...
. Zde je velmi tlustá čára oddělující servery a PC.
A když už začneš na koleně stavět server ze serverových komponent, tak velmi rychle zjistíš, že je to lepší koupit od profíků jako celek. Oni to testují, ladí výkonnost. PC jsou optimalizováné pro jeden thread (bohužel i CPU i7 - turbo režim - a to jsem se těšil, že se konečně programátoři naučí používat vlákna), server je celkově stavěn pro multiprocesový přístup. Dále tu je SW s HCL. Dát ESX na takový HW z jejich seznamu je hračka, najdeš na to spousty rad (které v konečném důsledku ani nepotřebuješ, protože to je testované), když něco neklapne (včetně podpory od výrobce).
Máš ovšem velikou pravdu, že kvalitní komponenty (nebo přesněji komponenty, které nejsou úplný šunt) se shánějí setsakra těžko. To, co se prodává v běžných obchodech, je často totální vylevněný šunt vhodný jedině na smetiště. Kromě toho je nutné myslet na to, aby to spolu dokázalo rozumně spolupracovat a aby se to vůbec vešlo do bedny (na to jsem si několikrát hnusně naběhl).
Suma sumárum, koupí značkového stroje si člověk ušetří fůru běhání a nervů, ale o vyšší kvalitě bych si nedělal iluze - pokud nejdeš do velkého serveru, který je drahý jako svině.
Zálohovat, zálohovat, zálohovat, to je heslo dne.
Přiznám, že tady bych asi měl těžké dilema.
Okamžitý výdaj bude určitě menší, když člověk navrhne jednu sestavu a koupí tutéž dvacetkrát plus daný počet náhradních dílů. Poměr cena/výkon bude také určitě lepší než u dvaceti ekvivalentních značkových strojů.
Ale: u takové farmičky už obvykle hraje velkou roli i to, jak rychle se to podaří opravit a nahodit, a se značkovými servery většinou přichází i lepší záruka. Ale zase až s těmi dražšími, u těch levných je to stejně bída.
Je otázka, jestli by se v takovém případě nevyplatilo koupit menší počet velkých, drahých serverů, které mívají jak velký výkon, tak profesionální záruku a servis.
Dokonce jsem se vás chystal zeptat, jaké řešení plánujete pro tu "online migraci".
Tohle jsem taky řešil, a použitelně vypadá snad už jen DRBD. Zdá se mi dost ověřený a funkční, na vlastní testování se teprve chystám. Jinak pár lidí tady už psalo, že s tím mají velmi dobré zkušenosti. Já mám pořád strach, že když něco takové zprovozním, budu se nejvíc bát aby se to nerozpadlo (stav split-brain, když si každý uzel myslí, že ten druhý spadnul).
Nad DRBD může být normálně Ext3 - pak může být FS připojen jen na jednom z uzlů. Nebo nějaký clusterový FS, třeba OCFS2 nebo GFS - pak můžete zapisovat z obou uzlů DRBD zároveň. Nebo lze mít nad DRBD svazkem clustered LVM pro Xen virtuální disky, pak lze dělat i živou migraci Xen guestů mezi fyzickými stroji.
Online migraci řeší OpenVZ utilitka vzmigrate. Nejdřív sesyncne (přes ssh) stav virtuálů (rootfs, context - paměť, stav v jádře atd.) a pak jednoduše "přepne" mezi HW servery. Pravda je, že úspěšnost online migrace není 100%. To jsem ve vpsAdminu vyřešil fallbackem na offline migraci.
DRBD se mi osobně moc nezdá, jednak je to moc v kernelu, to má nic-moc výkon a je to nestabilní (aspoň co jsem to zkoušel naposled). Navíc to neumí pravej multimaster pro víc než 2 nody. Takže jediný řešení vidím v GlusterFS 2.
Online migraci řeší OpenVZ utilitka vzmigrate. Nejdřív sesyncne (přes ssh) stav virtuálů (rootfs, context - paměť, stav v jádře atd.) a pak jednoduše "přepne" mezi HW servery.
Hmm, tak to je docela pěkné.
K DRBD se dají najít informace o seriózním a stabilním nasazení, problémy s výkonem by neměly být zásadní (je samozřejmě nutné propojení Gb ethernetem, popř. více Gb rozhraní v trunku). Ale je pravda, že to bude citlivé na verzi jádra + verzi DRBD modulů, bude to chtít trochu ladění nebo zjistit ověřenou konfiguraci a moc na to nesahat. Pro víc než 2 stroje to taky není. Jako možné řešení bych viděl 2× storage server s výkonným s mnoha disky v HW RAIDu + replikace přes DRBD, podívejte se na distribuci OpenFiler, tam údajně iSCSI a DRBD funguje bezvadně. A k tomu hromadu serverů, na kterých poběží OpenVZ virtuální servery. Propojení přes iSCSI a nad tím GFS. Obecně bych asi čekal, že clusterové věci budou vyladěné v enterprise distribucích, při použití skoro-poslední verze jádra asi lze čekat problémy...
Až budete mít plný rack, můžete uvažovat o nějakém diskovém poli s iSCSI rozhraním.
Glusterfs vypadá hodně zajímavě, ale mě tam chybí podpora uživatelských kvót a ACL.
Glusterfs vypadá hodně zajímavě, ale mě tam chybí podpora uživatelských kvót a ACL.Tak to potom AFS nebo Lustre.
AFS – pokud myslíte Andrew File System, tak tam pokud vím ani replikace dat není. Je možné mít data ve více kopiích, ale jen jedna je RW, ostatní jen pro čtení. Nutnou součástí je Kerberos autentizace. Kouzlo AFS je v něčem jiném - je to globální filesystem, používá se v prostředí s desítkami tisíc uživatelů - např. univerzity (určitě na ZČU, jako hlavní síťový FS), CERN. Tady si vlastnostmi nejsem úplně jistý, ale pro tohle použití to není vhodná věc. AFS je distribuovaný - tj. data v rámci jedné adresářové struktury lze mít transparentně uložená na různých serverech.
Lustre – co jsem našel, tak je to pro clustery se stovkami až tisíci stroji, nic moc vhodného pro 3 servery.
viz http://en.wikipedia.org/wiki/Replication_(computer_science)#Disk_storage_replication
ad AFS - nevěděl jsem. ad Lustre - no, je pravda že to je kapku overkill pro 3 stroje
Smutnou pravdou je, že současnej stav není ideální ani u jednoho FS / replikačního cluster řešení. Ona to asi není žádná sranda to odladit tak, aby to jelo výkonně a spolehlivě.
Každopádně GlusterFS se hodí tam, kde není potřeba dělat psí kusy -> takže záloha, sdílená data pro nějakou aplikaci a podobně. Rootfs VPS na to stejně nejde umístit, to lze (u openvz) jenom na ext2/3.
S tím zhodnocením situace souhlasím. Holt kdo potřebuje takový výkon a spolehlivost, obvykle má prostředky i na pořízení nějakého plně HW řešení replikace, nebo alespoň diskového pole s redundantními řadiči a propojením k serverům. Software řešení na normálním HW stejně bude mít vždycky značné limity ve výkonnosti, takže po vývoji něčeho takového nebude až tak velká poptávka.
Pro méně náročné situace myslím stačí ten GlusterFS nebo DRBD, kde se zřejmě dá postavit spolehlivé řešení, i když ne úplně ideální a podle všech představ (poslední kernel etc.).
Jinak k takovéhle diskusi by měla sloužit i skupina Virtualizace (uvažovalo se snad o doplnění názvu + High Availability), kde si toho spíš někdo všimne. Určitě tam jsou lidé, kteří by k tomu měli co říct. Zkuste položit dotaz i tam.
Mate to nejak pravidelne zalohovane? O necem takovem uvazuji pro osobni/komercni repozitar, ale bez zaloh bych do toho nesel.
No bolo by super keby alpha zalohovala betu navzajom (to najdolezitejsie) + nejake zalohy na 3. cisto backup server ...
Takže hromadu pásek, páskovou knihovnu a ohnivzdorný trezor na jiné lokalitě.
.
Hele, neber to moje rýpání moc osobně. Ono je fakt lepší, když si člověk nabije čumák sám a přijde na to, že to měl dělat jinak.
Já koncem minulého roku moc potřeboval server na páteři a chtěl jsem pořídit HP ProLiant DL380 G5 a na to nasadit ESX(i). Skončilo to na čem? No na penězích. Ty máš odvahu a čas vzít rachotinu a odvést to na housing a nasadit tam něco co potřebuje patch do kernelu. I to se cení.
Nevim, jak OpenVZ funguje, jestli mate pristup do filesystemu virtualu, ale pokud jo, tak by mozna bylo nejlepsi zaloha: zakaznik nadefinuje adresare a ty se zalohuji. Precijen zalohovat cele virtualy muze byt prostorove celkem narocne...
Zase když jsou zálohy v režii zákazníka, tak si sám může vytáhnout třeba smazané soubory nebo přepsané konfiguráky ze zálohy – když se zálohuje všechno najednou, tak je to opruz, který musí dělat správce centrálního serveru. Docela zajímavý by byl solaris a jeho ZFS snapshoty – možná až budeme dělat další server…
solaris a jeho ZFS snapshoty
A nebo taky FreeBSD...
Jen malý dotaz: jakou máte dostupnost?
Já se neptal na to, co vysype minun na základě historie, ale co garantuje občanské sdružení nebo čeho by chtěli administrátoři dosáhnout. 
Neměří to minun ale nezávislý měřák 
Čeho bychom chtěli dosáhnout? Co garantujeme? Ale no tak, naslibovat se dá cokoli, důležité jsou výsledky
Chceš čtyři devitky, nebo víc, 100%? Slíbit můžeme cokoli, ale pokud chceš SLA a smluvní pokuty pokud nebude dodržená požadovaná dostupnost… budeš muset zvolit komerční dražší hosting. Pro dostupnost děláme to nejlepší, co umíme, ostatně, běží na tom i naše stroje.
Tiskni
Sdílej: