Hodnota Bitcoinu, decentralizované kryptoměny klesla pod 70 000 dolarů (1,44 milionu korun).
Valve z důvodu nedostatku pamětí a úložišť přehodnocuje plán na vydání zařízení Steam Controller, Steam Machine a Steam Frame: "Cílem tedy stále zůstává vydat všechna tři nová zařízení v první polovině letošního roku, ale přesná data a ceny jsou dvě věci, na kterých usilovně pracujeme a jsme si dobře vědomi toho, jak rychle se v tomto ohledu může vše změnit. Takže ač dnes žádné zveřejnitelné údaje nemáme, hned jak plány finalizujeme, budeme Vás informovat."
Do 20. února lze hlasovat pro wallpapery pro Ubuntu 26.04 s kódovým názvem Resolute Raccoon.
Byla vydána lednová aktualizace aneb nová verze 1.109 editoru zdrojových kódů Visual Studio Code (Wikipedie). Přehled novinek i s náhledy a videi v poznámkách k vydání. Ve verzi 1.109 vyjde také VSCodium, tj. komunitní sestavení Visual Studia Code bez telemetrie a licenčních podmínek Microsoftu.
Na Kickstarteru běží kampaň na podporu modulárního otevřeného handheldu Mecha Comet s Linuxem.
V nedávno zveřejněné kolekci dokumentů souvisejících s kontroverzním finančníkem a kuplířem Jeffrey Epsteinem se překvapivě objevil i referenční manuál unixového shellu Bash, jedná se o verzi manuálu z roku 2005. Aktuální vydání si lze stáhnout ze stránek GNU.
The Document Foundation oznámila vydání nové verze 26.2 svobodného kancelářského balíku LibreOffice. Podrobný přehled nových vlastností i s náhledy v poznámkách k vydání (cs). Vypíchnout lze podporu formátu Markdown.
Co se děje ve zprávách, ví asi každý - válka sem, clo tam, demonstrace na jednu i druhou stranu a bastlíř už má pocit, že se snad ani nic jiného neděje. To by však byl velký omyl a Virtuální Bastlírna je zde jako každý měsíc, aby vytáhla na světlo světa události ze světa vědy a techniky. Připojte se tedy nezávaznému povídání Strahovského MacGyvera! Co se tam bude probírat? PCBWay začalo dělat průhledné plošňáky, MARS končí s výrobou skříněk, FEL
… více »Guvernérka státu New York Kathy Hochul (Demokraté) plánuje novou legislativu, která by měla omezit výrobu 3D tištěných zbraní. Tento návrh zákona zavádí povinnost pro všechny 3D tiskárny prodávané ve státě New York obsahovat 'software' bránící ve výrobě zbraní. Návrh zákona rovněž zakazuje lidem sdílet 'digitální plány zbraní' (blueprinty) bez povolení. Existují důvodné obavy, že se tento nešťastný nápad může šířit do dalších zemí a ovlivnit celý 3D tisk jako takový. Ostatně, s podobnou regulací nedávno přišel i stát Washington.
Na čem pracují vývojáři webového prohlížeče Ladybird (GitHub)? Byl publikován přehled vývoje za prosinec 2025 a leden 2026 (YouTube). Zajímavé, že i v roce 2026 celou řadu problémů vyřeší falšování řetězce User-Agent.
Hlavní problém je v tom, že herní servery generují dost trafficu
Většina ne.
No, o CS:S serverech jsem slyšel, že geerují hodně trafficu, CS 1.6 nevím. Každopádně u ničeho jinýho jsem si toho nevšiml 
Třeba mně tam běží veřejný Sauerbraten server a ten nežere skoro vůbec – viz svickova.frantovo.cz – kdybyste si chtěl někdo zahrát, tak napište na jabber.
ty se tam nepřihlásíš? já žádné heslo nezadávám a občas si tam i s někým zahraju 
Asi bychom časem měli umístit jeden server do serverovny s neomezenými přenosy – pro tyhle případy – ať si pak lidi vyberou, jestli chtějí kvalitu a budou se držet trochu na uzdě, nebo chtějí neomezené přenosy a nevadí, že budou občas výpadky nebo problémy. Pak je tu ještě třetí možnost – neomezené přenosy a vysoká kvalita – myslím, že pokud to někdo zaplatí, není problém něco takového zorganizovat pod křídly našeho sdružení – ovšem cena se odvíjí od nabídky datacenter a s tím nic nenaděláme.
Člověče, to vám výměna jádra dá vždycky tak zabrat?
Vždyť se prostě uvaří nové jádro, potřebné soubory se překopírují do /boot a až když je vše připraveno, tak se zavaděči řekne, ať pro tentokrát natáhne nové jádro. Pak dáme reboot a obvykle naběhne nové jádro (aby ne, když se používá oldconfig). Záležitost nejvýše dvou minut. Když se něco pokazí, tak stačí reset a najede starý systém a pak si může člověk v klidu rozmyslet, co udělal špatně. Po úspěšném bootu pak ještě zbývá kontrola, že vše, co má, běží, ale to už nemá vliv na dostupnost služeb. Po nějaké době (hodiny, dny), kdy je stabilita nového jádra prověřena, se v konfiguraci zavaděče přesune nové jádro do výchozí polohy a tím upgradovací cyklus končí.
.
.
. Jen tak dál v dobře započaté práci.
> V takovém případě ale stačilo na power switchi odpojit na chvíli napájení a server by nabootoval do starého jádra.
Pokud to mas tak v GRUBu nastavene.
Ale šikovně se ty stvůry maskujou. Jen je vám pak divný, když bash dělá TCP spojení...
. Zde je velmi tlustá čára oddělující servery a PC.
A když už začneš na koleně stavět server ze serverových komponent, tak velmi rychle zjistíš, že je to lepší koupit od profíků jako celek. Oni to testují, ladí výkonnost. PC jsou optimalizováné pro jeden thread (bohužel i CPU i7 - turbo režim - a to jsem se těšil, že se konečně programátoři naučí používat vlákna), server je celkově stavěn pro multiprocesový přístup. Dále tu je SW s HCL. Dát ESX na takový HW z jejich seznamu je hračka, najdeš na to spousty rad (které v konečném důsledku ani nepotřebuješ, protože to je testované), když něco neklapne (včetně podpory od výrobce).
Máš ovšem velikou pravdu, že kvalitní komponenty (nebo přesněji komponenty, které nejsou úplný šunt) se shánějí setsakra těžko. To, co se prodává v běžných obchodech, je často totální vylevněný šunt vhodný jedině na smetiště. Kromě toho je nutné myslet na to, aby to spolu dokázalo rozumně spolupracovat a aby se to vůbec vešlo do bedny (na to jsem si několikrát hnusně naběhl).
Suma sumárum, koupí značkového stroje si člověk ušetří fůru běhání a nervů, ale o vyšší kvalitě bych si nedělal iluze - pokud nejdeš do velkého serveru, který je drahý jako svině.
Zálohovat, zálohovat, zálohovat, to je heslo dne.
Přiznám, že tady bych asi měl těžké dilema.
Okamžitý výdaj bude určitě menší, když člověk navrhne jednu sestavu a koupí tutéž dvacetkrát plus daný počet náhradních dílů. Poměr cena/výkon bude také určitě lepší než u dvaceti ekvivalentních značkových strojů.
Ale: u takové farmičky už obvykle hraje velkou roli i to, jak rychle se to podaří opravit a nahodit, a se značkovými servery většinou přichází i lepší záruka. Ale zase až s těmi dražšími, u těch levných je to stejně bída.
Je otázka, jestli by se v takovém případě nevyplatilo koupit menší počet velkých, drahých serverů, které mívají jak velký výkon, tak profesionální záruku a servis.
Dokonce jsem se vás chystal zeptat, jaké řešení plánujete pro tu "online migraci".
Tohle jsem taky řešil, a použitelně vypadá snad už jen DRBD. Zdá se mi dost ověřený a funkční, na vlastní testování se teprve chystám. Jinak pár lidí tady už psalo, že s tím mají velmi dobré zkušenosti. Já mám pořád strach, že když něco takové zprovozním, budu se nejvíc bát aby se to nerozpadlo (stav split-brain, když si každý uzel myslí, že ten druhý spadnul).
Nad DRBD může být normálně Ext3 - pak může být FS připojen jen na jednom z uzlů. Nebo nějaký clusterový FS, třeba OCFS2 nebo GFS - pak můžete zapisovat z obou uzlů DRBD zároveň. Nebo lze mít nad DRBD svazkem clustered LVM pro Xen virtuální disky, pak lze dělat i živou migraci Xen guestů mezi fyzickými stroji.
Online migraci řeší OpenVZ utilitka vzmigrate. Nejdřív sesyncne (přes ssh) stav virtuálů (rootfs, context - paměť, stav v jádře atd.) a pak jednoduše "přepne" mezi HW servery. Pravda je, že úspěšnost online migrace není 100%. To jsem ve vpsAdminu vyřešil fallbackem na offline migraci.
DRBD se mi osobně moc nezdá, jednak je to moc v kernelu, to má nic-moc výkon a je to nestabilní (aspoň co jsem to zkoušel naposled). Navíc to neumí pravej multimaster pro víc než 2 nody. Takže jediný řešení vidím v GlusterFS 2.
Online migraci řeší OpenVZ utilitka vzmigrate. Nejdřív sesyncne (přes ssh) stav virtuálů (rootfs, context - paměť, stav v jádře atd.) a pak jednoduše "přepne" mezi HW servery.
Hmm, tak to je docela pěkné.
K DRBD se dají najít informace o seriózním a stabilním nasazení, problémy s výkonem by neměly být zásadní (je samozřejmě nutné propojení Gb ethernetem, popř. více Gb rozhraní v trunku). Ale je pravda, že to bude citlivé na verzi jádra + verzi DRBD modulů, bude to chtít trochu ladění nebo zjistit ověřenou konfiguraci a moc na to nesahat. Pro víc než 2 stroje to taky není. Jako možné řešení bych viděl 2× storage server s výkonným s mnoha disky v HW RAIDu + replikace přes DRBD, podívejte se na distribuci OpenFiler, tam údajně iSCSI a DRBD funguje bezvadně. A k tomu hromadu serverů, na kterých poběží OpenVZ virtuální servery. Propojení přes iSCSI a nad tím GFS. Obecně bych asi čekal, že clusterové věci budou vyladěné v enterprise distribucích, při použití skoro-poslední verze jádra asi lze čekat problémy...
Až budete mít plný rack, můžete uvažovat o nějakém diskovém poli s iSCSI rozhraním.
Glusterfs vypadá hodně zajímavě, ale mě tam chybí podpora uživatelských kvót a ACL.
Glusterfs vypadá hodně zajímavě, ale mě tam chybí podpora uživatelských kvót a ACL.Tak to potom AFS nebo Lustre.
AFS – pokud myslíte Andrew File System, tak tam pokud vím ani replikace dat není. Je možné mít data ve více kopiích, ale jen jedna je RW, ostatní jen pro čtení. Nutnou součástí je Kerberos autentizace. Kouzlo AFS je v něčem jiném - je to globální filesystem, používá se v prostředí s desítkami tisíc uživatelů - např. univerzity (určitě na ZČU, jako hlavní síťový FS), CERN. Tady si vlastnostmi nejsem úplně jistý, ale pro tohle použití to není vhodná věc. AFS je distribuovaný - tj. data v rámci jedné adresářové struktury lze mít transparentně uložená na různých serverech.
Lustre – co jsem našel, tak je to pro clustery se stovkami až tisíci stroji, nic moc vhodného pro 3 servery.
viz http://en.wikipedia.org/wiki/Replication_(computer_science)#Disk_storage_replication
ad AFS - nevěděl jsem. ad Lustre - no, je pravda že to je kapku overkill pro 3 stroje
Smutnou pravdou je, že současnej stav není ideální ani u jednoho FS / replikačního cluster řešení. Ona to asi není žádná sranda to odladit tak, aby to jelo výkonně a spolehlivě.
Každopádně GlusterFS se hodí tam, kde není potřeba dělat psí kusy -> takže záloha, sdílená data pro nějakou aplikaci a podobně. Rootfs VPS na to stejně nejde umístit, to lze (u openvz) jenom na ext2/3.
S tím zhodnocením situace souhlasím. Holt kdo potřebuje takový výkon a spolehlivost, obvykle má prostředky i na pořízení nějakého plně HW řešení replikace, nebo alespoň diskového pole s redundantními řadiči a propojením k serverům. Software řešení na normálním HW stejně bude mít vždycky značné limity ve výkonnosti, takže po vývoji něčeho takového nebude až tak velká poptávka.
Pro méně náročné situace myslím stačí ten GlusterFS nebo DRBD, kde se zřejmě dá postavit spolehlivé řešení, i když ne úplně ideální a podle všech představ (poslední kernel etc.).
Jinak k takovéhle diskusi by měla sloužit i skupina Virtualizace (uvažovalo se snad o doplnění názvu + High Availability), kde si toho spíš někdo všimne. Určitě tam jsou lidé, kteří by k tomu měli co říct. Zkuste položit dotaz i tam.
Mate to nejak pravidelne zalohovane? O necem takovem uvazuji pro osobni/komercni repozitar, ale bez zaloh bych do toho nesel.
No bolo by super keby alpha zalohovala betu navzajom (to najdolezitejsie) + nejake zalohy na 3. cisto backup server ...
Takže hromadu pásek, páskovou knihovnu a ohnivzdorný trezor na jiné lokalitě.
.
Hele, neber to moje rýpání moc osobně. Ono je fakt lepší, když si člověk nabije čumák sám a přijde na to, že to měl dělat jinak.
Já koncem minulého roku moc potřeboval server na páteři a chtěl jsem pořídit HP ProLiant DL380 G5 a na to nasadit ESX(i). Skončilo to na čem? No na penězích. Ty máš odvahu a čas vzít rachotinu a odvést to na housing a nasadit tam něco co potřebuje patch do kernelu. I to se cení.
Nevim, jak OpenVZ funguje, jestli mate pristup do filesystemu virtualu, ale pokud jo, tak by mozna bylo nejlepsi zaloha: zakaznik nadefinuje adresare a ty se zalohuji. Precijen zalohovat cele virtualy muze byt prostorove celkem narocne...
Zase když jsou zálohy v režii zákazníka, tak si sám může vytáhnout třeba smazané soubory nebo přepsané konfiguráky ze zálohy – když se zálohuje všechno najednou, tak je to opruz, který musí dělat správce centrálního serveru. Docela zajímavý by byl solaris a jeho ZFS snapshoty – možná až budeme dělat další server…
solaris a jeho ZFS snapshoty
A nebo taky FreeBSD...
Jen malý dotaz: jakou máte dostupnost?
Já se neptal na to, co vysype minun na základě historie, ale co garantuje občanské sdružení nebo čeho by chtěli administrátoři dosáhnout. 
Neměří to minun ale nezávislý měřák 
Čeho bychom chtěli dosáhnout? Co garantujeme? Ale no tak, naslibovat se dá cokoli, důležité jsou výsledky
Chceš čtyři devitky, nebo víc, 100%? Slíbit můžeme cokoli, ale pokud chceš SLA a smluvní pokuty pokud nebude dodržená požadovaná dostupnost… budeš muset zvolit komerční dražší hosting. Pro dostupnost děláme to nejlepší, co umíme, ostatně, běží na tom i naše stroje.
Tiskni
Sdílej: