Byla vydána nová verze 1.16.0 klienta a serveru VNC (Virtual Network Computing) s názvem TigerVNC (Wikipedie). Z novinek lze vypíchnout nový server w0vncserver pro sdílení Wayland desktopu. Zdrojové kódy jsou k dispozici na GitHubu. Binárky na SourceForge. TigerVNC je fork TightVNC.
Byla vydána nová verze 4.6 (𝕏, Bluesky, Mastodon) multiplatformního open source herního enginu Godot (Wikipedie, GitHub). Přehled novinek i s náhledy v příspěvku na blogu.
Rozsáhlá modernizace hardwarové infrastruktury Základních registrů měla zabránit výpadkům digitálních služeb státu. Dnešnímu výpadku nezabránila.
Čínský startup Kimi představil open-source model umělé inteligence Kimi K2.5. Nová verze pracuje s textem i obrázky a poskytuje 'paradigma samosměřovaného roje agentů' pro rychlejší vykonávání úkolů. Kimi zdůrazňuje vylepšenou schopnost modelu vytvářet zdrojové kódy přímo z přirozeného jazyka. Natrénovaný model je dostupný na Hugging Face, trénovací skripty však ne. Model má 1 T (bilion) parametrů, 32 B (miliard) aktivních.
V Raspberry Pi OS lze nově snadno povolit USB Gadget Mode a díky balíčku rpi-usb-gadget (CDC-ECM/RNDIS) mít možnost se k Raspberry Pi připojovat přes USB kabel bez nutnosti konfigurování Wi-Fi nebo Ethernetu. K podporovaným Raspberry Pi připojeným do USB portu podporujícího OTG.
Konference Installfest 2026 proběhne o víkendu 28. a 29. března v budově FELu na Karlově náměstí v Praze. Přihlásit přednášku nebo workshop týkající se Linuxu, otevřených technologií, sítí, bezpečnosti, vývoje, programování a podobně lze do 18. února 0:15.
Fedora Flock 2026, tj. konference pro přispěvatele a příznivce Fedory, bude opět v Praze. Proběhne od 14. do 16. června. Na Flock navazuje DevConf.CZ 2026, který se uskuteční 18. a 19. června v Brně. Organizátoři konferencí hledají přednášející, vyhlásili Call for Proposals (CfP).
Z80-μLM je jazykový model 'konverzační umělé inteligence' optimalizovaný pro běh na 8-bitovém 4Mhz procesoru Z80 s 64kB RAM, technologii z roku 1976. Model používá 2-bitovou kvantizaci a trigramové hashování do 128 položek, což umožňuje zpracování textu i při velmi omezené paměti. Natrénovaný model se vejde do binárního souboru velkého pouhých 40 KB. Tento jazykový model patrně neprojde Turingovým testem 😅.
Digitální a informační agentura (DIA) na přelomu roku dokončila rozsáhlou modernizaci hardwarové infrastruktury základních registrů. Projekt za 236 milionů korun by měl zabránit výpadkům digitálních služeb státu, tak jako při loňských parlamentních volbách. Základní registry, tedy Registr práv a povinností (RPP), Informační systém základních registrů (ISZR) a Registr obyvatel (ROB), jsou jedním z pilířů veřejné správy. Denně
… více »Evropská komise (EK) zahájila nové vyšetřování americké internetové platformy 𝕏 miliardáře Elona Muska, a to podle unijního nařízení o digitálních službách (DSA). Vyšetřování souvisí se skandálem, kdy chatbot s umělou inteligencí (AI) Grok na žádost uživatelů na síti 𝕏 generoval sexualizované fotografie žen a dětí. Komise o tom dnes informovala ve svém sdělení. Americký podnik je podezřelý, že řádně neposoudil a nezmírnil rizika spojená se zavedením své umělé inteligence na on-line platformě.
Stará NASka praská ve švech. Disky v ní jsou téměř 5 let staré a jsou v RAID5. Hodně blbá kombinace. Navíc na začátku jsem učinil pár nepříliš šťastných rozhodnutí ohledně rozdělení, které mě nyní iritují. Část vyhrazená pro raw iSCSI je příliš malá takže se mezi ostatními daty válejí obří iSCSI soubory a podobně. Ostatně neznám nikoho, kdo měl v tomto směru dobrý odhad, pominu-li šťastlivce, kteří si můžou dovolit mít všechno na jednom svazku. Teoreticky by se daly udělat nějaké shrinky/expandy/přesuny... jenže mě se do experimentů na 7 TiB svazku, navíc z větší části nezálohovaném, příliš nechce.
Zrodil se tedy projekt úložiště pro takové to malé, domácí ukládání v normální domácnosti. No... normální. Pouze pokud se tak dá nazvat dvoučlenná domácnost, kde router i v noci indikuje 25 statických IP adres a 12 přidělených přes DHCP.
Je vidět, že jasný vítěz zde sice není, nicméně použitelní kandidáti zůstali pouze 2. Je to věci osobní volby. BTRFS má navíc výhodu čistější licenci a je vyvíjeno přímo v jádře. ZFS mi zase přijde jako mnohem vyspělejší. A to nakonec převážilo a rozhodl jsem se pro tento systém.
ZFS se dá použít v OpenIndiana nebo jiné variaci OpenSolarisu, FreeBSD nebo nějaké jeho nadstavbě (FreeNAS) ale také v Linuxu díky projektu http://zfsonlinux.org/. Rozhodl jsem se pro Linux, protože ho znám nejlépe.
Rozsah rešerše, které musí člověk podstoupit, když si chce koupit pitomý disk, je neuvěřitelný. Nebudu tím zatěžovat, vydalo by to na samostatný článek. Jako vítěz mi vyšel 3TB WD RED. Oproti třeba WD Green má trojnásobný MTBF. Je to sice číslo cucané z prstu ale při takovém rozdílu by to už něco mohlo znamenat. Navíc rozumí tomu, že poběží v RAIDu a že má tedy jen omezený čas na reakci. Některé disky se pokoušejí přečíst sektor třeba minutu. Řadič pak oprávněně označí celý takový disk jako vadný. Má nízkou spotřebu. Zkrátka z celého startovního pole těch levných šunkoidních disků mi vyšel nejlépe. 3TB varianta je (prý) méně poruchová než 4TB. Z požadované velikosti úložiště a kapacity disku a dvojité patity je zřejmé, že jsem musel pořídit 8 kusů.
Ke koupi disků jedna poznámka- je lepší nakoupit disky z různých sérii. Minimalizuje se tím pravděpodobnost, že se do pole dostanou disky zatížené stejnou výrobní vadou.
Základní desku je lepší koupit rovnou s potřebným počtem SATA portů. Rozšiřující karty jsou problematičtější a ve výsledku většinou i dražší. Je třeba si ověřit podporu řadiče. V případě Linuxu to většinou není problém, s FreeBSD to bývá horší a ESXi ve verzi 5.5 je vyloženě vybíravý a podporu pro většinu běžných řadičů nemá. Další důležitou vlastností je síťovka. Opět je lepší koupit rovnou vhodnou integrovanou kartu a nedokupovat pak zbytečně diskrétní síťovku protože ty bývají zbytečně drahé. Tady bych to charakterizoval takhle: Intel >>> Realtec > hromada hnoje > Broadcom. Pro ZFS potřebujeme hodně pamětí (odůvodnění bude v příští části, doporučuje se 1GiB paměti na 1TiB dat pokud nehodláte hojně použivat deduplikaci. V tom případě ještě mnohem více) a je tedy vhodné zakoupit desku s alespoň čtyřmi sloty. Paměť nejraději ECC. Když už máme checksumy v ZFS tak ať nám to nekazí chyby paměti. Procesor úsporný ale pro kompresi RAIDZ2 (což je ZFS název pro RAID6 s několika fíčurami navíc) to zase úplná plečka nemůže být. Výhodou je interní USB. Zbytek (jako integrovaná zvukovka, firewire a podobné blbosti) je nepodstatný. Já chtěl použit 2600K, který se mi válel v šuplíku spolu s 4x4GiB moduly. Tím jsem byl ve výběru desky značně omezen. Kvalitní desky dělá Supermicro. Já nakonec skončil s MSI Z77A-GD65. Je tam Intel síťovka, ASM1062 řadič pro dva dodatečné SATA porty, je tam tedy celkově 8 SATA portů, umí použít výstup "grafické karty" v procesoru což snižuje spotřebu a náklady na grafickou kartu. Současně to není deska tak úplně z "dolní poličky" takže má o něco málo kvalitnější součástky (s certifikací Military Class III
:-p ).
Nastavení BIOSu, příprava disků, rozchození ZFS v Linuxu, konfigurace... v příští části.
Tiskni
Sdílej:
Paměť nejraději ECC. Když už máme checksumy v ZFS tak ať nám to nekazí chyby paměti.
Dodal bych, že Blue řada je na tom stejně jako Green
Moc pekne tesim se na pokracovani 
Nejaky podobny servrik na domaci zvykani jsem resitl a nakonec jsem pouzi AsRock C2750D4I procesor je celkem schopny a usporny, ECC RAM, IPMI, sitovky Intel, jsem s tim zatim spokojen.
Ja zas nemel v supliku i5-2600K 
Předem: nemám nic proti zálohování celých mašina a asi máš k tomu důvody, ale pár poznámek k některým větám :)…
V mé situaci, kdy mám virtuály na 5 různých OSech, nad některých nemám a nechci mít roota je odpověď myslím jasná.Je pravda že ESXi jen z povzdáli můžu sledovat a nijak se nezajímám, ale pokud bych vzal paralelu s KVM s hosty na LVM (a nectěl bych to dělat jako push zevnitř), tak stačí udělal snapshot „z venku“ připojit read only a od zálohovat libovolnou metodou (tar cjf .... -g ...).
Zálohování uvnitř bych řešil dny. Při každé změně bych musel pořád něco řešit. A pak by se ukázalo, že jsem něco zapomněl zálohovat. Nebo že se něco nezálohovalo kvůli právům nebo nějaké jiné záležitosti, zkrátka bych to musel pořád kontrolovat. Přídání každého VM by mě stálo zase práci.Viz výše a znamenalo by to jen, přidání do nějakého seznamu.
)
Rozchození zálohy celých VM bylo oproti tomu otázkou deseti minut (nakopírovat ghetto do ESXi, změnit pár věci v konfiguraci a hodit do cronu). Přidání dalšího VM mě stojí přesně 0 vteřin.Je možné že je to nejrychlejší řešeni pro nasazení, ale dost nepříjemné s ohledem na velikost ukládaných dat (nejhorší by asi bylo prosté dd). Přidání dalšího stroje v případě Linuxu by mohlo být pod 1 min pokud není součásti template (vložit skript).
PS: Pokud těch 5 OS zahrnuje Widle a není to jedna/dvě mašiny, tak chápu, že je to tak na jistotu, ale toho místa je mi líto
…
zfs send. U větších řešení je tohle řešeno na SAN úrovni.
Co se týče konzistence dat v RAM, tak 1) je to stejné, jako kdyby ten stroj spadnul, a měl přitom zálohovanou writeback cache = co prošlo před fysnc(), to je bezpečně uloženo - tj. aplikace by s tím neměly mít úplně zásadní problém; a 2) pro samotné aplikace může být nějaký agent, který jim dá vědět, aby udělaly checkpoint. Nevím, jak v linuxu, ale na Windows Server je tohle integrální součást systému/NTFS, se kterou řada aplikací umí pracovat (MSSQL Server, Exchange).
Ano, vše je o požadavcích, ale v situaci, kdy virtualizační systém a guesty spravují jiní lidé je výrazně praktičtější umět VM obnovit bez další práce uvnitř ní. A jak už bylo řečeno, čím jednodušší postup v krizové situaci, tím větší šance, že to vyjde a bude to rychle hotové.
Jenže lepší řešení nejsou zdarma a pochybuji, že by si je kvůli své malé virtualizaci pořídil.
Smazání snapshotu skrz vmware trvá dlouho.
Na SAN úrovni máte zas problém, že se zálohuje všechno nebo nic, což ne vždy může vyhovovat a SAN neví nic o VM nebo aplikačních datech v RAM.
ad 1) ale měl jsem za to, že se tomu se lidi snaží předejít. A v případě backup klienta tomu lze předejít.
ad 2) jo VSS. Vmware to umí s windows OS (quiesce guest FS). Vtipný je, že i když s tím linux nepracuje, tak kernel v RHEL6 měl bug, kvůli kterému ten linux někdy vytuh.
Kdyby tenhle portal za neco jeste stal, i bych se tu na blogu rozepsal, protoze se ZoL mam opravdu dost zkusenosti, o ktere stoji se podelit... Jenom musi byt s kym (mistni banda zarucene kazi chut sem cokoliv inteligentnejsiho psat...)Možná ti to ušlo, ale autor tohohle blogu, se kterým sis vyměnil bezmála deset příspěvků, je taky součástí místní bandy...
krom toho ukazat, jak to nekomu umis nandat.Vidíš, co chceš vidět.
).
Zajimave, autor se snazi na jednu stranu vybrat co nejspolehlivejsi reseni pro sva data v podobe ZFS, coz je opravdu dobra volba(ne-li dnes nejlepsi mozna), aby pozadovanou spolehlivost hned v zapeti poslal do kopru ignorovanim tak zakladni veci u ZFS jako je potreba ecc ram. U FS ktery je v podstate cely o ram je to pomerne nestastna volba. Staci procist par manualu k ZFS od sun-oracle nebo treba tady http://zfsonlinux.org/faq.html#DoIHaveToUseECCMemory.
Dalsi dulezitou komponentou je cpu...neni moc vhodne zvolit orezane polodpady jako atom ci jine low-watt srandicky. Naopak je potreba zvolit silne cpu, staci spustit na poolu scrub a i 4xcore na 3GHz se zacne poradne potit. Nekde jsem cetl, ze sun doporucoval minimalne dvoujadro. Intel core 2600 je vykonove hodne slusne, bohuzel neumi ecc.
Co se tyce volby OS, tak pro co nejstabilnejsi provoz ZFS se voli bud samotnej solaris(jehoz ultimativne-zasadni vyhodou dneska je nativni podpora sifrovani) nebo a je nejcastejsi volbou v komunitach "domacich kutilu" - openindiana ci BSD. BSD ma jednu zasadni vyhodu oproti openindiana a to, ze neni tak vybiravy po HW strance a je preci jen bliz svetu linuxu co se prace s nim tyce. Linuxu bych se v pripade ZFS vyhnul, ale padnej-zasadni argument nedodam-nemam, jen neznam nikoho, kdo by ZFS provozoval v realu na linuxu, coz neznamena, ze to nemuze nekde stabilne nejak jet :).
Zkratka dlouhodobe jsou v pripade ZFS nejpouzivanejsi a nejspolehlivejsi BSD s openindianou, ale kdyz to autor zkusi na linuxu jeho volba a sam jsem zvedavej.
For home users the additional safety brought by ECC memory might not justify the cost. It's up to you to determine what level of protection your data requires.
I lowend hw raid radice pouzivaji ecc ram. Dovolite si vymenit ecc ramku na raid radici(za predpokladu ze to firmware radice dovoli, coz nedovoli) za klasickou ramku, ktera se prodava za par svestek(128MB-1G)?
A ted kdyz to prevedem na ZFS, ktery bude pouzivat X ram modulu osazenych na zakladni desce, tak se moznost chyb kazdym dalsim modulem nasobi.
Je to jako jezdit v zime na letnich sjetych pneumatikach. I kdyby to bylo po 95-99 procent casu bez problemu a ridic mel stesti, tak prave to jedno procento dela a meni vse a v ten moment se ukaze sila zimnich gum - ecc ram. Je to samospasitelne? Samozrejme, ze ne, ale kdo jednou zazije ledovku na galuskacich, kde muze jit o hodne, tak si da sakra majzla na "pozadavky".
Pokud tvrdite, ze jsem "úplně mimo" predpokladam, ze mate nemale zkusenosti s provozem ZFS na klasickych ram bez ecc a na tom zakladate sva tvrzeni...nikoliv na linku s "might not justify the cost".
Jako vítěz mi vyšel 3TB WD RED. Oproti třeba WD Green má trojnásobný MTBF.Hmm, ty jsem měl v sw raid1 a chcíply mi oba téměř ve stejnou dobu
Jen tak tak jsem to stihnul odkopírovat.