Byla vydána (Mastodon, 𝕏) nová stabilní verze 2.0 otevřeného operačního systému pro chytré hodinky AsteroidOS (Wikipedie). Přehled novinek v oznámení o vydání a na YouTube.
WoWee je open-source klient pro MMORPG hru World of Warcraft, kompatibilní se základní verzí a rozšířeními The Burning Crusade a Wrath of the Lich King. Klient je napsaný v C++ a využívá vlastní OpenGL renderer, pro provoz vyžaduje modely, grafiku, hudbu, zvuky a další assety z originální kopie hry od Blizzardu. Zdrojový kód je na GitHubu, dostupný pod licencí MIT.
Byl představen ICT Supply Chain Security Toolbox, společný nezávazný rámec EU pro posuzování a snižování kybernetických bezpečnostních rizik v ICT dodavatelských řetězcích. Toolbox identifikuje možné rizikové scénáře ovlivňující ICT dodavatelské řetězce a na jejich podkladě nabízí koordinovaná doporučení k hodnocení a mitigaci rizik. Doporučení se dotýkají mj. podpory multi-vendor strategií a snižování závislostí na vysoce
… více »Nizozemský ministr obrany Gijs Tuinman prohlásil, že je možné stíhací letouny F-35 'jailbreaknout stejně jako iPhony', tedy upravit jejich software bez souhlasu USA nebo spolupráce s výrobcem Lockheed Martin. Tento výrok zazněl v rozhovoru na BNR Nieuwsradio, kde Tuinman naznačil, že evropské země by mohly potřebovat větší nezávislost na americké technologii. Jak by bylo jailbreak možné technicky provést pan ministr nijak nespecifikoval, nicméně je známé, že izraelské letectvo ve svých modifikovaných stíhačkách F-35 používá vlastní software.
Nové číslo časopisu Raspberry Pi zdarma ke čtení: Raspberry Pi Official Magazine 162 (pdf).
Sdružení CZ.NIC, správce české národní domény, zveřejnilo Domain Report za rok 2025 s klíčovými daty o vývoji domény .CZ. Na konci roku 2025 bylo v registru české národní domény celkem 1 515 860 s koncovkou .CZ. Průměrně bylo měsíčně zaregistrováno 16 222 domén, přičemž nejvíce registrací proběhlo v lednu (18 722) a nejméně pak v červnu (14 559). Podíl domén zabezpečených pomocí technologie DNSSEC se po několika letech stagnace výrazně
… více »Google představil telefon Pixel 10a. S funkci Satelitní SOS, která vás spojí se záchrannými složkami i v místech bez signálu Wi-Fi nebo mobilní sítě. Cena telefonu je od 13 290 Kč.
Byl publikován přehled dění a novinek z vývoje Asahi Linuxu, tj. Linuxu pro Apple Silicon. Fedora 43 Asahi Remix s KDE Plasma už funguje na M3. Zatím ale bez GPU akcelerace. Vývojáře lze podpořit na Open Collective a GitHub Sponsors.
Red Hat představil nový nástroj Digital Sovereignty Readiness Assessment (GitHub), který organizacím umožní vyhodnotit jejich aktuální schopnosti v oblasti digitální suverenity a nastavit strategii pro nezávislé a bezpečné řízení IT prostředí.
BarraCUDA je neoficiální open-source CUDA kompilátor, ale pro grafické karty AMD (CUDA je proprietární technologie společnosti NVIDIA). BarraCUDA dokáže přeložit zdrojové *.cu soubory (prakticky C/C++) přímo do strojového kódu mikroarchitektury GFX11 a vytvořit tak ELF *.hsaco binární soubory, spustitelné na grafické kartě AMD. Zdrojový kód (převážně C99) je k dispozici na GitHubu, pod licencí Apache-2.0.
Zdravím,
toto téma je hlavně teoretické, zajímá mě každý váš názor. Můžete psát i věci u kterých si nejste 100% jisti, že to tak jde :). Takže moc se mi líbí přístup ZFS, to vytváření filesystémů je prostě nádherné :), už teď jsem spokojen s LVM, ale ZFS je ještě lepší :). Líbí se mi taky, že umí "online" zapojit další disk. Což mě přivádí k myšlence, jak to rozdělit na více strojů?
Představa je následující. Mám 4 storage servery (každý 25TB) a 5 klientů. Výsledek: 4 storage servery budou zapojeny jako jeden, tím mi vznikne 100TB pole. Každý klient bude mít toto pole k dispozici pro čtení/ukládání uživatelských dat. Jako filesystem by mel být použit ZFS.
Máte nějaké návrhy? Jak byste to řešili?
No maximálně podle nadpisu, ale o tomhle toho téma není.
Představa je následující. Mám 4 storage servery (každý 25TB) a 5 klientů. Výsledek: 4 storage servery budou zapojeny jako jeden, tím mi vznikne 100TB pole. Každý klient bude mít toto pole k dispozici pro čtení/ukládání uživatelských dat. Jako filesystem by mel být použit ZFSMožná jsem otázku zcela nepochopil (s nadpisem nemá nic společného), ale co ti brání vzít ta 4 disková pole (export např přes FC, iSCSI apod), zkrátka mít ve výsledku 4 bloková zařízení po 25TB, a nad těmito udělat jeden 100TB ZFS pool?
Do téhle problematiky tolik nevidím, zatím ji oťukávám. Jdu provést nějaké testy :). Jen pro ujištění. Aby to tedy šlo neustále rozšiřovat, musí být každý iSCSI nastaven na každém klientovi. K jednomu souboru pak může přistupovat několik serverů. Ohlídá si to nějak nebo může nastat problém? Řešení jednoho serveru, kde budou všechny iSCSI připojeny a dále exportovat např. přes NFS by mohlo být za čas nedostačující.
PS: Ještě jednou upozorňuji, jedná se čistě jen o teorii. V žádném případě výsledek této diskuse nebudu závádět někde v produkčním prostředí. Jen chci více proniknout do této problematiky a zkušenosti zde získané použít v budoucnu. Vše to testuji ve virtuálním prostředí, takže se nebráním žádným experimentům.
Aby to tedy šlo neustále rozšiřovat, musí být každý iSCSI nastaven na každém klientovi.
Nikoliv. To co jsem popisoval já je stav, kdy nad diskovými poli vytvoříš jedno jediné a to potom předáváš klientů (pomocí NFS, případně SAMBy). Pochopitelně tam můžeš přidat další pole a to zastřešující jednoduše rozšířit (ZFS, LVM, to už je jedno).
Ohlídá si to nějak nebo může nastat problém?
Za předpokladu, že na daném blokovém zařízení (iSCSI se na straně Iniciátoru - klienta - tváří jako úplně obyčejný disk), je nějaký systém souborů, který umí být sdílen. Znám jenom jeden, VMFS.
U normálních FS nastane problém po prvním zápisu.
To jsem si myslel. No dobře, každopádně jak to myslíš s tím rozšiřováním? Je to tak jak si to myslím? Tedy budu mít jeden hlavní server a další např. 4 připojený přes iSCSI do toho jednoho. Ten to vyexportuje třeba přes NFS ostatním. V případě potřeby připojím k tomu serveru přes iSCSI další. A až nebude ten hlavní stíhat, tak sestavím nové pole.
Tedy budu mít jeden hlavní server a další např. 4 připojený přes iSCSI do toho jednoho.
V podstatě takhle jsem to myslel s tím, že těch serverů nemusí být nutně 5. Export toho jednoho pole může klidně dělat jedno z těch diskových polí -- to pokud to chceme mít levné.
Případně ty jednotící servery mohou být dva v clusteru a ty storage budou zrcadlené -- v případě, že nám jde trochu o data. Tedy celkem 10 strojů.
Ten to vyexportuje třeba přes NFS ostatním.
Přesně tak, na tom jednotícím ty iSCSI mohou být spojeny klidně do RAID0 (pokud nám fakt nejde o data a chceme to mít pekelně rychlé), případně jen jako další disk ve VG či ZFS poolu. A nad touto vrstvou pak export přes síťové sdílené FS.
No dobře, každopádně jak to myslíš s tím rozšiřováním?
Přidám další pole, přes FC/iSCSI dotáhnu do toho jednotícího serveru a tam ho prostě přidám do R0, ZFS poolu, VG
S tím si lze hrát poměrně hodně, záleží na co to člověk potřebuje. Bohužel to se často zjistí až po roce provozu a celý storage je potřeba od základů překopat.
Umoznit viacerym klientom zapisovat do jednej nazvyme to partition by malo zvladnut kazde lepsie pole.
Pole jistě, ale systém souborů už ne. Nebo je vícenásobné připojení FS pro zápis v unixovém světě standardem?
Mna by len zaujimalo, na co potrebujete 100TB uceleneho priestoru.
Tazatel to bere jako teoretické cvičení. V mailing listech XFS se ale nezřídka objevují požadavky na 100TB. Nepřijde mi to tak přehnané.
Díky za příspěvek ;). Samozřejmě v produkčním prostředí je to nutné řešit jinak. Každopádně tady mi jde o postup. Ostatní záležitosti jako redudanci teď můžeme nechat stranou.
Tiskni
Sdílej: