Po Canonicalu a SUSE oznámil také Red Hat, že bude podporovat a distribuovat toolkit NVIDIA CUDA (Wikipedie).
TrueNAS (Wikipedie), tj. open source storage platforma postavená na Linuxu, byl vydán ve verzi 25.10 Goldeye. Přináší NVMe over Fabric (NVMe-oF) nebo OpenZFS 2.3.4.
Byla vydána OpenIndiana 2025.10. Unixový operační systém OpenIndiana (Wikipedie) vychází z OpenSolarisu (Wikipedie).
České základní a střední školy čelí alarmujícímu stavu kybernetické bezpečnosti. Až 89 % identifikovaných zranitelností v IT infrastruktuře vzdělávacích institucí dosahuje kritické úrovně, což znamená, že útočníci mohou vzdáleně převzít kontrolu nad klíčovými systémy. Školy navíc často provozují zastaralé technologie, i roky nechávají zařízení bez potřebných aktualizací softwaru a používají k nim pouze výchozí, všeobecně známá
… více »Během tradiční ceremonie k oslavě Dne vzniku samostatného československého státu (28. října) byl vyznamenán medailí Za zásluhy (o stát v oblasti hospodářské) vývojář 3D tiskáren Josef Průša. Letos byly uděleny pouze dvě medaile Za zásluhy o stát v oblasti hospodářské, druhou dostal informatik a manažer Ondřej Felix, který se zabývá digitalizací státní správy.
Tor Browser, tj. fork webového prohlížeče Mozilla Firefox s integrovaným klientem sítě Tor přednastavený tak, aby přes tuto síť bezpečně komunikoval, byl vydán ve verzi 15.0. Postaven je na Firefoxu ESR 140.
Bylo oznámeno (cs) vydání Fedora Linuxu 43. Ve finální verzi vychází šest oficiálních edic: Fedora Workstation a Fedora KDE Plasma Desktop pro desktopové, Fedora Server pro serverové, Fedora IoT pro internet věcí, Fedora Cloud pro cloudové nasazení a Fedora CoreOS pro ty, kteří preferují neměnné systémy. Vedle nich jsou k dispozici také další atomické desktopy, spiny a laby. Podrobný přehled novinek v samostatných článcích na stránkách Fedora Magazinu: Fedora Workstation, Fedora KDE Plasma Desktop, Fedora Silverblue a Fedora Atomic Desktops.
Elon Musk oznámil (𝕏) spuštění internetové encyklopedie Grokipedia (Wikipedia). Zatím ve verzi 0.1. Verze 1.0 prý bude 10x lepší, ale i ve verzi 0.1 je podle Elona Muska již lepší než Wikipedia.
PSF (Python Software Foundation) po mnoha měsících práce získala grant ve výši 1,5 milionu dolarů od americké vládní NSF (National Science Foundation) v rámci programu "Bezpečnost, ochrana a soukromí open source ekosystémů" na zvýšení bezpečnosti Pythonu a PyPI. PSF ale nesouhlasí s předloženou podmínkou grantu, že během trvání finanční podpory nebude žádným způsobem podporovat diverzitu, rovnost a inkluzi (DEI). PSF má diverzitu přímo ve svém poslání (Mission) a proto grant odmítla.
Balík nástrojů Rust Coreutils / uutils coreutils, tj. nástrojů z GNU Coreutils napsaných v programovacím jazyce Rust, byl vydán ve verzi 0.3.0. Z 634 testů kompatibility Rust Coreutils s GNU Coreutils bylo úspěšných 532, tj. 83,91 %. V Ubuntu 25.10 se již používá Rust Coreutils místo GNU Coreutils, což může přinášet problémy, viz například nefunkční automatická aktualizace.
Ahoj,
snažím se rozběhat následující scénář:
Na diskovém poli připojeném do sítě pomocí iscsi jsou vytvořeny tři různě veliké svazky. Na svazcích je vytvořen GFS2 filesystém. Svazky jsou připojeny k deseti serverům (ubuntu server 12.04).
Podařilo se mi rozběhat iscsi, multipath a v základní konfiguraci i GFS2 (cman, cluster.conf, gfs_controld, dlm_controld). Na serverech dále běží corosync, který jsem ovšem nijak nekonfiguroval. Svazky s gfs2 jdou připojit a je možné na ně zapsat data. Bohužel se celý systém chová dost nepředvítatelně.
Potýkám se s těmito problémy:
1. Připojení největšího GFS2 svazku po rebootu trvá velmi dlouho (cca 30 minut). Na tomto svazku je velké množství dat v malých souborech (stovky GB a milióny souborů).
2. Pokud vypnu jeden ze serverů v clusteru(v tuto chvíli v něm jsou 3 nody), tak na ostatních serverech při pokusu o přístupu do adresáře na iscsi svazku vytuhne terminál a data nejsou přístupná. Tento stav trvá dokud není svazek připojen na všech serverech.
Co může být příčinou dvou výše zmíněných problémů?
Co bych měl na serverech dále nastavit, aby byl provoz clusteru stabilní?
Jak správně nastavit fencing, aby při vypnutí jednoho nodu clusteru byla data dostupná zbylým nodům?
Konfigurace cluster.conf:
<?xml version="1.0"?>
<cluster name="cluster" config_version="2">
<!-- post_join_delay: number of seconds the daemon will wait before
fencing any victims after a node joins the domain
post_fail_delay: number of seconds the daemon will wait before
fencing any victims after a domain member fails
clean_start : prevent any startup fencing the daemon might do.
It indicates that the daemon should assume all nodes
are in a clean state to start. -->
<logging debug="on"/>
<fence_daemon clean_start="0" post_fail_delay="0" post_join_delay="3"/>
<clusternodes>
<clusternode name="w10" votes="1" nodeid="10">
<fence>
<!-- Handle fencing manually -->
<method name="human">
<device name="human" nodename="w10"/>
</method>
</fence>
</clusternode>
<clusternode name="w11" votes="1" nodeid="11">
<fence>
<!-- Handle fencing manually -->
<method name="human">
<device name="human" nodename="w11"/>
</method>
</fence>
</clusternode>
<clusternode name="w12" votes="1" nodeid="12">
<fence>
<!-- Handle fencing manually -->
<method name="human">
<device name="human" nodename="w12"/>
</method>
</fence>
</clusternode>
</clusternodes>
<!-- cman two nodes specification -->
<cman expected_votes="3"/>
<fencedevices>
<!-- Define manual fencing -->
<fencedevice name="human" agent="fence_manual"/>
</fencedevices>
</cluster>
Tak problém je pravděpodobně popsán v tomto postu:
https://www.redhat.com/archives/linux-cluster/2011-December/msg00055.html
Systém během mountování obnovuje zámky pro všechny soubory na svazku. V mém případě je to cca 9 milionů souborů.
Nějaký nápad co s tím?
ak je sucet hlasov aktivnych nodov vyssi ako polovica hodnoty expected_votes. Tu pomoze asi len vyskusanie znizenia hodnoty. Samozrejme je potrebne pri akejkolvek zmene zvysit verziu v cluster.conf
Tiskni
Sdílej: