Byla vydána verze 1.91.0 programovacího jazyka Rust (Wikipedie). Podrobnosti v poznámkách k vydání. Vyzkoušet Rust lze například na stránce Rust by Example.
Ministerstvo průmyslu a obchodu vyhlásilo druhou veřejnou soutěž v programu TWIST, který podporuje výzkum, vývoj a využití umělé inteligence v podnikání. Firmy mohou získat až 30 milionů korun na jeden projekt zaměřený na nové produkty či inovaci podnikových procesů. Návrhy projektů lze podávat od 31. října do 17. prosince 2025. Celková alokace výzvy činí 800 milionů korun.
Google v srpnu oznámil, že na „certifikovaných“ zařízeních s Androidem omezí instalaci aplikací (včetně „sideloadingu“) tak, že bude vyžadovat, aby aplikace byly podepsány centrálně registrovanými vývojáři s ověřenou identitou. Iniciativa Keep Android Open se to snaží zvrátit. Podepsat lze otevřený dopis adresovaný Googlu nebo petici na Change.org.
Byla vydána nová verze 18 integrovaného vývojového prostředí (IDE) Qt Creator. S podporou Development Containers. Podrobný přehled novinek v changelogu.
Cursor (Wikipedie) od společnosti Anysphere byl vydán ve verzi 2.0. Jedná se o multiplatformní proprietární editor kódů s podporou AI (vibe coding).
Google Chrome 142 byl prohlášen za stabilní. Nejnovější stabilní verze 142.0.7444.59 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 20 bezpečnostních chyb. Za nejvážnější z nich bylo vyplaceno 50 000 dolarů. Vylepšeny byly také nástroje pro vývojáře.
Pro moddery Minecraftu: Java edice Minecraftu bude bez obfuskace.
Národní identitní autorita, tedy NIA ID, MeG a eOP jsou nedostupné. Na nápravě se pracuje [𝕏].
Americký výrobce čipů Nvidia se stal první firmou na světě, jejíž tržní hodnota dosáhla pěti bilionů USD (104,5 bilionu Kč). Nvidia stojí v čele světového trhu s čipy pro umělou inteligenci (AI) a výrazně těží z prudkého růstu zájmu o tuto technologii. Nvidia již byla první firmou, která překonala hranici čtyř bilionů USD, a to letos v červenci.
Po Canonicalu a SUSE oznámil také Red Hat, že bude podporovat a distribuovat toolkit NVIDIA CUDA (Wikipedie).
 Výběr skončil na řešení s využitím dvou serverů mezi kterými budou replikována data pomocí DRBD.
Výběr skončil na řešení s využitím dvou serverů mezi kterými budou replikována data pomocí DRBD.
 Mezi servery doporučuji nepoužívat žádné další prvky - propojte je pěkně na přímo. Používáme tzv. "bonding" kdy jsou spojené dvě síťové karty do jedné virtuální. Linux pak zajišťuje rozkládání zátěže mezi ně a v případě výpadku jedné z nich i převedení veškerého provozu na tu zbývající kartu.
Pro bonding jsem vybral dvě různé karty, jedna integrovaná na desce, druhá v PCIe slotu. Konfiguraci stačí zapsat do standardních konfiguračních souborů CentOSu a on už její nahození zajistí při každém startu sám.
Pro přímou komunikaci mezi servery používáme rozhraní bond0 a pro komunikaci s klienty bond1.
Mezi servery doporučuji nepoužívat žádné další prvky - propojte je pěkně na přímo. Používáme tzv. "bonding" kdy jsou spojené dvě síťové karty do jedné virtuální. Linux pak zajišťuje rozkládání zátěže mezi ně a v případě výpadku jedné z nich i převedení veškerého provozu na tu zbývající kartu.
Pro bonding jsem vybral dvě různé karty, jedna integrovaná na desce, druhá v PCIe slotu. Konfiguraci stačí zapsat do standardních konfiguračních souborů CentOSu a on už její nahození zajistí při každém startu sám.
Pro přímou komunikaci mezi servery používáme rozhraní bond0 a pro komunikaci s klienty bond1.
[root@node1 ~]# grep bond /etc/modprobe.conf alias bond0 bonding alias bond1 bonding options bonding mode=balance-rr miimon=100 [root@node1 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth1 DEVICE=eth0 BOOTPROTO=none HWADDR=00:30:48:B9:6B:50 ONBOOT=yes TYPE=Ethernet SLAVE=yes MASTER=bond0 USERCTL=no [root@node1 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth5 DEVICE=eth2 BOOTPROTO=none HWADDR=00:30:48:9C:2C:80 ONBOOT=yes TYPE=Ethernet SLAVE=yes MASTER=bond0 USERCTL=no [root@node1 ~]# cat /etc/sysconfig/network-scripts/ifcfg-bond0 DEVICE=bond1 BOOTPROTO=none ONBOOT=yes USERCTL=no IPADDR=172.16.1.100 NETMASK=255.255.255.0Každý ze serverů má tedy rozhraní bond0 pro komunikaci s druhým serverem a oba stroje jsou propojené napřímo. Další rozhraní je bond1, které slouží pro servírování dat klientům a poslední používané rozhraní je libovolné volné připojené do management síťě aby bylo možné stroje spravovat. Do management síťe je také zapojené management rozhraní serverů a raid karet. Při konfiguraci síťe také nezapomeňte na nastevení iptables. Při jejich konfiguraci upravuji soubor /etc/sysconfig/iptables a následně aktualizuji konfiguraci pomocí iptables-restore < /etc/sysconfig/iptables. Jakmile zkusíte použít "klikací" nástroj system-config-security, tak vám konfiguraci iptables totálně rozseká a znefunkční (proto také na uvedený soubor nastavuji atribut "i" - chattr +i ...).
 Konfigurace DRBD pro naše použití je trochu specifická - na svazcích exportovaných z HW RAIDu mám nasazené LVM. V něm vytvořené volumy a ty jsou použité jako zařízení pro DRBD. Mám takto udělané 3 DRDB zařízení (podle konkrétních diskových skupin kde každá je určená pro jiná data) a nad nimi je zase nasazené LVM a v něm vytvořené volumy na kterých je souborový systém.
Konfigurace DRBD pro naše použití je trochu specifická - na svazcích exportovaných z HW RAIDu mám nasazené LVM. V něm vytvořené volumy a ty jsou použité jako zařízení pro DRBD. Mám takto udělané 3 DRDB zařízení (podle konkrétních diskových skupin kde každá je určená pro jiná data) a nad nimi je zase nasazené LVM a v něm vytvořené volumy na kterých je souborový systém.
 O první úroveň LVM se stará přímo distribuce - nahazuje ho při startu CentOS standardními skripty. DRBD nahazuje heartbeat, po naběhnutí DRBD heartbeat nahodí druhou úroveň LVM, připojí souborový systém a začne startovat další služby (IP adresy, NFS, AoE). Heartbeat má nastavená pravidla tak aby nahazoval služby tam kde je DRBD ve stavu Primary. Nemůže se tedy stát, že by na node0 nahodil DRBD a připojil souborový systém a na node1 nahodil NFS.
Jestli se vám zdá zbytečné nasadit LVM pod i nad DRBD, tak napište proč to tak nemůže být
O první úroveň LVM se stará přímo distribuce - nahazuje ho při startu CentOS standardními skripty. DRBD nahazuje heartbeat, po naběhnutí DRBD heartbeat nahodí druhou úroveň LVM, připojí souborový systém a začne startovat další služby (IP adresy, NFS, AoE). Heartbeat má nastavená pravidla tak aby nahazoval služby tam kde je DRBD ve stavu Primary. Nemůže se tedy stát, že by na node0 nahodil DRBD a připojil souborový systém a na node1 nahodil NFS.
Jestli se vám zdá zbytečné nasadit LVM pod i nad DRBD, tak napište proč to tak nemůže být  Mě připadá variabilita takového řešení docela dobrým důvodem - mohu stěhovat data kam chci a jak chci aniž by to klienti poznali a zvětšování prostoru také není úplně k zahození.
 Mě připadá variabilita takového řešení docela dobrým důvodem - mohu stěhovat data kam chci a jak chci aniž by to klienti poznali a zvětšování prostoru také není úplně k zahození.
preferred_names = [ "^/dev/drbd", "^/dev/sd", "^/dev/mapper/" ] filter = [ "a|/dev/drbd.*|","a|/dev/sd.*|","r|.*|" ]
use_logd off logfile /var/log/ha.log debugfile /var/log/ha.debug keepalive 1 warntime 10 deadtime 30 initdead 120 udpport 694 bcast bond0 baud 19200 serial /dev/ttyS0 node node0.domain.tld node node1.domain.tld auto_failback on crm respawn apiauth mgmtd uid=root respawn root /usr/lib64/heartbeat/mgmtd -v respawn root /usr/lib64/heartbeat/hbagentZajímavé části konfigurace CRM:
primitive drbd0 ocf:heartbeat:drbd \ params drbd_resource="r0" \ op stop interval="0" timeout="180" primitive drbd1 ocf:heartbeat:drbd \ params drbd_resource="r1" \ op stop interval="0" timeout="180" primitive drbd2 ocf:heartbeat:drbd \ params drbd_resource="r2" \ op stop interval="0" timeout="180"Chci aby všechny DRBD svazky nabíhaly do Primary stavu na stejném serveru, proto jsem je seskupil do grp_drbd. Svazky nahazuji najednou a pouze tak aby byl vždy jeden server ve stavu Master (~Primary pro DRBD, definice ms_drbd). Spouštím je na preferovaném uzlu clusteru (pravidlo loc-drbd). Protože je cluster symetrický a nastavený do režimu failover, bude v případě nedostupnosti tohoto uzlu (node1.domain.tld) použit uzel druhý.
group grp_drbd drbd0 drbd1 drbd2 \ meta migration-threshold="2" failure-timeout="180s" ms ms_drbd grp_drbd \ params clone_max="2" clone_node_max="1" master_max="1" \ master_node_max="1" notify="yes" globally_unique="false" \ meta target-role="Started" location loc-drbd ms_drbd \ rule $id="loc-drbd-rule" $role="Master" inf: #uname eq node1.domain.tldJak jsem psal, nad drbd je zase LVM, je třeba ho tedy také nadefinovat. V rámci zjednodušení následného zapisování pravidel případně rozšiřování konfigurace jsem všechny LVM svazky vsadil do jedné skupiny (grp_lvm).
primitive lvmdrbd0 ocf:heartbeat:LVM \ params volgrpname="vgrep0" exclusive="truemeta" start="45" stop="45" primitive lvmdrbd1 ocf:heartbeat:LVM \ params volgrpname="vgrep1" exclusive="truemeta" start="45" stop="45" primitive lvmdrbd2 ocf:heartbeat:LVM \ params volgrpname="vgrep2" exclusive="truemeta" start="45" stop="45" group grp_lvm lvmdrbd0 lvmdrbd1 lvmdrbd2 \ meta target-role="Started"Souborové systémy na tomto LVM je třeba také připojit, zase to musí obsloužit Heartbeat:
primitive fs1 ocf:heartbeat:Filesystem \ params device="/dev/vgrep0/lv0" fstype="xfs" directory="/export/d0" options="noatime" primitive fs2 ocf:heartbeat:Filesystem \ params device="/dev/vgrep1/lv0" fstype="xfs" directory="/export/d1" options="noatime" primitive fs3 ocf:heartbeat:Filesystem \ params device="/dev/vgrep2/lv0" fstype="xfs" directory="/export/d2" options="noatime" primitive fs4 ocf:heartbeat:Filesystem \ params device="/dev/vgrep2/lv1" fstype="xfs" directory="/export/clust" options="noatime" group grp_fs fs1 fs2 fs3 fs4 \ meta target-role="Started"Aby všechny služby startovaly na správné straně clusteru, tedy na té kde je DRBD ve stavu Primary, je třeba nadefinovat "colocation" pravidla:
colocation grp_fs_on_grp_drbd inf: grp_fs ms_drbd:Master colocation grp_lvm_on_grp_drbd inf: grp_lvm ms_drbd:Master colocation grp_vps_on_grp_drbd inf: grp_vps ms_drbd:MasterSlužby sice nastartují na správné straně, ale asi v nesprávném pořadí, proto ještě pořadí explicitně určím:
order ord_grp_fs_after_grp_lvm inf: grp_lvm:start grp_fs:start order ord_grp_lvm_after_ms_drbd inf: ms_drbd:promote grp_lvm:startJak vidíte, pravidla popisující na které straně cluster nahodí služby a v jakém pořadí zapisuji již jen přes skupiny - je to tak přehlednější. Názvy těch pravidel se snažím volit co nejvíc popisné abych se v tom snadno orientoval, stejně jako v případě názvů skupin a služeb.
primitive aoedomU1 ocf:heartbeat:AoEtargetKl \ params binary="/usr/local/sbin/vblade" \ device="/export/d1/domU1.img" nic="bond1" shelf="11" slot="0" vbladeparams="-d -s" primitive aoedomU2 ocf:heartbeat:AoEtargetKl \ params binary="/usr/local/sbin/vblade" \ device="/export/d1/domU2.img" nic="bond1" shelf="12" slot="0" vbladeparams="-d -s" group grp_aoe aoedomU1 aoedomU2 meta target-role="Started" colocation grp_aoe_on_grp_drbd inf: grp_aoe ms_drbd:Master order ord_grp_aoe_after_grp_fs inf: grp_fs:start grp_aoe:startDocela prima u AoE je, že na straně klienta se při spouštění (tedy modprobe aoe) dá zadat parametr jak dlouho má klient čekat na timeout serveru. Přehození clusteru z jednoho nodu na druhý tedy aoe přežije velmi snadno, stačí nastavit rozumný timeout a není nutné řešit multipathing.
        Tiskni
            
                Sdílej:
                 
                 
                 
                 
                 
                 
            
    
 
             Yes, this guy have a NetApp label :)
Yes, this guy have a NetApp label :)
             
 19.2.2010 13:24
gtz             | skóre: 27
             | blog: gtz
             | Brno
        19.2.2010 13:24
gtz             | skóre: 27
             | blog: gtz
             | Brno
         19.2.2010 14:07
Max             | skóre: 72
             | blog: Max_Devaine
        19.2.2010 14:07
Max             | skóre: 72
             | blog: Max_Devaine
            
         19.2.2010 16:02
gtz             | skóre: 27
             | blog: gtz
             | Brno
        19.2.2010 16:02
gtz             | skóre: 27
             | blog: gtz
             | Brno
         19.2.2010 17:17
gtz             | skóre: 27
             | blog: gtz
             | Brno
        19.2.2010 17:17
gtz             | skóre: 27
             | blog: gtz
             | Brno
         19.2.2010 11:55
alblaho             | skóre: 17
             | blog: alblog
        19.2.2010 11:55
alblaho             | skóre: 17
             | blog: alblog
            
         19.2.2010 21:18
regine2             | skóre: 14
        19.2.2010 21:18
regine2             | skóre: 14
            
            
         
             
             19.2.2010 19:03
frEon             | skóre: 40
            
             | Praha
        19.2.2010 19:03
frEon             | skóre: 40
            
             | Praha
         Bude určitě ve finálním článku.
 Bude určitě ve finálním článku.