Byla představena nová verze modelu Claude Opus 4.6 od společnosti Anthropic. Jako demonstraci možností Anthropic využil 16 agentů Claude Opus 4.6 k vytvoření kompilátoru jazyka C, napsaného v programovacím jazyce Rust. Claude pracoval téměř autonomně, projekt trval zhruba dva týdny a náklady činily přibližně 20 000 dolarů. Výsledkem je fungující kompilátor o 100 000 řádcích kódu, jehož zdrojový kód je volně dostupný na GitHubu pod licencí Creative Commons.
Kultovní britský seriál The IT Crowd (Ajťáci) oslavil dvacáté výročí svého prvního vysílání. Sitcom o dvou sociálně nemotorných pracovnících a jejich nadřízené zaujal diváky svým humorem a ikonickými hláškami. Seriál, který debutoval v roce 2006, si i po dvou dekádách udržuje silnou fanouškovskou základnu a pravidelně se objevuje v seznamech nejlepších komedií své doby. Nedávné zatčení autora seriálu Grahama Linehana za hatecrime však vyvolává otázku, jestli by tento sitcom v současné Velké Británii vůbec vznikl.
Společnost JetBrains oznámila, že počínaje verzí 2026.1 budou IDE založená na IntelliJ ve výchozím nastavení používat Wayland.
Společnost SpaceX amerického miliardáře Elona Muska podala žádost o vypuštění jednoho milionu satelitů na oběžnou dráhu kolem Země, odkud by pomohly zajistit provoz umělé inteligence (AI) a zároveň šetřily pozemské zdroje. Zatím se ale neví, kdy by se tak mělo stát. V žádosti Federální komisi pro spoje (FCC) se píše, že orbitální datová centra jsou nejúspornějším a energeticky nejúčinnějším způsobem, jak uspokojit rostoucí poptávku po
… více »Byla vydána nová verze 2.53.0 distribuovaného systému správy verzí Git. Přispělo 70 vývojářů, z toho 21 nových. Přehled novinek v poznámkách k vydání.
Spolek OpenAlt zve příznivce otevřených řešení a přístupu na 216. sraz, který proběhne v pátek 20. února od 18:00 v Red Hat Labu (místnost Q304) na Fakultě informačních technologií VUT v Brně na ulici Božetěchova 1/2. Tématem srazu bude komunitní komunikační síť MeshCore. Jindřich Skácel představí, co je to MeshCore, předvede nejrůznější klientské zařízení a ukáže, jak v praxi vypadá nasazení vlastního repeateru.
Byla vydána nová major verze 9.0 multiplatformní digitální pracovní stanice pro práci s audiem (DAW) Ardour. Přehled novinek, vylepšení a oprav v poznámkách k vydání.
Hodnota Bitcoinu, decentralizované kryptoměny klesla pod 70 000 dolarů (1,44 milionu korun).
Valve z důvodu nedostatku pamětí a úložišť přehodnocuje plán na vydání zařízení Steam Controller, Steam Machine a Steam Frame: „Cílem tedy stále zůstává vydat všechna tři nová zařízení v první polovině letošního roku, ale přesná data a ceny jsou dvě věci, na kterých usilovně pracujeme a jsme si dobře vědomi toho, jak rychle se v tomto ohledu může vše změnit. Takže ač dnes žádné zveřejnitelné údaje nemáme, hned jak plány finalizujeme, budeme Vás informovat.“
Do 20. února lze hlasovat pro wallpapery pro Ubuntu 26.04 s kódovým názvem Resolute Raccoon.
Ahoj,
snažím se rozběhat následující scénář:
Na diskovém poli připojeném do sítě pomocí iscsi jsou vytvořeny tři různě veliké svazky. Na svazcích je vytvořen GFS2 filesystém. Svazky jsou připojeny k deseti serverům (ubuntu server 12.04).
Podařilo se mi rozběhat iscsi, multipath a v základní konfiguraci i GFS2 (cman, cluster.conf, gfs_controld, dlm_controld). Na serverech dále běží corosync, který jsem ovšem nijak nekonfiguroval. Svazky s gfs2 jdou připojit a je možné na ně zapsat data. Bohužel se celý systém chová dost nepředvítatelně.
Potýkám se s těmito problémy:
1. Připojení největšího GFS2 svazku po rebootu trvá velmi dlouho (cca 30 minut). Na tomto svazku je velké množství dat v malých souborech (stovky GB a milióny souborů).
2. Pokud vypnu jeden ze serverů v clusteru(v tuto chvíli v něm jsou 3 nody), tak na ostatních serverech při pokusu o přístupu do adresáře na iscsi svazku vytuhne terminál a data nejsou přístupná. Tento stav trvá dokud není svazek připojen na všech serverech.
Co může být příčinou dvou výše zmíněných problémů?
Co bych měl na serverech dále nastavit, aby byl provoz clusteru stabilní?
Jak správně nastavit fencing, aby při vypnutí jednoho nodu clusteru byla data dostupná zbylým nodům?
Konfigurace cluster.conf:
<?xml version="1.0"?>
<cluster name="cluster" config_version="2">
<!-- post_join_delay: number of seconds the daemon will wait before
fencing any victims after a node joins the domain
post_fail_delay: number of seconds the daemon will wait before
fencing any victims after a domain member fails
clean_start : prevent any startup fencing the daemon might do.
It indicates that the daemon should assume all nodes
are in a clean state to start. -->
<logging debug="on"/>
<fence_daemon clean_start="0" post_fail_delay="0" post_join_delay="3"/>
<clusternodes>
<clusternode name="w10" votes="1" nodeid="10">
<fence>
<!-- Handle fencing manually -->
<method name="human">
<device name="human" nodename="w10"/>
</method>
</fence>
</clusternode>
<clusternode name="w11" votes="1" nodeid="11">
<fence>
<!-- Handle fencing manually -->
<method name="human">
<device name="human" nodename="w11"/>
</method>
</fence>
</clusternode>
<clusternode name="w12" votes="1" nodeid="12">
<fence>
<!-- Handle fencing manually -->
<method name="human">
<device name="human" nodename="w12"/>
</method>
</fence>
</clusternode>
</clusternodes>
<!-- cman two nodes specification -->
<cman expected_votes="3"/>
<fencedevices>
<!-- Define manual fencing -->
<fencedevice name="human" agent="fence_manual"/>
</fencedevices>
</cluster>
Tak problém je pravděpodobně popsán v tomto postu:
https://www.redhat.com/archives/linux-cluster/2011-December/msg00055.html
Systém během mountování obnovuje zámky pro všechny soubory na svazku. V mém případě je to cca 9 milionů souborů.
Nějaký nápad co s tím?
ak je sucet hlasov aktivnych nodov vyssi ako polovica hodnoty expected_votes. Tu pomoze asi len vyskusanie znizenia hodnoty. Samozrejme je potrebne pri akejkolvek zmene zvysit verziu v cluster.conf
Tiskni
Sdílej: