Při úklidu na Utažské univerzitě se ve skladovacích prostorách náhodou podařilo nalézt magnetickou pásku s kopií Unixu V4. Páska byla zaslána do počítačového muzea, kde se z pásky úspěšně podařilo extrahovat data a Unix spustit. Je to patrně jediný známý dochovaný exemplář tohoto 52 let starého Unixu, prvního vůbec programovaného v jazyce C.
FFmpeg nechal kvůli porušení autorských práv odstranit z GitHubu jeden z repozitářů patřících čínské technologické firmě Rockchip. Důvodem bylo porušení LGPL ze strany Rockchipu. Rockchip byl FFmpegem na porušování LGPL upozorněn již téměř před dvěma roky.
K dispozici je nový CLI nástroj witr sloužící k analýze běžících procesů. Název je zkratkou slov why-is-this-running, 'proč tohle běží'. Klade si za cíl v 'jediném, lidsky čitelném, výstupu vysvětlit odkud daný spuštěný proces pochází, jak byl spuštěn a jaký řetězec systémů je zodpovědný za to, že tento proces právě teď běží'. Witr je napsán v jazyce Go.
Yazi je správce souborů běžící v terminálu. Napsán je v programovacím jazyce Rust. Podporuje asynchronní I/O operace. Vydán byl v nové verzi 25.12.29. Instalovat jej lze také ze Snapcraftu.
Od soboty do úterý probíhá v Hamburku konference 39C3 (Chaos Communication Congress) věnovaná také počítačové bezpečnosti nebo hardwaru. Program (jiná verze) slibuje řadu zajímavých přednášek. Streamy a záznamy budou k dispozici na media.ccc.de.
Byl představen nový Xserver Phoenix, kompletně od nuly vyvíjený v programovacím jazyce Zig. Projekt Phoenix si klade za cíl být moderní alternativou k X.Org serveru.
XLibre Xserver byl 21. prosince vydán ve verzi 25.1.0, 'winter solstice release'. Od založení tohoto forku X.Org serveru se jedná o vůbec první novou minor verzi (inkrementovalo se to druhé číslo v číselném kódu verze).
Wayback byl vydán ve verzi 0.3. Wayback je "tak akorát Waylandu, aby fungoval Xwayland". Jedná se o kompatibilní vrstvu umožňující běh plnohodnotných X11 desktopových prostředí s využitím komponent z Waylandu. Cílem je nakonec nahradit klasický server X.Org, a tím snížit zátěž údržby aplikací X11.
Byla vydána verze 4.0.0 programovacího jazyka Ruby (Wikipedie). S Ruby Box a ZJIT. Ruby lze vyzkoušet na webové stránce TryRuby. U příležitosti 30. narozenin, první veřejná verze Ruby 0.95 byla oznámena 21. prosince 1995, proběhl redesign webových stránek.
Všem čtenářkám a čtenářům AbcLinuxu krásné Vánoce.
Zdravim
Uz dlhsiu dobu riesim problem, ako rozumne synchronizovat (alebo skvor replikovat) v realnom case particie na dvoch roznych strojoch prepojenych sietou. Jedna sa mi v principe o vytvorenie zalozneho domenoveho kontrolera, ktory by kompletne nahradil pripadny vypadok mastera -> teda dostupnost nielen autentifikacie, ale aj pouzivatelskych sietovych diskov, profilov, pripadne dalsich zdielanych adresarov.
Autentifikacia je vyriesena multimaster replikaciou adresaroveho stromu medzi kontrolermi, taktiez role PDC a BDC su nakonfigurovane podla manualov. Jediny sucasny problem je prave v mirrorovani diskov.
Toto mirrorovanie som skusal riesit s pouzitim DRBD (both-primary mode) a GFS2 (teda aj za pouzitia cluster manazera). Riesene to bolo nasledovne:
systemovy disk | okrem /boot komplet LVM | LVM particia X ako drbdX zariadenie | gfs2 ako fs pre drbdX...a tento model pouzity v podstate rovnako na oboch (PDC, BDC) strojoch. Konkretne sa jednalo v prvej faze o synchronizovanie /home (drbd0), profiles (drbd1) a netlogon (drbd2) adresarov.
Avsak hlavny problem s ktorym som dlho bojoval (a napokon s pokorou vzdal) bolo lockovanie smbd procesov pristupujucich na filesystem. Bezne sa stavalo, ze zamknutych/freeznutych ich bolo aj cez tisic a nevedel som tento problem rozumne vyriesit. Sice som sa docital, ze tento problem sa riesi zrusenim max poctu lockov v cman-ovi, ktory som vyskusal a otestoval pouzitim ping_pong.c utility na zistovanie max poctu (u mna cca 24000 lockov/sec) moznych lockov nad gfs2 filesystemom. Avsak mrznutie procesov pokracovalo a mna to uz prestalo bavit, tak som sa vratil k single-domainmaster modelu.
Taktiez som sa docital, ze niektori mirrorovali ako drbd zariadenie komplet LVM physical volume s pouzitim cluster LVM ... avsak neviem ci by to malo nejaky dopad na to zamykanie procesov.
Dalsia vec co ma pri tomto scenari trapila bol tiez fakt, ze gfs2 particie na BDC sa stali nedostupne v pripade, ze primarny (ale fakt netusim podla coho je ktory uzol primarny) uzol klastra sa stal nedostupnym... a kedze ten nedostupny uzol je zaroven PDC, tak pouzitie BDC v pripade nedostupnosti PDC by bolo takto ohrozene. Toto tipujem na problem konfiguracie cman-u a nejakeho pristupovaniu ku lockfs tabulke nad gfs2.
pouzite postupy: GFS:
mkfs.gfs2 -t domcontrol:homes -p lock_dlm -j 2 /dev/drbd0 /dev/drbd0 /home gfs2 defaults,nodev,nosuid,noatime,nodiratime,rw 0 0
Dalsim problemom bola prenosova rychlost pri kopirovani z clienta do /home (okolo 1.5MBps), ktoru vsak pripisujem na vrub hlavne tomu, ze pre drbd synchronizaciu som pouzival tu istu sietovku (a aj siet) ako medzi serverom a domenovym klientom, takze som tomu velku vahu nepripisoval, lebo pri realnom pouzivani by sa specialne synchronizacne sietove spojenie medzi uzlami spravilo.
Avsak teraz pred vianocami dorazil dalsi (relativne vykonny) server (a hlavne pocitace pre dalsiu pocitacovu ucebnu) a myslienka zalozneho kontrolera sa znova stala realnou (kedze BDC vlastne plni rolu aj ako loadbalancer v pripade dostupnosti PDC). Preto sa chcem po tomto mojom dlhom predslove dostat konecne k otazkam:
- ak podobny scenar niekde pouzivate, mohli by ste nacrtnut pouzity filesystem (mozno nieco ine ako gfs2) pripadne ideu akou ste to riesili?
- ak ste sa s podobnym vyssiepopisanymi problemami uz stretli a podarilo sa vam ich uspesne vyriesit, mohli by ste nejak poradit? konfiguraky (az na cluster.conf), logy, pripadne vypisy som vzhladom na siroky zaber problemu neuvadzal, ale mozem bez problemov uviest.
Na otázku zatím nikdo bohužel neodpověděl.
Tiskni
Sdílej: