abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
AbcLinuxu hledá autory!
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
    dnes 01:00 | Komunita

    Z upstreamu GNOME Mutter byl zcela odstraněn backend X11. GNOME 50 tedy poběží už pouze nad Waylandem. Aplikace pro X11 budou využívat XWayland.

    Ladislav Hagara | Komentářů: 0
    dnes 00:00 | IT novinky

    Byl publikován plán na odstranění XSLT z webových prohlížečů Chrome a Chromium. S odstraněním XSLT souhlasí také vývojáři Firefoxu a WebKit. Důvodem jsou bezpečnostní rizika a klesající využití v moderním webovém vývoji.

    Ladislav Hagara | Komentářů: 0
    včera 15:55 | Nová verze

    Desktopové prostředí LXQt (Lightweight Qt Desktop Environment, Wikipedie) vzniklé sloučením projektů Razor-qt a LXDE bylo vydáno ve verzi 2.3.0. Přehled novinek v poznámkách k vydání.

    Ladislav Hagara | Komentářů: 0
    včera 05:55 | IT novinky

    Organizace Open Container Initiative (OCI) (Wikipedie), projekt nadace Linux Foundation, vydala Runtime Specification 1.3 (pdf), tj. novou verzi specifikace kontejnerového běhového prostředí. Hlavní novinkou je podpora FreeBSD.

    Ladislav Hagara | Komentářů: 0
    4.11. 11:33 | IT novinky

    Nový open source router Turris Omnia NG je v prodeji. Aktuálně na Allegro, Alternetivo, Discomp, i4wifi a WiFiShop.

    Ladislav Hagara | Komentářů: 22
    4.11. 05:44 | Komunita

    Na YouTube a nově také na VHSky byly zveřejněny sestříhané videozáznamy přednášek z letošního OpenAltu.

    Ladislav Hagara | Komentářů: 0
    4.11. 04:33 | Komunita

    Jednou za rok otevírá společnost SUSE dveře svých kanceláří široké veřejnosti. Letos je pro vás otevře 26. listopadu v 16 hodin v pražském Karlíně. Vítáni jsou všichni, kdo se chtějí dozvědět více o práci vývojářů, prostředí ve kterém pracují a o místní firemní kultuře. Můžete se těšit na krátké prezentace, které vám přiblíží, na čem inženýři v Praze pracují, jak spolupracují se zákazníky, partnery i studenty, proč mají rádi open source a co

    … více »
    SUSEMAS | Komentářů: 2
    4.11. 04:22 | Komunita

    Na čem pracují vývojáři webového prohlížeče Ladybird (GitHub)? Byl publikován přehled vývoje za říjen (YouTube).

    Ladislav Hagara | Komentářů: 0
    4.11. 04:11 | Zajímavý článek

    Jeff Quast otestoval současné emulátory terminálu. Zaměřil se na podporu Unicode a výkon. Vítězným emulátorem terminálu je Ghostty.

    Ladislav Hagara | Komentářů: 11
    3.11. 22:55 | IT novinky

    Amazon bude poskytovat cloudové služby OpenAI. Cloudová divize Amazon Web Services (AWS) uzavřela s OpenAI víceletou smlouvu za 38 miliard USD (803,1 miliardy Kč), která poskytne majiteli chatovacího robota s umělou inteligencí (AI) ChatGPT přístup ke stovkám tisíc grafických procesů Nvidia. Ty bude moci využívat k trénování a provozování svých modelů AI. Firmy to oznámily v dnešní tiskové zprávě. Společnost OpenAI také nedávno

    … více »
    Ladislav Hagara | Komentářů: 8
    Jaké řešení používáte k vývoji / práci?
     (36%)
     (48%)
     (18%)
     (17%)
     (22%)
     (15%)
     (21%)
     (16%)
     (16%)
    Celkem 316 hlasů
     Komentářů: 15, poslední 2.11. 08:25
    Rozcestník

    Dotaz: Network partition mirroring (DRBD + GFS2)

    25.12.2009 15:08 timeos | skóre: 32
    Network partition mirroring (DRBD + GFS2)
    Přečteno: 374×
    Příloha:

    Zdravim

    Uz dlhsiu dobu riesim problem, ako rozumne synchronizovat (alebo skvor replikovat) v realnom case particie na dvoch roznych strojoch prepojenych sietou. Jedna sa mi v principe o vytvorenie zalozneho domenoveho kontrolera, ktory by kompletne nahradil pripadny vypadok mastera -> teda dostupnost nielen autentifikacie, ale aj pouzivatelskych sietovych diskov, profilov, pripadne dalsich zdielanych adresarov.

    Autentifikacia je vyriesena multimaster replikaciou adresaroveho stromu medzi kontrolermi, taktiez role PDC a BDC su nakonfigurovane podla manualov. Jediny sucasny problem je prave v mirrorovani diskov.

    Toto mirrorovanie som skusal riesit s pouzitim DRBD (both-primary mode) a GFS2 (teda aj za pouzitia cluster manazera). Riesene to bolo nasledovne:

    systemovy disk | okrem /boot komplet LVM | LVM particia X ako drbdX zariadenie | gfs2 ako fs pre drbdX
    ...a tento model pouzity v podstate rovnako na oboch (PDC, BDC) strojoch. Konkretne sa jednalo v prvej faze o synchronizovanie /home (drbd0), profiles (drbd1) a netlogon (drbd2) adresarov.

    Avsak hlavny problem s ktorym som dlho bojoval (a napokon s pokorou vzdal) bolo lockovanie smbd procesov pristupujucich na filesystem. Bezne sa stavalo, ze zamknutych/freeznutych ich bolo aj cez tisic a nevedel som tento problem rozumne vyriesit. Sice som sa docital, ze tento problem sa riesi zrusenim max poctu lockov v cman-ovi, ktory som vyskusal a otestoval pouzitim ping_pong.c utility na zistovanie max poctu (u mna cca 24000 lockov/sec) moznych lockov nad gfs2 filesystemom. Avsak mrznutie procesov pokracovalo a mna to uz prestalo bavit, tak som sa vratil k single-domainmaster modelu.

    Taktiez som sa docital, ze niektori mirrorovali ako drbd zariadenie komplet LVM physical volume s pouzitim cluster LVM ... avsak neviem ci by to malo nejaky dopad na to zamykanie procesov.

    Dalsia vec co ma pri tomto scenari trapila bol tiez fakt, ze gfs2 particie na BDC sa stali nedostupne v pripade, ze primarny (ale fakt netusim podla coho je ktory uzol primarny) uzol klastra sa stal nedostupnym... a kedze ten nedostupny uzol je zaroven PDC, tak pouzitie BDC v pripade nedostupnosti PDC by bolo takto ohrozene. Toto tipujem na problem konfiguracie cman-u a nejakeho pristupovaniu ku lockfs tabulke nad gfs2.

    pouzite postupy: GFS:

    mkfs.gfs2 -t domcontrol:homes -p lock_dlm -j 2 /dev/drbd0
    /dev/drbd0 /home gfs2 defaults,nodev,nosuid,noatime,nodiratime,rw 0 0

    Dalsim problemom bola prenosova rychlost pri kopirovani z clienta do /home (okolo 1.5MBps), ktoru vsak pripisujem na vrub hlavne tomu, ze pre drbd synchronizaciu som pouzival tu istu sietovku (a aj siet) ako medzi serverom a domenovym klientom, takze som tomu velku vahu nepripisoval, lebo pri realnom pouzivani by sa specialne synchronizacne sietove spojenie medzi uzlami spravilo.

    Avsak teraz pred vianocami dorazil dalsi (relativne vykonny) server (a hlavne pocitace pre dalsiu pocitacovu ucebnu) a myslienka zalozneho kontrolera sa znova stala realnou (kedze BDC vlastne plni rolu aj ako loadbalancer v pripade dostupnosti PDC). Preto sa chcem po tomto mojom dlhom predslove dostat konecne k otazkam:

    - ak podobny scenar niekde pouzivate, mohli by ste nacrtnut pouzity filesystem (mozno nieco ine ako gfs2) pripadne ideu akou ste to riesili?

    - ak ste sa s podobnym vyssiepopisanymi problemami uz stretli a podarilo sa vam ich uspesne vyriesit, mohli by ste nejak poradit? konfiguraky (az na cluster.conf), logy, pripadne vypisy som vzhladom na siroky zaber problemu neuvadzal, ale mozem bez problemov uviest.

    Na otázku zatím nikdo bohužel neodpověděl.

    Založit nové vláknoNahoru

    Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.