Portál AbcLinuxu, 5. května 2025 15:13
Zdravim
Uz dlhsiu dobu riesim problem, ako rozumne synchronizovat (alebo skvor replikovat) v realnom case particie na dvoch roznych strojoch prepojenych sietou. Jedna sa mi v principe o vytvorenie zalozneho domenoveho kontrolera, ktory by kompletne nahradil pripadny vypadok mastera -> teda dostupnost nielen autentifikacie, ale aj pouzivatelskych sietovych diskov, profilov, pripadne dalsich zdielanych adresarov.
Autentifikacia je vyriesena multimaster replikaciou adresaroveho stromu medzi kontrolermi, taktiez role PDC a BDC su nakonfigurovane podla manualov. Jediny sucasny problem je prave v mirrorovani diskov.
Toto mirrorovanie som skusal riesit s pouzitim DRBD (both-primary mode) a GFS2 (teda aj za pouzitia cluster manazera). Riesene to bolo nasledovne:
systemovy disk | okrem /boot komplet LVM | LVM particia X ako drbdX zariadenie | gfs2 ako fs pre drbdX...a tento model pouzity v podstate rovnako na oboch (PDC, BDC) strojoch. Konkretne sa jednalo v prvej faze o synchronizovanie /home (drbd0), profiles (drbd1) a netlogon (drbd2) adresarov.
Avsak hlavny problem s ktorym som dlho bojoval (a napokon s pokorou vzdal) bolo lockovanie smbd
procesov pristupujucich na filesystem. Bezne sa stavalo, ze zamknutych/freeznutych ich bolo aj cez tisic a nevedel som tento problem rozumne vyriesit. Sice som sa docital, ze tento problem sa riesi zrusenim max poctu lockov v cman-ovi, ktory som vyskusal a otestoval pouzitim ping_pong.c utility na zistovanie max poctu (u mna cca 24000 lockov/sec) moznych lockov nad gfs2 filesystemom. Avsak mrznutie procesov pokracovalo a mna to uz prestalo bavit, tak som sa vratil k single-domainmaster modelu.
Taktiez som sa docital, ze niektori mirrorovali ako drbd zariadenie komplet LVM physical volume s pouzitim cluster LVM ... avsak neviem ci by to malo nejaky dopad na to zamykanie procesov.
Dalsia vec co ma pri tomto scenari trapila bol tiez fakt, ze gfs2 particie na BDC sa stali nedostupne v pripade, ze primarny (ale fakt netusim podla coho je ktory uzol primarny) uzol klastra sa stal nedostupnym... a kedze ten nedostupny uzol je zaroven PDC, tak pouzitie BDC v pripade nedostupnosti PDC by bolo takto ohrozene. Toto tipujem na problem konfiguracie cman-u a nejakeho pristupovaniu ku lockfs tabulke nad gfs2.
pouzite postupy: GFS:
mkfs.gfs2 -t domcontrol:homes -p lock_dlm -j 2 /dev/drbd0 /dev/drbd0 /home gfs2 defaults,nodev,nosuid,noatime,nodiratime,rw 0 0
Dalsim problemom bola prenosova rychlost pri kopirovani z clienta do /home (okolo 1.5MBps), ktoru vsak pripisujem na vrub hlavne tomu, ze pre drbd synchronizaciu som pouzival tu istu sietovku (a aj siet) ako medzi serverom a domenovym klientom, takze som tomu velku vahu nepripisoval, lebo pri realnom pouzivani by sa specialne synchronizacne sietove spojenie medzi uzlami spravilo.
Avsak teraz pred vianocami dorazil dalsi (relativne vykonny) server (a hlavne pocitace pre dalsiu pocitacovu ucebnu) a myslienka zalozneho kontrolera sa znova stala realnou (kedze BDC vlastne plni rolu aj ako loadbalancer v pripade dostupnosti PDC). Preto sa chcem po tomto mojom dlhom predslove dostat konecne k otazkam:
- ak podobny scenar niekde pouzivate, mohli by ste nacrtnut pouzity filesystem (mozno nieco ine ako gfs2) pripadne ideu akou ste to riesili?
- ak ste sa s podobnym vyssiepopisanymi problemami uz stretli a podarilo sa vam ich uspesne vyriesit, mohli by ste nejak poradit? konfiguraky (az na cluster.conf
), logy, pripadne vypisy som vzhladom na siroky zaber problemu neuvadzal, ale mozem bez problemov uviest.
Na otázku zatím nikdo bohužel neodpověděl.
Tiskni
Sdílej:
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.