abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
AbcLinuxu hledá autory!
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
eParkomat, startup z ČR, postoupil mezi finalisty evropského akcelerátoru ChallengeUp!
Robot na pivo mu otevřel dveře k opravdovému byznysu
Internet věcí: Propojený svět? Už se to blíží...
dnes 11:44 | Zajímavý projekt

Na Indiegogo byla spuštěna kampaň na podporu herní mini konzole a multimediálního centra RetroEngine Sigma od Doyodo. Předobjednat ji lze již od 49 dolarů. Požadovaná částka 20 000 dolarů byla překonána již 6 krát. Majitelé mini konzole si budou moci zahrát hry pro Atari VCS 2600, Sega Genesis nebo NES. Předinstalováno bude multimediální centrum Kodi.

Ladislav Hagara | Komentářů: 0
dnes 00:10 | Nová verze

Byla vydána verze 4.7 redakčního systému WordPress. Kódové označením Vaughan bylo vybráno na počest americké jazzové zpěvačky Sarah "Sassy" Vaughan. Z novinek lze zmínit například novou výchozí šablonu Twenty Seventeen, náhledy pdf souborů nebo WordPress REST API.

Ladislav Hagara | Komentářů: 0
včera 12:00 | Zajímavý projekt

Projekt Termbox umožňuje vyzkoušet si linuxové distribuce Ubuntu, Debian, Fedora, CentOS a Arch Linux ve webovém prohlížeči. Řešení je postaveno na projektu HyperContainer. Podrobnosti v často kladených dotazech (FAQ). Zdrojové kódy jsou k dispozici na GitHubu [reddit].

Ladislav Hagara | Komentářů: 23
včera 11:00 | Bezpečnostní upozornění

Byly zveřejněny informace o bezpečnostní chybě CVE-2016-8655 v Linuxu zneužitelné k lokální eskalaci práv. Chyba se dostala do linuxového jádra v srpnu 2011. V upstreamu byla opravena minulý týden [Hacker News].

Ladislav Hagara | Komentářů: 2
5.12. 22:00 | Komunita

Přibližně před měsícem bylo oznámeno, že linuxová distribuce SUSE Linux Enterprise Server (SLES) běží nově také Raspberry Pi 3 (dokumentace). Obraz verze 12 SP2 pro Raspberry Pi 3 je ke stažení zdarma. Pro registrované jsou po dobu jednoho roku zdarma také aktualizace. Dnes bylo oznámeno, že pro Raspberry Pi 3 je k dispozici také nové openSUSE Leap 42.2 (zprávička). K dispozici je hned několik obrazů.

Ladislav Hagara | Komentářů: 6
5.12. 06:00 | Zajímavý software

OMG! Ubuntu! představuje emulátor terminálu Hyper (GitHub) postavený na webových technologiích (HTML, CSS a JavaScript). V diskusi k článku je zmíněn podobný emulátor terminálu Black Screen. Hyper i Black Screen používají framework Electron, stejně jako editor Atom nebo vývojové prostředí Visual Studio Code.

Ladislav Hagara | Komentářů: 50
5.12. 06:00 | Zajímavý článek

I letos vychází řada ajťáckých adventních kalendářů. QEMU Advent Calendar 2016 přináší každý den nový obraz disku pro QEMU. Programátoři se mohou potrápit při řešení úloh z kalendáře Advent of Code 2016. Kalendáře Perl Advent Calendar 2016 a Perl 6 Advent Calendar přinášejí každý den zajímavé informace o programovacím jazyce Perl. Stranou nezůstává ani programovací jazyk Go.

Ladislav Hagara | Komentářů: 10
3.12. 16:24 | Nová verze

Byla vydána Mageia 5.1. Jedná se o první opravné vydání verze 5, jež vyšla v červnu loňského roku (zprávička). Uživatelům verze 5 nepřináší opravné vydání nic nového, samozřejmě pokud pravidelně aktualizují. Vydání obsahuje všechny aktualizace za posledního téměř půldruhého roku. Mageia 5.1 obsahuje LibreOffice 4.4.7, Linux 4.4.32, KDE4 4.14.5 nebo GNOME 3.14.3.

Ladislav Hagara | Komentářů: 17
3.12. 13:42 | Pozvánky

V Praze probíhá konference Internet a Technologie 16.2, volné pokračování jarní konference sdružení CZ.NIC. Konferenci lze sledovat online na YouTube. K dispozici je také archiv předchozích konferencí.

Ladislav Hagara | Komentářů: 0
2.12. 22:44 | Komunita

Joinup informuje, že Mnichov používá open source groupware Kolab. V srpnu byl dokončen dvouletý přechod na toto řešení. V provozu je asi 60 000 poštovních schránek. Nejenom Kolabu se věnoval Georg Greve ve své přednášce Open Source: the future for the European institutions (SlideShare) na konferenci DIGITEC 2016, jež proběhla v úterý 29. listopadu v Bruselu. Videozáznam přednášek z hlavního sálu je ke zhlédnutí na Livestreamu.

Ladislav Hagara | Komentářů: 26
Kolik máte dat ve svém domovském adresáři na svém primárním osobním počítači?
 (32%)
 (24%)
 (29%)
 (8%)
 (5%)
 (3%)
Celkem 781 hlasů
 Komentářů: 50, poslední 29.11. 15:50
Rozcestník
Reklama

Dotaz: pacemaker a drbd - problem s konfiguraci

30.12.2011 20:35 Gilhad | skóre: 20 | blog: gilhadoviny
pacemaker a drbd - problem s konfiguraci
Přečteno: 753×
mam nastavit HA cluster ze dvou serveru (box423 a box402) - bohuzel se v tom nevyznam. Sel jsem podle nejakych tutorialu a ve vysledku to _vetsinou_ chodi - apache a mysql bezi na jednom, nebo druhem, ale rozhodne jsou dostupne na spolecne adrese.

Problem je, ze kdyz stridave rebootuju (prikazem reboot - cili velmi nezne) ty dva servery, tak se mi kazdou chvili objevi split-brain, nebo se jeden zacne tvarit jako diskless a ja netusim proc. Trikrat to projde, po ctvrte nikoli (aniz bych videel nejakou zavislost).

IMHO mam spatne konfiguraci, ale nevim v cem. Zamerem je, ze na jednom serveru bezi vse a druhy se flaka, pokud prvni zdechne zcela ci castecne, tak druhy prebere vse. V praxi by to nastat nemelo, krome pripadu testovani prave teto vlastnosti (HW spolehlivy, zatez smesna, pozadavky minimalni, jinde nam to bezi na single stroji s uptimem nekolik let, ale zakaznik proste touzi po redundanci, kvuli pocitu sucha a bezpeci - dokonce ani o data moc nejde, z principu veci jsou zalohpvana na spouste mist)

box423 ~ # cat /proc/drbd
version: 8.3.6 (api:88/proto:86-91)
GIT-hash: f3606c47cc6fcf6b3f086e425cb34af8b7a81bbf build by @box423, 2011-12-22 11:43:07

 1: cs:Connected ro:Primary/Secondary ds:UpToDate/Diskless C r----
    ns:3857 nr:296 dw:7684 dr:25109 al:8 bm:574 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:521208


box423 ~ # crm status
============
Last updated: Fri Dec 30 20:32:06 2011
Last change: Fri Dec 30 20:22:16 2011
Stack: openais
Current DC: box423 - partition with quorum
Version: 1.1.6-0c7312c689715e096b716419e2ebc12b57962052
2 Nodes configured, 2 expected votes
6 Resources configured.
============

Online: [ box423 box402 ]

 Master/Slave Set: WebDataClone [WebData]
     Masters: [ box423 ]
     Slaves: [ box402 ]
 Resource Group: mysql
     WebFS	(ocf::heartbeat:Filesystem):	Started box423
     ClusterIP	(ocf::heartbeat:IPaddr2):	Started box423
     mysqld	(lsb:mysql):	Started box423
     WebSite	(lsb:apache2):	Started box423


box423 ~ # crm configure show
node box402 \
	attributes standby="off"
node box423 \
	attributes standby="off"
primitive ClusterIP ocf:heartbeat:IPaddr2 \
	params ip="10.0.1.222" cidr_netmask="32" \
	op monitor interval="30s"
primitive WebData ocf:linbit:drbd \
	params drbd_resource="shared_data" \
	op monitor interval="60s"
primitive WebFS ocf:heartbeat:Filesystem \
	params device="/dev/drbd/by-res/shared_data" directory="/home" fstype="ext3"
primitive WebSite lsb:apache2 \
	op monitor interval="1min"
primitive mysqld lsb:mysql
group mysql WebFS ClusterIP mysqld WebSite
ms WebDataClone WebData \
	meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" notify="true" target-role="Started"
location prefer-box423 WebSite 50: box423
colocation WebSite-with-WebFS inf: WebSite WebFS
colocation fs_on_drbd inf: WebFS WebDataClone:Master
colocation website-with-ip inf: WebSite ClusterIP
order WebFS-after-WebData inf: WebDataClone:promote WebFS:start
order WebSite-after-WebFS inf: WebFS WebSite
order apache-after-ip inf: ClusterIP WebSite
property $id="cib-bootstrap-options" \
	dc-version="1.1.6-0c7312c689715e096b716419e2ebc12b57962052" \
	cluster-infrastructure="openais" \
	expected-quorum-votes="2" \
	stonith-enabled="false" \
	no-quorum-policy="ignore"
rsc_defaults $id="rsc-options" \
	resource-stickiness="100"



box423 ~ # cat /etc/drbd.d/shared_data.res 
resource shared_data {
  meta-disk internal;
  device    /dev/drbd1;
  syncer {
    verify-alg sha1;
  }
  net {
    allow-two-primaries;
  }
  on box423 {
    device    /dev/drbd1;
    disk      /dev/sda4;
    address   10.0.1.104:7789;
  }
  on box402 {
    device    /dev/drbd1;
    disk      /dev/sda4;
    address   10.0.1.103:7789;
  }
}


Řešení dotazu:


Odpovědi

30.12.2011 23:25 chinook | skóre: 25
Rozbalit Rozbalit vše Re: pacemaker a drbd - problem s konfiguraci
Na základě tohoto, bych řekl, že DRBD nemůže běžet v two-primaries...

ms WebDataClone WebData \
	meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" notify="true" target-role="Started"
tak smaž:

net {
    
  }

zkus toto zmenit

30.12.2011 23:31 chinook | skóre: 25
Rozbalit Rozbalit vše Re: pacemaker a drbd - problem s konfiguraci
a ještě si nejsem jistej jestli nemá být nastaveno u všeho master ať to naběhne na správné straně uzlu

colocation WebSite-with-WebFS inf: WebSite WebFS:Master
colocation fs_on_drbd inf: WebFS WebDataClone:Master
colocation website-with-ip inf: WebSite ClusterIP:Master
1.1.2012 10:50 Aleš Kapica | skóre: 45 | blog: kenyho_stesky | Ostrava
Rozbalit Rozbalit vše Re: pacemaker a drbd - problem s konfiguraci
No, tak výše uvedená rada od chinooka je zcela mimo mísu. Takže znova od začátku.

DRBD funguje jako mirror, tzn. je to pouze záležitost dvou strojů. Třetí stroj sice může být zapojen, ale funguje pouze jako spare. Tzn. že na něm žádná data nejsou a zreplikují se až v případě že jeden z původníchdvou strojů vypadne. Z toho plyne přinejmenším jeden poznatek - nedá se to použít v případě Master/Master.

DRBD pochopitelně lze použít i v režimu Master/Master. Pokud nemáš na čtení anglického manuálu k DRBD přímo od Linbitu nebo na serveru clusterlabs.org tak se můžeš kouknout sem na manuál k DRBD na naší wiki. Najdeš tam mimo jiné i ukázku konfigurace, jakou potřebuješ. Chceš-li však mít připojené DRBD zařízení současně na obou strojích, musíš mít implementován clusterový souborový systém, který umožňuje hrabat současně ze dvou přípojných bodů do jednoho datového prostoru. Mně se osvědčil OCFS2, ovšem pozor! agent, který používá Pacemaker je zastaralý! Takže jsem si napsal vlastní. Stejně tak i agenta pro připojení souborového systému!

Najdeš je ke stažení na našem git serveru, ovšem musíš mít krapet strpení než je tam uploadnu. Chtěl jsem je nechat nějaký čas běžet, abych se ujistil, že fakt fungují dobře. Dokumentace k nim je (či spíš bude) opět k nalezení v rámci dokumentace pro Pacemaker na naší wiki.

Ovšem pozor! Pokud ti jde pouze o to mít sdílený datový prostor, není vůbec Pacemaker nutný, protože OCFS2 má v sobě implementován Hearbeat. Stačí pak mít pouze nakonfigurováno DRBD a soubor /etc/ocfs2/cluster.conf!

1.1.2012 14:04 Aleš Kapica | skóre: 45 | blog: kenyho_stesky | Ostrava
Rozbalit Rozbalit vše Re: pacemaker a drbd - problem s konfiguraci
Ještě několik vysvětlivek k tvému dotazu.

Když máš dva nody, z nichž každý poskytuje jeden apache, tak musíš mít i nejspíš nějakou proxy, která by ti rozhazovala požadavky podle toho, která stránka kde běží. Nestačí pouze nastavení jedné adresy, jak je to v režimu Master/Slave.

Pokud zákazník touží po redundanci webové služby, tak by se měl spokojit s tím jak to máš. Tedy DRBD v režimu Master/Slave. Jediné co bys možná mohl poladit jsou timeouty - tak aby se ti DRBD stačilo zesynchronizovat dříve než se namountuje. DRBD se ti totiž rozhodí tehdy, pokud mount provedeš dříve, než se stačí oba stroje zesynchronizovat. Nevím jak to máš udělané, ale pro spojení DRBD je vhodné použít samostatný a pokud možno co nejrychlejší interface.

Režim Master/Master je vhodný (z mého pohledu) pouze tehdy, pokud potřebuješ na obou strojích pracovat se stejným datovým prostorem ve stejnou dobu. Já ho kupř. využívám pro sdílený datový prostor virtuálních strojů.
7.1.2012 02:27 Gilhad | skóre: 20 | blog: gilhadoviny
Rozbalit Rozbalit vše Re: pacemaker a drbd - problem s konfiguraci
Prvně se omlouvám, že píšu až teď, dřív jsem se k tomu kvůli svátkům a prioritnějším věcem nedostal.

Moje potřeba je taková, že mám jednu IP adresu (IP 222) na kterou zákazník přistupuje. Na té adrese běží Apache (který používá mysql, která používá diskový prostor).

Ve skutečnosti mám dva stroje (IP 103 a IP 104), přičemž jeden z nich je Master a běží na něm všechno (Apache, mysql, filesystem), druhý je slave a neběží na něm nic, akorát se na jeho disk z Masteru zrcadlí data. Pokud Master z nějakého důvodu pochcípne, tak Slave za něj přebere veškerou práci (obsadí IP 222, přimountuje fs, spustí mysql a následně Apache) takže zákazník nic nepozná, protože z jeho pohledu na ip 222 vše běží bez ustání (nebo jen s krátkým výpadkem). Když Master ožije, měl by si stáhnout data ze Slavu a opět převzít svou roli, nebo ji aspoň převzít až Slave pochcípne.

Takže potřebuju, aby mi to vše běželo jen na jednom stroji, zatímco druhý čeká zapnutý v záloze.

O výkon v podstatě nejde, střídání strojů se předpokládá jen při havárii (která se nepředpokládá), zotavit by se to mělo nejlépe nějak samo.
7.1.2012 13:47 Aleš Kapica | skóre: 45 | blog: kenyho_stesky | Ostrava
Rozbalit Rozbalit vše Re: pacemaker a drbd - problem s konfiguraci
Ještě jednou jsem se kouknul na tvůj dotaz nahoře. Tebe trápí, že když dáš jeden stroj rebootnout, tak se ti někdy rozhodí drbd. Jinak je to ok?

V takovém případě (alespoň u mne) pomůže když corosync na stroji který předtím upad zastavím a znovu spustím. Obvykle se to srovná. Pokud ne, tak to pořeším nejprve drbd ručně.

Na stroji který upadnul nastavím před drbdadm diskové pole jako slave, a pak drbd restartuji. Drbd démon pak čeká na druhý disk. Na stroji, který běží nastavím disk do stavu connect, načež se mi disky spojí a provede se synchronizace. Po dokončení synchronizace už by to mělo být ok. Nejsem si jist jestli mám tenhle postup už zdokumentovaný, každopádně by se měl objevit na výše odkazované wiki.

Mimochodem, moji agenti pro OCFS2 a mountování souborového systému jsou už vypublikovaní na našem git serveru, takže je lze použít.

7.1.2012 22:06 Gilhad | skóre: 20 | blog: gilhadoviny
Rozbalit Rozbalit vše Re: pacemaker a drbd - problem s konfiguraci
Tak nejak - kdyz mi jeden stroj vypadne (at reboot, nebo vykopnuty ethernet kabel), druhy prevezme rizeni. Ale uz se to (skoro) nikdy neda samo dohromady, vetsinou skoncim na tom, ze oba maji spustene vsechny sluzby (neni divu), drbd skonci na ds:UpToDate/Diskless a ja nevim, jak se z toho vymotat.

Asi tomu nerozumim ani co se principu tyce, protoze jakmile ty dva stroje o sobe navzajem chvilku nevi, tak je logicke, ze kazdy se snazi situaci zachranit a poskytovat sluzby (od toho to tu je), jakmile se ale ocitnou zpatky v siti oba, tak nevim, jak poznaji, ktery z nich ma spravna data (jakym zpusobem na to prijdou, nebo jestli musim prijit ja, jako clovek a rict jim to osobne - prez ssh treba) a jak je vnutit druhemu (jake prikazy mam pospoustet, ci jak upravit konfiguraci, abych se z toho ds:UpToDate/Diskless dostal na ds:UpToDate/UpToDate).

Ted kdyz jsem to zkousel, tak se mi to na "slavu" podarilo prez nejakou kombinaci invalidate, detach a attach, ale pak to jelo nekolik hodin (je to velky disk a ne az tak extremne rychla linka)

Taky uvazuju o tom, ze zkusim pridat do tech stroju dalsi sitovky a propojit je kratickym krizenym kabelem, aby sance na ztratu spojeni klesla - tim si sice pomuzu co do cetnosti, ale ne co do principu.
8.1.2012 13:34 Aleš Kapica | skóre: 45 | blog: kenyho_stesky | Ostrava
Rozbalit Rozbalit vše Re: pacemaker a drbd - problem s konfiguraci
Že to nějakou dobu trvá, než se to zesynchronizuje je samolitr. Co bys taky čekal. To je také důvod proč se to rozhodí. Protože pokud si to drbd nestihne do nějaké doby zkontrolovat že je synchronní, tak se nastaví do standalone režimu a musíš to pak spustit ručně.

Pokud jde o nápad s dalšíma síťovkama - tak od toho jsi měl začít. Protože právě přes ten binding se to obvykle dělá. Pro spojení DRBD se používá to nejrychlejší co je k dispozici. Máš-li 100M a 1G síťovky, tak pro DRBD je třeba jednoznačně využít ty 1G. Samozřejmě pokud máš k dispozici i něco lepšího (FiberChannel nebo InfiniBand) tak je pochopitelně lepší využít tohle.
12.1.2012 09:57 tlamik | skóre: 21 | Karvina
Rozbalit Rozbalit vše Re: pacemaker a drbd - problem s konfiguraci
Podle mě se tu míchá několik věcí najednou, které sice spolu souvisejí, aby to celé fungovalo, nicméně doporučuji se na to podívat prozatím odděleně. DRBD může a taky funguje bez pacemakeru (haertbeatu atp.), DRBD je jakoby "RAID1 over LAN", kde zrcadlí disky přes LAN na dvou různých PC (klasický RAID1 to dělá lokálně v jednom PC). Já když rozjíždím HA-cluster (mimochodem podle popisu, stejný princip jako máš ty, jeden je master, druhý je slave, všechny služby běží jen na jednom), tak nejprve vyladím samotné DRBD. To ti musí fungovat po restartech spolehlivě, s malou drobností, že po restartu jsou všechny PC ve stavu Secondary, nicméně všechny musí být UpToDate. Pokud nejsou, tak to znamená, že na nějakou chvilku neviděl jeden druhého a začal vyšilovat. Doporučuju vykašlat se na služby nad DRBD a odladit nejprve samotné DRBD, zkoušet stovky restartů, od něžných až po brutální resety. Samozřejmě je fajn, aby se odladil režim Master/Slave, pro začátek podle mě stačí nahazovat Primary All ručně, po resetu Mastera, musí Slave zůstat UpToDate a po najetí se sesynchronizovat. Já místo pacemakera používám heartbeat (přišel mi jednodušší na konfiguraci).
12.1.2012 10:56 Aleš Kapica | skóre: 45 | blog: kenyho_stesky | Ostrava
Rozbalit Rozbalit vše Re: pacemaker a drbd - problem s konfiguraci
Heartbeat je kaput. Budoucnost má jednoznačně corosync. V loňském roce skočil Pacemaker notný kus dopředu a to co je v distribuci Debianu funguje docela dobře.

Nedoporučuji buildovat corosync z develop verze. Důvod je ten, že vývojáři corosyncu změnili komunikační platformu a Pacemaker na to zatím není připraven - musí se tam překopat komunikační vrstva.

Na DRBD není vcelku co ladit. Maximálně ještě tak nastavení max. povolené rychlosti pro replikaci. Když je moc vysoká, tak se to rozpadá, protože nestíhá propustnost linky. Pokud se po stejném drátě honí i jiné služby, je vhodné raději nastavit menší rychlost.

Také bych upozornil na nepěkné (a v podstatě zbytečné) defaultní nastavení distribučních drbd handlerů. Po manuálně spuštěné verifikaci totiž dojde k nekompromisnímu restartu, což odstřelí služby nad tím drbd.
13.1.2012 08:20 tlamik | skóre: 21 | Karvina
Rozbalit Rozbalit vše Re: pacemaker a drbd - problem s konfiguraci
no musím přiznat, že jsem byl líný prokousat se heartbeatem V2 nebo CRM, takže používám V1 bez CRM (resp. když jsem to rozjížděl poprvé V2 ještě nebyla a od té doby kdykoli potřebuju někde cluster, tak dám ověřenou konfiguraci V1). Prostě mi to příjde, že to nepotřebuji. Jak psal kolega, potřebuju mít sesynchronizované disky (resp. LVM partišny), pak potřebuju hlídat jestli jede apache, nějaké databáze. Pokud spadnou, tak se nahodí na druhém stroji včetně sdílené virtuální IP. Nechápu v čem by mohl být lepší pacemaker ?
13.1.2012 12:30 Aleš Kapica | skóre: 45 | blog: kenyho_stesky | Ostrava
Rozbalit Rozbalit vše Re: pacemaker a drbd - problem s konfiguraci
Pacemaker, umožňuje dělat clustery, které mají více než dva nody. A ostatní věci zmiňuji na odkazované stránce. Jinak zrovna DRBD interně používá právě heartbeat. Pokud jde o mne, tak Pacemaker s corosyncem funguje velmi pěkně. Mám ho použitý na dvou asymetrických clusterech. Jeden má 5 nodů (mix Intel & AMD) a druhý 3 (mix architektury i386 a amd64).
Řešení 1× (Gilhad (tazatel))
30.1.2012 22:42 Gilhad | skóre: 20 | blog: gilhadoviny
Rozbalit Rozbalit vše Re: pacemaker a drbd - problem s konfiguraci
Přidal jsem novou dedikovanou síťovku do každého stroje, zahodil stará pravidla a napsal nová, jednodušší a přehlednější a problémy nějak vymizely :)

Založit nové vláknoNahoru

Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

ISSN 1214-1267   www.czech-server.cz
© 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.