abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
AbcLinuxu hledá autory!
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
    včera 22:33 | Nová verze

    Byla vydána nová major verze 5.0.0 svobodného multiplatformního nástroje BleachBit (GitHub, Wikipedie) určeného především k efektivnímu čištění disku od nepotřebných souborů.

    Ladislav Hagara | Komentářů: 1
    2.5. 22:22 | Komunita

    Na čem pracují vývojáři webového prohlížeče Ladybird (GitHub)? Byl publikován přehled vývoje za duben (YouTube).

    Ladislav Hagara | Komentářů: 0
    2.5. 19:11 | IT novinky

    Provozovatel čínské sociální sítě TikTok dostal v Evropské unii pokutu 530 milionů eur (13,2 miliardy Kč) za nedostatky při ochraně osobních údajů. Ve svém oznámení to dnes uvedla irská Komise pro ochranu údajů (DPC), která jedná jménem EU. Zároveň TikToku nařídila, že pokud správu dat neuvede do šesti měsíců do souladu s požadavky, musí přestat posílat data o unijních uživatelích do Číny. TikTok uvedl, že se proti rozhodnutí odvolá.

    Ladislav Hagara | Komentářů: 2
    2.5. 11:22 | Zajímavý projekt

    Společnost JetBrains uvolnila Mellum, tj. svůj velký jazykový model (LLM) pro vývojáře, jako open source. Mellum podporuje programovací jazyky Java, Kotlin, Python, Go, PHP, C, C++, C#, JavaScript, TypeScript, CSS, HTML, Rust a Ruby.

    Ladislav Hagara | Komentářů: 2
    2.5. 09:11 | Bezpečnostní upozornění

    Vývojáři Kali Linuxu upozorňují na nový klíč pro podepisování balíčků. K původnímu klíči ztratili přístup.

    Ladislav Hagara | Komentářů: 2
    1.5. 20:00 | Komunita

    V březnu loňského roku přestal být Redis svobodný. Společnost Redis Labs jej přelicencovala z licence BSD na nesvobodné licence Redis Source Available License (RSALv2) a Server Side Public License (SSPLv1). Hned o pár dní později vznikly svobodné forky Redisu s názvy Valkey a Redict. Dnes bylo oznámeno, že Redis je opět svobodný. S nejnovější verzí 8 je k dispozici také pod licencí AGPLv3.

    Ladislav Hagara | Komentářů: 2
    1.5. 19:22 | IT novinky

    Oficiální ceny Raspberry Pi Compute Modulů 4 klesly o 5 dolarů (4 GB varianty), respektive o 10 dolarů (8 GB varianty).

    Ladislav Hagara | Komentářů: 0
    30.4. 22:33 | Nová verze

    Byla vydána beta verze openSUSE Leap 16. Ve výchozím nastavení s novým instalátorem Agama.

    Ladislav Hagara | Komentářů: 0
    30.4. 17:44 | Zajímavý článek

    Devadesátková hra Brány Skeldalu prošla portací a je dostupná na platformě Steam. Vyšel i parádní blog autora o portaci na moderní systémy a platformy včetně Linuxu.

    karkar | Komentářů: 0
    30.4. 12:11 | Humor

    Lidi dělají divné věci. Například spouští Linux v Excelu. Využít je emulátor RISC-V mini-rv32ima sestavený jako knihovna DLL, která je volaná z makra VBA (Visual Basic for Applications).

    Ladislav Hagara | Komentářů: 7
    Jaký filesystém primárně používáte?
     (58%)
     (1%)
     (9%)
     (21%)
     (4%)
     (2%)
     (2%)
     (0%)
     (1%)
     (3%)
    Celkem 510 hlasů
     Komentářů: 19, poslední 30.4. 11:32
    Rozcestník
    Štítky: není přiřazen žádný štítek

    Vložit další komentář
    10.5.2011 14:49 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    Dobrý návod, díky. Máte tam linuxový mdraid, nebo HW kartu s cache a baterií? Všude čtu, že u sw raidu je problém při zápisu, protože je třeba seekovat kvůli zápisu DRBD metadat. Pokud je tam mdraid, nejsou s tím výkonnostní problémy? Já DRBD zatím testoval jen nad HW RAIDem, a tam je to OK.

    Jinak, proč OCFS? Přišlo mi to jako další úroveň komplexnostni a možné ztráty výkonu, když obrazy VM by mohly být rovnou na (c)LVM. Jasnou výhodou obrazů na filesystemu je dynamická alokace zabraného místa a možnost snapshotů. Byl to důvod pro OCFS?

    Já jsem dříve u clusteru šel raději cestou s mémě vrstvami - HW RAID, LVM, pro každý virtuál jeden LV, nad každým LV je DRBD resource, Xen přímo na DRBD. Cluster manager pak přepíná jen Xen VMs, ostatní se řeší "samo". Nemá to tolik možností a flexibility, ale nemám tolik strach že se něco rozbije nebo bude padat a nepůjde zjistit proč.
    10.5.2011 15:17 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Používám linuxový SW raid (verze 1.2). Jenže ten je až pod LVM, takže s ním DRBD vůbec nepracuje. Výkonostní problémy jsem nezaregistroval a že to drásám z hlediska zápisů a čtení docela fest. Do hardwarového raidu bych už nikdy nešel. O důvodech proč se tam mám dojem také zmiňuji.

    Proč je použito OCFS2 je na těch stránkách zmíněno. Lépe dokumentované, lepší výsledky v testech a oproti GFS2 jsem ho rozchodil prakticky ihned a bez problémů. Pochopitelně to chce mít patřičně svěží kernel.

    Vím že lze použít clusterovou verzi LVM, ale to se nějak chtělo handrkovat s LVM na první vrstvě a navíc - proč bych to dělal? Takhle nic nemusím řešit a sdílený prostor mohu využít i pro nasdílení adresářů přímo z virtuálů. Ale jinak ano - dynamická alokace místa a snapshoty - byl také kamínky na misce vah.

    Pokud jde o počet vrstev. Řekl bych že to co jsem zvolil je takové existenční minimum pro to, aby ten cluster byl skutečně HA. Tj. aby přežil i případný hardwarový kolaps disku a bylo jej možné opravit za běhu. Jinými slovy - k tomuto nasazení jsem došel evolučním vývojem. Mimochodem, není bez zajímavosti, že velmi podobně navrhnul své centrální úložiště i Zdeněk Burda, na jehož blogpost mě upozornil kolega v době kdy už jsem si sepisoval poznámky ke kapitolce o DRBD.
    10.5.2011 15:33 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    Používám linuxový SW raid (verze 1.2). Jenže ten je až pod LVM, takže s ním DRBD vůbec nepracuje.
    Šlo o to, že DRBD potřebuje mít jistotu, že je na disku fyzicky aktualizována bitmapa bloků v metadatech, než se začnou zapisovat další data. Jinak by při nekorektním ukončení systému (výpadek napájení) mohla být DRBD metadata nekonzistentní se skutečným stavem. Když máte HW RAID z baterii, tak je za "fyzickou aktualizaci" uvažován už zápis do writeback cache na RAIDu, a disk kvůli tomu nemusí dělat hned seek. I proto se Linbit vyjadřuje ve smyslu "DRBD jedině s HW RAIDem a BBWC, jinak se ničemu nedivte". Takže u SW raidu buď může dojít k nekonzistenci, nebo je tam degradace výkonu při určitém typu žátěže.

    Nevýhody HW RAIDu jsou jasné, ale pokud se u toho clusteru použije u každého uzlu karta jiného výrobce, tak se ta rizika podle mě omezí.
    Mimochodem, není bez zajímavosti, že velmi podobně navrhnul své centrální úložiště i Zdeněk Burda, na jehož blogpost mě upozornil kolega v době kdy už jsem si sepisoval poznámky ke kapitolce o DRBD.
    Ono to na linuxu moc jinak udělat nejde, natož pak lépe. Ano, ten blogspot je dobrý.
    10.5.2011 15:52 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Tady už bruslím na tenkém ledě, ale myslím, že právě proto se nad drbd v režimu Master/Master používá OCFS2, které data replikuje na úrovni souborového systému. Když chcípne jeden stroj, tak se při nahazování data nejprve synchronizují z disku který zůstal běžet tak aby se nenabourala jiná data, s tím že případné zbylé nekonzistence se pak již řeší na úrovni souborového systému.

    Osobně bych se velmi bál svěřit data právě jenom jedné vrstvě. To byl i důvod proč jsem nakonec nezvolil cluster LVM.

    Ostatně pro cluster s větším počtem nodů bych zvolil spíše CEPH, nebo GlusterFS, které pracují s rozprostřenými daty.
    10.5.2011 16:56 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    Tady už bruslím na tenkém ledě, ale myslím, že právě proto se nad drbd v režimu Master/Master používá OCFS2, které data replikuje na úrovni souborového systému.
    No to nevím. Podle mě OCFS2 o nějakém DRBD vůbec nic neví. OCFS2 prostě předpokládá, že máte na všech strojích sdílené blokové zařízení. Typicky exportované z nějakého externího pole/SAN přes iSCSI nebo Fibre Channel. V prostředí, pro které je OCFS2 primárně určen, je DRBD taková nouzovka, pokud nemáte dost peněz na SAN.

    OCFS2 jako nakonec asi každý clusterový filesystem (třeba GFS) má vlastní lock manager, který mezi uzly komunikuje přes síť a řeší synchronizaci přístupu / zámky.
    Když chcípne jeden stroj, tak se při nahazování data nejprve synchronizují z disku který zůstal běžet tak aby se nenabourala jiná data,
    Tohle dělá DRBD. S tím OCFS2 téměř jistě nemá nic společného, protože o DRBD nic neví.
    s tím že případné zbylé nekonzistence se pak již řeší na úrovni souborového systému.
    To je něco jiného. DRBD metadata slouží hlavně k tomu, aby se po výpadku poznalo, které bloky na "neaktuálním" disku byly v době výpadku změněny, aniž by se musely projíždět oba celé disky. Kvůli tomu je velmi důležité držet konzistenci těch metadat a pořadí zápisů. Jinak může dojít k tomu, že DRBD resource bude ve stavu Consistent, ale data na obou stranách se budou lišit. I proto je možné a asi i dobré občas spustit kompletní kontrolu konzistence dat na obou stranách.

    Vše je popsáno na webu Linbitu. Ale pokud to vše funguje dobře, není to zásadně podstatné. Nejhorší situace, kdy se toto může projevit, je výpadek napájení obou strojů pod I/O zátěží.
    Ostatně pro cluster s větším počtem nodů bych zvolil spíše CEPH, nebo GlusterFS, které pracují s rozprostřenými daty.
    Záleží na typu zátěže a požadovaném výkonu. Je pravda, že tahle SW řešení typu GlusterFS se stávají stabilními až v poslední době. Ale ty firmy, co si kupují drahé SAN systémy, nejsou úplně mimo.

    Jako hodně zajímavé z této oblasti mi přijde tohle: http://sourceforge.net/apps/mediawiki/vastsky/index.php?title=Main_Page, plánuje se integrace do Xenu.
    10.5.2011 18:04 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    No to nevím. Podle mě OCFS2 o nějakém DRBD vůbec nic neví. OCFS2 prostě předpokládá, že máte na všech strojích sdílené blokové zařízení. Typicky exportované z nějakého externího pole/SAN přes iSCSI nebo Fibre Channel. V prostředí, pro které je OCFS2 primárně určen, je DRBD taková nouzovka, pokud nemáte dost peněz na SAN.
    No to se mi moc nezdá. Nemám pocit že by OCFS2 nutně vyžadovalo sdílené blokové zařízení.
    Když chcípne jeden stroj, tak se při nahazování data nejprve synchronizují z disku který zůstal běžet tak aby se nenabourala jiná data,
    Tohle dělá DRBD. S tím OCFS2 téměř jistě nemá nic společného, protože o DRBD nic neví.
    Nějak se míjíme v chápání psané věty, protože to co jsem napsal jinými slovy říká totéž.
    Ostatně pro cluster s větším počtem nodů bych zvolil spíše CEPH, nebo GlusterFS, které pracují s rozprostřenými daty.
    Záleží na typu zátěže a požadovaném výkonu. Je pravda, že tahle SW řešení typu GlusterFS se stávají stabilními až v poslední době. Ale ty firmy, co si kupují drahé SAN systémy, nejsou úplně mimo.
    Ne tak docela. Tím nemám ne mysli stabilitu těchto souborových systémů, jako spíš způsob jejich nasazení. Jejich nasazení má totiž smysl až u většího počtu strojů, což je úúplně jiná situace, než v jaké se nasazuje SAN.

    Krom toho XEN je z hlediska linuxu podle mě mrkev. Dovolím si krapet zavěštit.

    Na počátku stojí klasická otázka: "Kdo za tím stojí a komu to slouží?". Zajímavá je rivalita v oblasti lokálních souborových systémů ( Ext4 versus Btrfs ), souborových systémů pro menší clustery ( GFS2 versus OCFS2 ) či souborových systémů pro velké clustery ( GlusterFS versus Lustre ). Na jedné straně barikády stojí Red Hat a na té druhé ORACLE.

    Zajímavé jsou určité invektivy či skoro až pomluvy, které se vůči ORACLE čas od času vynoří. Je to logické, neboť Red Hat se cítí z této strany ohrožen. ORACLE už získal SUN. Firmu která byla v oblasti unixových serverů konkurencí pro Red Hat a vyvíjela kancelářský balík. S ní i řešení pro lokální virtualizaci.

    Kdyby ORACLE spolknul Red Hat, tak by se defakto dostal do přímé protiváhy Microsoftu, neboť by byl schopen nabídnout naprosto stejné alternativní spektrum služeb. Od desktopu po virtualizační platformu. Ovšem na rozdíl od Microsoftu staví ORACLE přes veškeré poplašné zprávy jak se zdá svou budoucnost na open source platformě, neboť si je dobře vědom že takto má k dispozici tisíce vývojářů a miliony testerů, které by nikdy nebyl schopen zaplatit.
    10.5.2011 19:22 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    No to se mi moc nezdá. Nemám pocit že by OCFS2 nutně vyžadovalo sdílené blokové zařízení.
    Tak na co tam pak řešíte DRBD? DRBD dělá replikaci a nad tím OCFS dělá replikaci ještě jednou? DRBD není nic jiného, než "virtuálně" sdílené blokové zařízení. V Active/Active se to na obou strojích tváří jako by to bylo nějaké sdílené diskové pole.
    Nějak se míjíme v chápání psané věty, protože to co jsem napsal jinými slovy říká totéž.
    Ano, špatně jsem to pochopil.
    Ne tak docela. Tím nemám ne mysli stabilitu těchto souborových systémů, jako spíš způsob jejich nasazení. Jejich nasazení má totiž smysl až u většího počtu strojů, což je úúplně jiná situace, než v jaké se nasazuje SAN.
    To asi ano, oblast je jiná. Přesto pro účely provozního uložení obrazů disků virtuálních strojů považuji SAN za nejlepší řešení. Pokud potřebujeme storage pro soubory, pak se mi třeba GlusterFS líbí víc. Jistě záleží na typu žátěže pro ty virtuální stroje, pokud půjde o I/O výkon a latence, tak SAN řešení musí vyhrát už z principu složitosti a počtu vrstev. Další otázkou je spolehlivost, kde ale teorie dosti selhává - každopádně u distribuovaného FS data prochází daleko větší logikou a větším množstvím kódu než v případě [ diskové pole - FC síť - FC HBA ]. V oblasti enterprise virtualizace ani nikdo jinou cestou než SAN storage nejde ... ale i tam to možná přijde.
    Krom toho XEN je z hlediska linuxu podle mě mrkev. Dovolím si krapet zavěštit.
    Z hlediska linuxu možná. XEN rozhodně jen tak neumře, Citrix na něm má postaveno dost zajímavých produktů. A vývoj je OSS. Ale je to koncipováno spíš jako "blackbox" typu VMWare ESX.
    10.5.2011 21:42 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Pokud jde o XEN a Citrix, tak jsem docela v obraze. Sláva a pád XENu ke v tom, že je zafixovaný na starší linuxové jádro. Konec konců, pamětníci vědí, že ESX taky stojí nad nějakým prastarým Red Hatem.

    Myslím, že pokud VMware a Citrix neuloví lidi schopné přizpůsobit tyhle věci na aktuální kernel, tak postupně odumřou.
    11.5.2011 09:55 kyytaM | skóre: 35 | blog: kyytaM | Bratislava
    Rozbalit Rozbalit vše Re: HA cluster
    Do Xenu investuje nemale peniaze aj Oracle. Zahodil XVM, co bolo Solaris Xen Dom0 riesenie a sustredia sa na cestou Linux Dom0 (Oracle ma vlastne produkty zalozene na Xene a aj skupili mensie firmy, ktore si predtym stavali vlastne Xen riesenia). Dom0 podpora uz by mala byt pouzitelna vo vanilke 2.6.40 respektive 2.6.41 - upstreamuje sa (pvops Xen Dom0 implementacia). Kazdopaden klasicke Xen patche boli forwardportovane uz aj do 2.6.38 pokial viem.

    11.5.2011 13:16 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Ještě k tomu proč je tam DRBD když by OCFS mohlo stačit.

    Věc se má tak, že nejdřív tam bylo DRBD a teprve následně jsem hledal vhodný FS. Faktem je, že v kombinaci s OCFS se mi prakticky nestalo, že by mi vznikla nekonzistence, kvůli níž by bylo nutné provést synchronizaci.

    Ovšem pokud jde o nastolenou otázku stran nutnosti sdíleného blokového zařízení, dík za ni. Určitě to vyzkouším.
    11.5.2011 16:47 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    Když se podívám na UserGuide k OCFS 1.6, tak na str. 7 jsou celkem jasně popsané vlastnosti.
    "It is also a shared disk cluster file system, one that allows multiple nodes to access the same disk at the same time"
    O replikaci tam nic nevidím, i když by mě to potěšilo. Ale oni by se o tom jistě zmínili. Všechny návody, co jsem viděl, používaly OCFS nad DRBD nebo se počítalo třeba s nějakým sdíleným iSCSI polem. Je to stejný typ filesystemu jako RedHat GFS.
    Věc se má tak, že nejdřív tam bylo DRBD a teprve následně jsem hledal vhodný FS. Faktem je, že v kombinaci s OCFS se mi prakticky nestalo, že by mi vznikla nekonzistence, kvůli níž by bylo nutné provést synchronizaci.
    S OCFS je výhoda, že máte jen jeden DRBD resource, trvale ve stavu Active/Active. Třeba XenServer tohle řeší tak, že nad sdíleným diskem má jen LVM se kterým ale dělá různá kouzla kvůli snapshotům. Mají to nějak vyřešené, že není potřeba ani cLVM. Nebo nechávají správu oddílů pro VM přímo na SAN vrstvě (StorageLink).
    11.5.2011 20:21 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Jo. Máte pravdu. Ostatně je to zcela logické. OCFS jsem nepoužil kvůli tomu že by samo o sobě zajišťovalo replikaci dat, ale aby to blokové zařízení bylo možné namountovat na obou nodech.

    Zatím to nemám potřebu nějak extra řešit. Výhledově (až bude nodů na testováná více mám v plánu vyzkoušet i jiné řešení.
    11.5.2011 23:22 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Tak jsem si v praxi ověřil řešení, které jsem chtěl použít ještě předtím, než jsem narazil na DRBD. Určitě nejsem s tímto nápadem nijak původní, ale svůj účel plní.

    Lokální SW RAID vytvořený z nbd zařízení. Každý nod má vyexportováno jedno blokové zařízení. Takže /dev/nbd0 je připojený přes 127.0.0.1 a zbytek( /dev/nbd1, ...) po síti.

    Tento SW RAID je naformátovaný na OCFS2. V případě přerušení síťového připojení se nic neděje, protože lokální část raidového pole je stále normálně připojená a tak lze pokračovat s neúplným RAID polem. Je-li síťové připojení znovu obnoveno, tak se vzdálený disk zase normálně přidá a zesynchronizuje.

    Testoval jsem i rychlost přenosu a sledoval při tom zatížení. U kombinace DRBD + OCFS2 byla rychlost kopírování kolem 56M/s, zatím co u NBD + SW RAID + OCFS2 80M/s. Ovšem cenou za vyšší rychlost bylo zase vyšší zatížení procesorů během přenosu.
    12.5.2011 02:12 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    Lokální SW RAID vytvořený z nbd zařízení. Každý nod má vyexportováno jedno blokové zařízení. Takže /dev/nbd0 je připojený přes 127.0.0.1 a zbytek( /dev/nbd1, ...) po síti.
    Jasně, tohle je taky možnost. Ale DRBD lépe řeší ty potenciálně nekonzistentní situace. A počítá s tím, že "každou chvíli není dotupný některý z disků", na což mdraid není úplně stavěný.
    U kombinace DRBD + OCFS2 byla rychlost kopírování kolem 56M/s
    Kopírování z jednoho disku na ten samý, nebo např. z /dev/zero na disk? Protože tam, kde mám DRBD nad HW RAIDem s BBWC je při zápisu evidentně limitem replikační Gb Ethernet. Byl bych rád, pokud byste napsal, na jakou rychlost sekvenčního zápisu se dostane KVM virtual machine nad OCFS2+DRBD+mdraid. A ideálně i jak rychlý je stejný zápis přímo na lokální mdraid bez DRBD. V mém případě Xen VM zapisuje z /dev/zero na DRBD replikovaný disk rychlostí 120 MB/s (VM filesystem ext3, 15 GB soubor, čas dd+sync, replikační Eth celou dobu na 997000 kbit/s). Pod DRBD tady na testování mám na obou stranách kartu HP SmartArray 212, RAID10, 4 obyčejné SATA disky. Sekvenční čtení souboru uvnitř VM je cca 200 MB/s.
    12.5.2011 07:34 Marián André | skóre: 10 | blog: Qblog
    Rozbalit Rozbalit vše Re: HA cluster
    Ako je nastaveny syncer v konfiguacii DRBD ?
    12.5.2011 12:15 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
      syncer {
        # it's recommended to use 30 % of GbE
        rate 33M;
        verify-alg sha1;
      }
    
    Teď nevím jistě, ale myslím že syncer rate se uplatňuje v okamžiku resychronizace, např. pokud jeden z uzlů nějakou dobu neběžel. Nastavení se doporučuje udělat tak, aby resychnronizace využila třetinu linky, a zbytek byl volný pro provozní zápisy.
    12.5.2011 13:13 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Jen pro doplnění - nastavení rate se dá změnit za běhu.
    12.5.2011 08:14 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Byl bych rád, pokud byste napsal, na jakou rychlost sekvenčního zápisu se dostane KVM virtual machine nad OCFS2+DRBD+mdraid. A ideálně i jak rychlý je stejný zápis přímo na lokální mdraid bez DRBD.
    Zkusím na to pamatovat. Až to otestuji, tak bych to upíchnul nejspíš opět do blogu, jako samostatný blogpost. Tady by to zapadlo. Každopádně díky za konkrétní čísla.
    10.5.2011 15:03 Scarabeus IV | skóre: 20 | blog: blogisek_o_gentoo | Praha
    Rozbalit Rozbalit vše Re: HA cluster
    No dost dobrej zazitek bylo treba rozchodit cele pacemaker & friends na gentoo.

    Nejlepsi sou ty releasy kde se musi spoustet autogen.sh (autoreconf).

    Zajimava otazka co maji lidi radsi, jestli openais/corosync nebo heartbeat, ja osobne se priklanim k prvni veci a cele Gentoo je tedy koncipovane kolem toho, ale cekam ze heartbeat pouziva taky nemale procento lidicek :)
    10.5.2011 15:19 Honza
    Rozbalit Rozbalit vše Re: HA cluster
    Heartbeat je obsolete vec, ktera se dal uz nevyviji (alespon ne lide z Novellu) a aktualni verze Pacemakeru je rozhodne lepsi provozovat s Corosyncem.
    10.5.2011 15:24 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Obsolete je možná tak komunikační démon, ale jinak heartbeat pasé není (jak jsem si také zpočátku myslel). Dále ho vyvíjejí lidé z Linbitu, který stojí mj. za zmíněným DRBD viz http://www.planet-ha.org/.
    11.5.2011 11:25 Honza
    Rozbalit Rozbalit vše Re: HA cluster

    To je sice pravda, nicmene je treba vzit do uvahy ze:

    • Pacemaker je vyvijen lidmi z Red Hatu
    • Red Hat vyviji take Corosync/OpenAIS
    • Novell (kdyz jeste existoval) presel na Corosync/OpenAIS
    -> Linbit si hraje na vlastnim pisecku. Otazka je, zda ma vic zakazniku HA Red Hat + Novell (resp. to co z nej zbylo a bylo prodano) nebo Linbit, jinymi slovy, co bude lepe otestovano a realneji nasazovano.

    Navic (aspon pokud jsem to spravne pochopil) Linbit HeartBeat spis udrzuje nez vyviji dal, coz nemusi byt v kratkodobem horizontu problem, ale v dlouhodobem byt muze.

    10.5.2011 15:22 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Zkoušel jsem obojí. Distribuční heartbeat mi způsoboval právě to panikaření. Ostatně v manuálu hned v následující kapitole zmiňuji jak to s nimi a jejich vývojem je.
    10.5.2011 15:48 Scarabeus IV | skóre: 20 | blog: blogisek_o_gentoo | Praha
    Rozbalit Rozbalit vše Re: HA cluster
    Ono je vzdycky jednodussi to nejak nabusit aby se to instalovalo jako binarni balik, ja jsem vcelku stastnej ze nam ty ebuildy fungujou, jsou to tak 3 tejdny (pokud bych to bral jako pracovni dobu) prace aby to delalo vsechno jak ma :)

    Jinak ja vim co a jak na tom heartbeat je, me spis zajimalo kolik lidi ho preferuje spis nez ten openais a proc...
    10.5.2011 15:59 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Aha. No tak proč, to jsem se také ptal. Důvodem je většinou starší distribuce. Corosync je (jak se zdá) preferován až od Pacemakeru 1.0.x

    Nejspíš za tím stály ty čáry máry kolem zásnub Mrkvosoftu a Novellu. Za vývojem heartbeatu stálo původně SuSe, jenže pod taktovkou Novellu nejspíš poněkud stagnoval.
    10.5.2011 16:16 edois
    Rozbalit Rozbalit vše Re: HA cluster
    Ahoj,

    co na tom chces vubec provozovat? Na nektery pouziti mi to prijde jako strasne zbytecna ztrata vykonu...
    10.5.2011 16:21 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Jaká ztráta výkonu probůh?! Nody si mezi sebou občas plnou jak se mají a jinak je celá sranda jenom o tom aby ti běželo co běžet má. Ba naopak. Přebytečný výkon lze v rámci clusteru využít lépe.
    10.5.2011 16:26 edois
    Rozbalit Rozbalit vše Re: HA cluster
    No jestli jsem to dobre pochopil z prednasky, na kterou jsem se asi pred rokem kouknul, tak to funguje tak, ze se vse vydava jen z jednoho serveru. Nebo jsem to pochopil spatne?
    10.5.2011 16:29 Marián André | skóre: 10 | blog: Qblog
    Rozbalit Rozbalit vše Re: HA cluster
    Dôraz v slovnom spojení "high-availability cluster" je na high-availability. Teda je to čosi úplne iné, ako high performance cluster.
    10.5.2011 16:34 edois
    Rozbalit Rozbalit vše Re: HA cluster
    Samozrejme, ale u spousty sluzeb jde docilit obojiho (kdyz pred to hodim nejaky loadbalancing, treba ipvs), proto mi to prijde, jako plytvani vykonem.
    10.5.2011 16:54 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Ano. Pochopils to špatně. Ostatně, na výše odkazované stránce je to zmíněno jasně: "V případě nouze lze virtuální stroje spustit i na jediném nodu, ale za normálního provozu lze virtuální stroje podle potřeby a aktuálního zatížení mezi nody migrovat a dosáhnout tím optimálního rozdělení výkonu jak fyzických strojů, tak jejich hardwarových prostředků."
    10.5.2011 17:05 edois
    Rozbalit Rozbalit vše Re: HA cluster
    A neni lepsi mit "vsechno vsude", aby nebylo v pripade vypadku potreba nic prepinat atd., ale jen nechat balancer (automaticky) vyhodit failnute virtualy?
    10.5.2011 17:13 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    Jednak to daná služba musí podporavat - např. sama databáze musí umět multimaster replikaci. A i když to podporuje, musíte se o to u každé služby starat. Což např. v okamžiku aktualizací dá hodně práce. Takže pokud není extrémní požadavek na výkon, je cesta virtualizace lepší, i když doba výpadku je větší (nestačí třeba přehodit IP adresy, ale musí se nabootovat celý VM) a nedá se tím řešit výkon jedné aplikace.
    10.5.2011 17:21 edois
    Rozbalit Rozbalit vše Re: HA cluster
    Jasne, ze to nejde vsude, pisu jen, ze u spousty sluzeb to jde... (proto ten zcela puvodni dotaz na co vsechno to chce autor blogu pouzivat)
    10.5.2011 18:08 Aleš Kapica | skóre: 52 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    .., i když doba výpadku je větší (nestačí třeba přehodit IP adresy, ale musí se nabootovat celý VM) a nedá se tím řešit výkon jedné aplikace.
    To není až tak docela pravda. U KVM lze přemigrovat stroj zaživa bez výpadku - prakticky odzkoušeno. Mimochodem, to je taky důvod proč jsem se v tom Pacemakeru začal hrabat až tak do hloubky - abych si udělal agenta pro KVM na míru, bez nutnosti používat libvirt, který má ony požadované funkcionality prozatím toliko v TODO.

    Bohužel "céčko" až tak dalece neovládám. Zpracovávat XML shellovým skriptem mi přijde jednodušší. Jinak bych to byl do toho libvirtu dodělal.
    11.5.2011 16:35 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    To není až tak docela pravda. U KVM lze přemigrovat stroj zaživa bez výpadku - prakticky odzkoušeno.
    Jasně, ale to beru spíš jako takovou věc navíc. Pokud mluvíme a vysoké dostupnosti, tak beru jako zásadní mít co nejkratší neplánované výpadky. Tj. jak dlouho to nepůjde, když aktivní uzel nečekaně zkolabuje (výpadek napájení ze všech zdrojů, vyhořelý HW apod.). A v tomto případě stroj musí nabootovat znovu. I když Xen má funkční (experimentální) implementaci realtime replikace obsahu RAM na druhý uzel, takže pak k pádu OS nedojde. Jsou s tím samozřejmě principielní problém, hlavně co se týče výkonu.
    abych si udělal agenta pro KVM na míru, bez nutnosti používat libvirt, který má ony požadované funkcionality prozatím toliko v TODO
    Kvůli nutnosti použít libvirt, který se mi zdál příliš komplikovaný, jsem dříve raději použil Xen. Protože pro něj je Heartbeat/Pacemaker agent skutečně triviální a hotový. Pro KVM jsem tehdy našel jen řešení přes libvirt, a to mi přišlo jako zbytečná potenciálně chybová vrstva. A jak píšete, možná požadované funkce ani neumí.

    Založit nové vláknoNahoru

    Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.