Byl vydán Mozilla Firefox 145.0. Přehled novinek v poznámkách k vydání a poznámkách k vydání pro vývojáře. Ukončena byla podpora 32bitového Firefoxu pro Linux. Přidána byla podpora Matrosky. Řešeny jsou rovněž bezpečnostní chyby. Nový Firefox 145 bude brzy k dispozici také na Flathubu a Snapcraftu.
Lidé.cz (Wikipedie) jsou zpět jako sociální síť s "ambicí stát se místem pro kultivované debaty a bezpečným online prostředím".
Byla vydána nová verze 4.4 multiplatformního integrovaného vývojového prostředí (IDE) pro rychlý vývoj aplikaci (RAD) ve Free Pascalu Lazarus (Wikipedie). Využíván je Free Pascal Compiler (FPC) 3.2.2.
ASUS má v nabídce komplexní řešení pro vývoj a nasazení AI: kompaktní stolní AI superpočítač ASUS Ascent GX10 poháněný superčipem NVIDIA GB10 Grace Blackwell a platformou NVIDIA DGX Spark. S operačním systémem NVIDIA DGX založeném na Ubuntu.
Desktopové prostredie Trinity Desktop vyšlo vo verzii R14.1.5. Je tu opravená chyba v tqt komponente spôsobujúca 100% vyťaženie cpu, dlaždice pre viac monitorov a nemenej dôležité su dizajnové zmeny v podobe ikon, pozadí atď. Pridaná bola podpora distribúcií Debian Trixie, Ubuntu Questing, RHEL 10 a OpenSUSE Leap 16.
Grafická aplikace Easy Effects (Flathub), původně PulseEffects, umožňující snadno povolovat a zakazovat různé audio efekty v aplikacích používajících multimediální server PipeWire, byla vydána ve verzi 8.0.0. Místo GTK 4 je nově postavená nad Qt, QML a Kirigami.
Na YouTube lze zhlédnout Godot Engine – 2025 Showreel s ukázkami toho nejlepšího letos vytvořeného v multiplatformním open source herním enginu Godot.
Blíží se konec roku a tím i všemožná vyhlášení slov roku 2025. Dle Collins English Dictionary je slovem roku vibe coding, dle Dictionary.com je to 6-7, …
Cloudflare Radar: podíl Linuxu na desktopu dosáhl v listopadu 6,2 %.
Chcete vědět, co se odehrálo ve světě techniky za poslední měsíc? Nebo si popovídat o tom, co zrovna bastlíte? Pak doražte na listopadovou Virtuální Bastlírnu s mikrofonem a kamerou, nalijte si něco k pití a ponořte se s strahovskými bastlíři do diskuze u virtuálního piva o technice i všem možném okolo. Mezi nejvýznamnější novinky patří Průšovo oznámení Core One L, zavedení RFID na filamentech, tisk silikonu nebo nový slicer. Dozvíte se ale i
… více »
Celé by to mělo běžet na KVM, Proxmoxu (2 nebo 3 node), který už provozuji v jednom testovacím/poloprodukčním provozu (nic důležitého, respektive výpadek není problém), ale na hodně špatném HW. A teď už přišla doba kdy je potřeba s tím pohnout a začít jednat
Hlavně se ale nemohu rozhodnou pro vhodny storage...
1. ZFS?
Nejdříve jsem byl skoro rozhodnut pro nějaký systém ZFS. FreeNas nebo OmniOS+NappIT. Žádný HW RAID, připojení přes NFS nebo iSCSI. Jako HW pravděpodobně SuperMicro, nějaký 4jádrovy Xeon , 32GB RAM, 10Gbit ethernet, SSD ZIL. SAS HDD raid10.
Potom jsem ale začal pátrat po možnostech ZFS a nejake redundanci a HA clusteru. No a se ZFS to zřejmě není zrovna samozřejmé. NappIT na to ma placeny plugin, FreeNAS to resi pomocí CARP+HAST ale neni to soucasti. Nas4Free na to ma i klikatko ve WebGui, ale mam z toho nejaky pocit jako ze je to něco co je okrajové a navíc. A protože to běží v rezimu Primary/Secondary tak v našem idealním světě :) ten druhy server nedělá nic a jenom čeká na potencionalni výpadek toho prvniho. Ale hlavně skoro v každe diskuzi se objeví varovná poznámka: ZFS není clusterový filesystém......
Takže pátrám dál a stále častěji se dostávám k DRBD, GlusterFS a CEPH.
2. DRBD+LVM?
To už teď používám na jedné pobočce na 2node Proxmox HA clusteru. To funguje docela pěkně, Primary/Primary, ale jenom pro 2 nody, nutnost HW raid (i když už jsem koukal na DRBD+ZFS(ZoL)), případné rozšiřování bude komplikovanější..... To na tomto běžícim clusteru až tak nevadí (žádné rozšiřování nebude) , ale na centrálu firmy bych chtěl něco flexibilnějšího.
3. CEPH?
To vypada papírově hodně pěkně. Navíc Proxmox integruje CEPH cluster v sobě, takže není potřeba mít pro storage cluster vlastní HW. Rozšiřování vypadá také OK. Buď přidám disky do nodu, nebo celý nový node. Otázka je co ta kombinace Proxmox+CEPH na jednom železe udělá s výkonem. Ale v případě této kombinace bych tedy mohl vylepšit HW třeba na 3node, každý 2x 6jadrovy Xeon, 64GB RAM, SSD pro OS, SSD Ceph zurnal, 10GBit ethernet. To by snad mohlo byt výkonostně dostatečně v pořádku.
4. GlusterFS?
Tady zatim moc netuším. Každopádně zde už bych měl mít storage opět na samostatném železe...
Teď co všechno na tom vlastně poběží? Ať nejdu s pověstným kanonem na vrabce......
Právě že nic moc velkého. Žádné VPS pro tisíce uživatelů, žádný hosting pro veřejnost s miliony přístupů za hodinu.....
Kapacita pole pro VM by mela stačit cca +- 3-4 TB použitelného místa
VM (KVM) budou tyto:
1. Linux - Zimbra pro cca 100 uživatelů - všichni používají webklienta 2. Linux - Samba4 - domena pro cca 20 stanic, printserver 3. WIN7 - Sybase databáze pro účetnictví 4. WIN7 - (na hrani) 5. Linux - WebApplikace - Request Tracker, Joomla, - opět cca 20 uživatelů 6. Linux - Puppet server - zatim není dodělaný ale mel by obsluhovat cca 70 stanic 7. Linux - konsoleApp - ruzne skripty (hlavně stahování a odesílání na FTP) 8. Linux - OpenVPN server - cca 50 klientuTo je zaklad který by mel běžet ve VM a pro tyto potřeby bude výkonu až až. Každý z nich si občas naklonuji pro nějakou zkoušku. Potom bych ale rád přidal něco dalšího...
9. Linux terminal server - pravděpodobně postavený na X2go pro cca 5 uzivatelu - normalni kancelarska prace (Office, web)
10. Linux - jBOSS + Postgresql - to je asi nejnáročnější systém který používáme.
Momentálně běží na vlastním železe (2x 4jadro, 32GB RAM, pro DB je RAID1 15kSAS) Výkon je trochu předimenzovaný, ale tento stroj nesmí byt v ničem omezován.
11. ..... nejake BI, OLAP ......
Tak, a co vybrat?
Nejvic se mi asi líbí ten Proxmox+Ceph. Ale nedokážu odhadnout jak to bude s tím diskovým výkonem, hlavne pro ten jBOSS+Postgresql. Všude se píše že výkon CEPH clusteru roste s počtem disků a nodů. Bude tedy lepší více menších disků? Třeba misto 4x1TB 7kSATA pouzit 6x500GB 10kSATA? A tim trochu dohonit režii pro replikaci mezi nody? Já nepotřebuji desitky TB. CEPH dokáže obsluhovat obrovská pole v datacentrech a tam se asi ukazuje jeho síla, ale nebude ten 3node cluster opravdu minimum s tím že to proste nebude to pravé ořechové? Nebo bude CEPH pro naše potreby dost zbytečný?
HW ještě není vybraný, takže s tím se dá stále hýbat dle potřeby.
Takže bych mel otázky pro zdejší uživatele.
Provozujete něco podobného? Na čem? Bylo by nějaké doporučení jakým směrem do toho šlápnout a na co se zaměřit? A co naopak rovnou opustit?
Díky.
Tiskni
Sdílej:
Nechápu proč sem pleteš ZFS. Nemá nativní podporu v jádře a v clusterovém použití prakticky na prd.
CEPH - Zapomeň. 3 nody jsou pro něj existenční minimum. Já mu dával šanci už třikrát, a pokaždé to skončilo na tom, že se mi ho nepodařilo rozběhat.
DRBD - fajn. Má ovšem jeden háček. Buď musíš mít pro každý stroj extra pole, nebo na něj lézt přes NFS, jako to používáme disklessu. Protože ale chceš virtualizovat i vidle, tak diskless požít nemůžeš a virtuální disky přes NFS.. - no, použít se to dá, ale žádná výhra. Navíc mám poslední dobou pocit, že hoši od Linbitu nějak prdí na agenta pro Pacemaker.
Takže já bych osobně doporučil u takové infrastruktury jako chceš provozovat jít do replikovaného GlusterFS. Výkonově je Schrot slabší, ale oproti DRBD se GlusterFS jeví pro clusterové použití jako robustnější řešení - nemusíš řešit ze kterého nodu na virtuální disk lezeš a můžeš bez obav šaškovat s nody - průběžné je aktualizovat a dělat s nimi i jiné hrátky. Mě v tom jedou zatím tři méně důležité stroje. Pořád zatím ve fázi testu. Oproti původnímu disklessovému řešení linuxových strojů které používám u Peanuts jsem zatím nepřišel na vhodnou strategii zálohování.
DRBD - fajn. Má ovšem jeden háček. Buď musíš mít pro každý stroj extra poleProč to? Nestačilo by nad tím DRBD rozběhat LVM? Přímo nad DRBD jsem to teda nezkoušel, ale IIRC jsem to zkoušel nad iSCSI blokovým zařízením - hádám, že by to mělo fungovat podobně. Samozřejmě to omezuje na maximálně 2 nody
Nechápu proč sem pleteš ZFS. Nemá nativní podporu v jádře a v clusterovém použití prakticky na prd.
Pls. Nesir informace o necem, co neznas. ZFS bezi se vsemi jadry od 2.6.32 po nejnovejsi. A clusterove pouziti pro object store se ZFS neni zadna novinka. Je nekolikero zpusobu, jak na to, ve vsech ZFS usnadnuje zivot.
Autorovi postu: kdybys se rozhodl pro ZFS a potreboval poradit, napis mi mail, pripadne muzes sem.
Co je, nebo neni v kernelu, je vzhledem k produkcnimu nasazeni IMHO irelevantni, pokud je nekdo, kdo tomu dela podporu.
…tedy aspoň do chvíle, než vás s tím taintovaným jádrem support pošle někam. Nebo vám ten někdo bude podporovat celé jádro?
Ja bych to pro takhle maly pocet serveru nekomplikoval clusterovanim, kdybych mel resit replikaci dat, tak asynchronne send/recv snapshotu periodicky. Jelikoz to PVE ale nepodporuje, resil bych si to par skriptama sam zrejme. Ne kazdymu muze vyhovovat, nekdo rad UI v browseru, to pak se ZFS asi nic pointegrovaneho poradne neexistuje, leda poupravit drobne FreeNAS (snad umi nejake pluginy, pokud si vzpominam dobre). Ale nativni distribuovana reseni bych uvazoval az od vetsiho poctu nodu, s poradnou siti, atd. V malem bych se spokojil s nejakou formou asynchronni replikace. Nicmene to je muj nazor a jsou priklady lidi, kteri to provozuji i v malem vcelku dobre zclusterovane, ale uprimne si myslim, ze to je dost developmentu naskladat reseni, aby fungovalo a pak se dalo i vyskalovat.
Bohuzel se v hi-level resenich pripravenych pro snadne pouziti neorientuju vlastni zkusenosti, protoze si rad ty technologie poskladam podle situace sam; nicmene samotne ZFS toho umi hodne, rekl bych, ze na spoustu use-cases vubec neni nejake pokrocilejsi UI potreba, staci 2 prikazy na obslouzeni celeho storage a pripadne par skriptu na replikaci (na Githubu se pro ZFS vali nekolik variant vhodnych pro nasazeni rovnou.).
Faktem je, že teoreticky by byl pěkný, AFAIK s tím jde pracovat jako s blokovým zařízením a KVM snad má nějakou podporu pro ceph zabudovanou.
Nad made in udělej si sám úložištěm už jsem přemýšlel, napadlo mě něco jako DRBD + corosync/pacemaker + iSCSI. Dokonce jsem to i rozběhal, ale stějně bych nevěděl, jak moc tomu věřit. Přece jenom iSCSI - pokud vím - není přímo na tohle dělané a redundance je v podstatě založená na tom, že jeden stroj spadne, aniž by předtím odpojil klienty. Když jsem failover vyvolal ručně, server odpojil klienty a těm se ztráta disků moc nelíbila.
Pánové nic proti, ale jste jak praštění. Nemáte s tím reálnou zkušenost (CEPH), ale doporučujete to.Zatímco vy jste se asi praštil do hlavy doopravdy, a pak jste z mého příspěvku vyčetl něco, co tam ani náhodou není.
FCoE situaci neřeší a navíc na to nikde nemám HW.
K těm snapshotům - jde o btrfs snapshoty. DRBD (blokové zařízení) + BTRFS (souborový systém) + NFS (sdílení). Používat nad DRBD LVM považuji za úlet. Ne že by to nešlo, ale je to další, vcelku zbytečná vrstva, protože obvykle se používá DRBD vytvořené nad LVM logickým oddílem.
Jinak se pokusím schematicky uvést jaké kombinace jsem používal a proč jsem je opustil
( MD RAID | HW RAID ) + LVM + DRBD Primary/Primary + OCFS2 + Virtual disk
Navíc jsem si musel napsat vlastního agenta do Pacemakeru, který se staral o správné namountování OCFS2, protože ten co byl k dispozici byl zastaralý (pracoval tenkrát ještě se zámky v userspace, které u novější verze jádra byly odstraněny). To by rok 2011. Kritickým bodem byl ovšem rozpad DRBD pole. Po opakovaných restartech, se rozpadalo DRBD pole a vznikal split-brain, jehož řešení obnášelo dilema - který nod má ta správná data? Proto jsme tento koncept opustili postupně opustili a během r. 2012 přešli zpátky na DRBD v režimu Primary/Slave.
( MD RAID | HW RAID ) + LVM + DRBD Primary/Slave + ( Ext3 | Ext4 | Btrfs ) + NFS + (Diskless | Virtual disk)
Tato změna sebou přinesla to, že jsme mohli zahodit OCFS2 a používat rovnou běžný souborový systém. U některých clusterů se přes NFS exportují celé virtuální disky, ale nejlepší výkon a komfort poskytuje Diskless - na který už jsem odkazoval výše - který pracuje rovnou se soubory.
Bohužel neuralgickým bodem je agent Pacemakeru pro DRBD od Linbitu. Jedinou cestou, jak se zbavit závislosti na DRBD je - GlusterFS. Není sice tak výkonný (jeho výkon je závislý na mnoha faktorech), ale funguje poměrně spolehlivě a co hlavně - virtuální disky uložené na jeho svazcích lze poskytovat i na jiné stroje.
Btrfs multidevice + Thin LVM + GlusterFS + Virtual disk
Tohle řešení je ale poměrně čerstvá záležitost. Mám totiž ve zvyku věci průběžně dokumentovat, což je dost náročné na čas a ještě jsem nerealizoval všechny plánované testy nejrůznějších krizových stavů. Jednoznačná výhoda je v tom, že lze virtualizovat libovolný systém. Je to blbuvzdorné a jednou vytvořený virtuální stroj lze v případě nutnosti spustit z libovolného bricku, ale nemám odzkoušeno co se stane, když se začnou hnojit data uvnitř souboru s virtuálním diskem na některém z bricků. Největší slabiny spatřuji v následujících věcech:
):
Jestlize mi pujde o co nejlepsi vykon ktery mi dany HW dokaze poskytnout (hlavne pro ty potencionalni DB stroje) tak se asi vykaslat na clusterovani, pouzit samostatne sdilene uloziste pripojene pres 10Gbit iSCSI (MPIO?) a nejak vyresit priodicke backupy ?
V tom pripade bych se asi pustil do ZFS. Kdyz mu dam dostatek RAM, vykonne SSD a slusne HDD, tak asi chybu neudelam. Zde by me tedy zajimalo jak se resi to zalohovani snapshotu? Jak casto? Kam? Pri nejakem velkem prusvihu prijdu o data od posledni zalohy?
Jestlize bych ten cluster precijen pozadoval, tak nejakou formu primary/secondary replikace mezi 2 nody? Zde uz musim pocitat s nejakou reziji pro replikaci a propadu diskoveho vykonu. K tomu ale take potrebuji idealne stejne vykonny druhy server, ktery prijde ke slovu pouze v pripade vypadku/udrzbe toho prvniho. To uz se da povazovat za HA storage. Se zfs to tedy zrejme nebude problem? nebo treba to DRBD ktere uz provozuji.
Nasleduje to mnou aktualne provozovane reseni primary/primary DRBD bezici primo na virtualizacnich nodech. Pekne je to ze staci 2 nody, spatne je to ze maximalne 2 nody (i kdyz ted jsem koukal ze DRBD9 uz umi multinode replikaci). Taky momentalne nemam moznost snapshotu. Split-brain je neprijemnost ale ne problem, funguje to.
A potom plnohodnotny storage cluster - GlusterFS a CEPH. Pro GlusterFS by tedy stacily 2 nody? Ale externi, takze zase HW navic. Musim pocitat se znatelnou rezii kvuli replikaci mezi nody, na nejaky use-case se hodi vic, na neco min. Ale ziskam vyborne moznosti rozsirovani.
CEPH - pro moje potreby nejmin vhodny (a to me stve hodne
takhle teoreticky vypada opravdu idealne..), - sice je podporovan beh primo na Proxmoxu, ale rychlostne asi nejslabsi..... Na nenarocne VM by to asi slo, ale na narocnejsi DB asi spatne. Nemam jak otestovat, nezbyva mi nez verit zkusenostem jinych.
Pak jsou tady nejake dalsi kombinace, ktre asi nejak funguji, ale zde uz si prave nejsem jisty jestli to chci riskovat.... Koukal jsem na nejake navody na DRBD+ZFS (Proxmox uz ma podporu ZoL) a GlusterFS na dvou Proxmox nodech. Ale jak rikam, do toho bych se asi poustet nechtel...
No kazdopadne diky za dosavadni diskuzi (i kdyz spis jenom ctu a hledam o cem to vlastne mluvite), a za dalsi namety ke zkoumani
Rozchodit GlusterFS lze lupnutím prstu.To bych nepovažoval za tak důležité jako to, jak dobře to pak bude chodit. Ale ok, to už jste tu psal taky, že na dvou nodech (a jestli jsem dobře pochopil, tazatel jich víc mít nebude) to stáhlo za prd, to jako argument beru. Když jsem to četl, na Ceph se mi líbil návrh - hromada strojů, na nich hromada disků, poskládám to dohromady a všichni vidí všechno. Ideální pro prostředí, které se vyvíjelo tak, že tu hromadu strojů už mám, takže kvůli síťové storage nemusím vyhodit půlku serverovny. Dokonce mám pocit, že EMC něco podobného nabízí za peníze a vůbec bych se nedivil, kdyby se inspirovali (ať už jedni nebo druzí.) Na druhou stranu jsem o Ceph od nikoho neslyšel žádné pozitivní reference, takže jsem nějaké vážnější testování nechal "na jindy"...
Ale jak rikam, zatim nemam HW, tak proto ten sber informaci, treba se tu ukaze nekdo kdo ma obe varianty realne otestovane.
Kazdopadne na te Wiki je spousta zajimavich veci, diky.
K tomu tvemu pokusu s CEPH.... Odmitat ho protoze jsi ho ani nerozbehal neni zrovna OK. Ja jsem v trochu jine situaci. HW bude novy, funkcni a mohu ho vybrat na miru konkretnim potrebam (samozrejme dalsi otazka bude cena za ten idelani HW). Se SW tak necekam nejaky velky problem. Nebudu si to kompilovat sam, nebudu to manualne skadat.... Pouzil bych ten Proxmox ktery CEPH podporuje hlavne tou bezproblemovou instalaci a integraci. Maji na to vlastni balicek ktery se postara o instalaci i zavislosti. Spravovat se da pres Webmanagment proxmoxu.
Takze spis jde o to jaky vykon bude CEPH vs GlusterFS mohu ocekavat na stejnem HW.
). Nasel jsem i nejake porovnani pristupu pres FUSE a QEMU API a to je pekny rozdil. QEMU tam bylo jen o trochu pomalejsi nez primy pristup k diskum. Ale nejakou tu otazku bych k tomu mel...
Pouzivat spis vice samostatnych disku (bricku) v jednom nodu? Nebo z vice disku sestavit RAID pole (RAID0) a z tohoto pole vytvorit jeden brick?
Ptam se proto ze pri tom zkouseni na virtualech jsem v kazdem nodu mel 2 disky (20GB a 10Gb) Celkova kapacita sice 30GB ale nemohl jsem zapsat soubor vetsi nez 20 GB. Je mi jasne ze pri pouziti normalnich disku se do takove situace asi nedostanu, ale pri pouziti vice malych disku by se to stat klidne mohlo zase.
A kdyz budu mit ty jednotlive disky/bricky , tak v ramci nodu sice mohou byt ruzne velikosti, ale ostatni nody musi mit stejne kombinace?
Co HW RAID s cache? Pomuze nebo ma Glusterfs radsi primy pristup k diskum?
fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75Random read
fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randreadHost - local, RAID10 6x300GB SAS2, MegaRAID SAS 2108 Random read/write
read : io=3072.4MB, bw=12732KB/s, iops=3183 , runt=247092msec write: io=1023.7MB, bw=4242.3KB/s, iops=1060 , runt=247092msecRandom Read
read : io=4096.0MB, bw=19690KB/s, iops=4922 , runt=213013msecVM Debian - GlusterFS, cache writeback, VirtIO Random read/write
read : io=3071.7MB, bw=13732KB/s, iops=3432, runt=229056msec write: io=1024.4MB, bw=4579.4KB/s, iops=1144, runt=229056msecRandom Read
read : io=4096.0MB, bw=45570KB/s, iops=11392, runt= 92040msecVM Debian - DRBD, cache directsync, VirtIO Random read/write
read : io=3071.7MB, bw=11792KB/s, iops=2948, runt=266734msec write: io=1024.4MB, bw=3932.5KB/s, iops=983, runt=266734msecRandom read
read : io=4096.0MB, bw=16911KB/s, iops=4227, runt=248025msecVubec tedy nevim jestli ty vysledky jsou celkove dobre nebo spatne, DRBD i GlusterFS bezi na vychozi konfiguraci, temer bez jakychkoliv uprav. Takze je cas trochu se venovat tomu tunningu...
Random R/W: read : io=3071.7MB, bw=11986KB/s, iops=2996, runt=262420msec write: io=1024.4MB, bw=3997.9KB/s, iops=999, runt=262420msec Random R: read : io=4096.0MB, bw=18343KB/s, iops=4585, runt=228656msec(8x 300GB SAS2 10k, SmartArray P410, cache R/W 75/25, R10)
Random R/W: read : io=3071.7MB, bw=11409KB/s, iops=2852, runt=275688msec write: io=1024.4MB, bw=3804.8KB/s, iops=951, runt=275688msec Random R: read : io=4096.0MB, bw=17226KB/s, iops=4306, runt=243480msecPro porovnani:
/var/tmp: read : io=3071.7MB, bw=10460KB/s, iops=2614, runt=300719msec write: io=1024.4MB, bw=3488.3KB/s, iops=872, runt=300719msecTo, ze je 6 disku rychlejsich nez 8, je zvlastni. Glusterfs FUSE fio 2 nody:
read : io=3071.7MB, bw=7332.3KB/s, iops=1833, runt=428978msec write: io=1024.4MB, bw=2445.2KB/s, iops=611, runt=428978msecGluster FUSE top 2 nody:
root@ic3:/mnt/gluster-test/fio# gluster volume top gluster-test read-perf bs 4096 count 1024 Brick: ic3-gluster:/mnt/gluster-storage Throughput 2974.68 MBps time 0.0014 secs MBps Filename Time ==== ======== ==== 0 /fio/test 2015-06-03 10:06:29.522222 0 /test 2015-06-03 09:58:58.369362 Brick: ic4-gluster:/mnt/gluster-storage Throughput 2555.94 MBps time 0.0016 secs root@ic3:/mnt/gluster-test/fio# gluster volume top gluster-test write-perf bs 4096 count 1024 Brick: ic3-gluster:/mnt/gluster-storage Throughput 719.93 MBps time 0.0058 secs MBps Filename Time ==== ======== ==== 0 /fio/test 2015-06-03 10:06:29.494512 Brick: ic4-gluster:/mnt/gluster-storage Throughput 728.18 MBps time 0.0058 secs MBps Filename Time ==== ======== ==== 0 /fio/test 2015-06-03 10:03:11.735087 0 /test 2015-06-03 09:55:40.622298
root@nod2 :~# gluster volume top stroj read-perf bs 4096 count 1024 Brick: nod2:/srv/stroj/data Throughput 1062.39 MBps time 0.0039 secs MBps Filename Time ==== ======== ==== 0 /disk.img 2015-06-03 12:04:00.744629 Brick: nod3:/srv/stroj/data Throughput 1080.73 MBps time 0.0039 secs Brick: nod1:/srv/stroj/data Throughput 1122.07 MBps time 0.0037 secs MBps Filename Time ==== ======== ==== 0 /disk.img 2015-05-27 18:00:42.352519 root@nod2 :~# gluster volume top stroj write-perf bs 4096 count 1024 Brick: nod2:/srv/stroj/data Throughput 421.07 MBps time 0.0100 secs MBps Filename Time ==== ======== ==== 0 /disk.img 2015-06-03 13:07:13.967296 Brick: nod3:/srv/stroj/data Throughput 565.88 MBps time 0.0074 secs MBps Filename Time ==== ======== ==== 0 /disk.img 2015-06-03 13:07:15.150104 Brick: nod1:/srv/stroj/data Throughput 443.47 MBps time 0.0095 secs MBps Filename Time ==== ======== ==== 0 /disk.img 2015-06-03 13:07:17.407223 root@nod2 :~# gluster volume info stroj Volume Name: stroj Type: Replicate Volume ID: ce1671b3-7217-4817-b051-1919407824a4 Status: Started Number of Bricks: 1 x 3 = 3 Transport-type: tcp Bricks: Brick1: nod2:/srv/stroj/data Brick2: nod1:/srv/stroj/data Brick3: nod3:/srv/stroj/data Options Reconfigured: cluster.self-heal-daemon: enable nfs.disable: on
Ono s těmi benchmarky je to takové všelikajé, tak jsem jen pro porovnání přihodil stejné měření aplikované na virtuál, který používám pro testy, než bude časem úplně odstavený - stroj. Link jsem přidal, abyste si mohli otestovat jak ten stroj reaguje. Jede na něm apache, postgres. Dřív se na něm sbíraly data a dělaly nějaké výpočty.
Bricky na nodech jsou na 4TB SSHD od Seagate (LVM oddíl o velikosti 50GB, formátovaný na btrfs). Virtuální disk má 40GB a paměti má ten stroj 1GB.
Kromě tohoto stroje jedou na nodu nod2 ještě další dva, a celkem je v provozu 9 svazků.
z ic3-gluster: ic4-gluster:/gluster-test /mnt/nfsgluster nfs defaults,_netdev 0 0 fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75 read : io=3071.7MB, bw=28420KB/s, iops=7105, runt=110675msec write: io=1024.4MB, bw=9477.5KB/s, iops=2369, runt=110675msec fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randread read : io=4096.0MB, bw=36024KB/s, iops=9006, runt=116430msec z ic3-gluster: ic3-gluster:/gluster-test /mnt/nfsgluster nfs defaults,_netdev 0 0 fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75 read : io=3071.7MB, bw=10407KB/s, iops=2601, runt=302226msec write: io=1024.4MB, bw=3470.7KB/s, iops=867, runt=302226msec fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randread read : io=4096.0MB, bw=14545KB/s, iops=3636, runt=288362msecPodle tohoto testu je vykon pres NFS v pripade pripojeni na vzdaleny node cca 2.5x vetsi...
Random R read : io=4096.0MB, bw=72636KB/s, iops=18159, runt= 57744msec Random RW read : io=3071.7MB, bw=17964KB/s, iops=4490, runt=175095msec write: io=1024.4MB, bw=5990.6KB/s, iops=1497, runt=175095msecHlavne ten Random Read je docela zasadni skok. U pripojeni pres NFS (1Gbit) byly vysledky spis polovicni. Ale to pouzivat nebudu, takze asi neresim. Takze ted jdu hledat jak na benchmarky DB
quick-read=off read-ahead=off io-cache=off stat-prefetch=off eager-lock=enable remote-dio=enable quorum-type=auto server-quorum-type=serverVM: VIRTIO, writeback
cat /sys/block/vda/queue/scheduler [noop] deadline cfq blockdev --getra /dev/vda 32768Jsou to bezne vygoogleny rady pro VM a Glusterfs, ani nevim co melo nejvetsi vliv (tusim ze se to pohlo pri nastaveni parametru Glusterfs) Ted hledam nejake vhodne zpusoby tech benchmarku DB a na zaklade toho bych pokracoval s ladenim GlusterFS.
z ic3-gluster: ic4-gluster:/gluster-test /mnt/nfsgluster nfs defaults,_netdev 0 0 [cfq] fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randread read : io=4096.0MB, bw=36024KB/s, iops=9006, runt=116430msec [deadline] fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randread read : io=4096.0MB, bw=76913KB/s, iops=19228, runt= 54533msec