Amazon bude poskytovat cloudové služby OpenAI. Cloudová divize Amazon Web Services (AWS) uzavřela s OpenAI víceletou smlouvu za 38 miliard USD (803,1 miliardy Kč), která poskytne majiteli chatovacího robota s umělou inteligencí (AI) ChatGPT přístup ke stovkám tisíc grafických procesů Nvidia. Ty bude moci využívat k trénování a provozování svých modelů AI. Firmy to oznámily v dnešní tiskové zprávě. Společnost OpenAI také nedávno
… více »Konference Prague PostgreSQL Developer Day 2026 (P2D2) se koná 27. a 28. ledna 2026. Konference je zaměřena na témata zajímavá pro uživatele a vývojáře. Příjem přednášek a workshopů je otevřen do 14. listopadu. Vítáme témata související s PostgreSQL či s databázemi obecně, a mohou být v češtině či angličtině.
Byl vydán Devuan 6 Excalibur. Přehled novinek v poznámkách k vydání. Kódové jméno Excalibur bylo vybráno podle planetky 9499 Excalibur. Devuan (Wikipedie) je fork Debianu bez systemd. Devuan 6 Excalibur vychází z Debianu 13 Trixie. Devuan 7 ponese kódové jméno Freia.
Společnost Valve aktualizovala přehled o hardwarovém a softwarovém vybavení uživatelů služby Steam. Podíl uživatelů Linuxu poprvé překročil 3 %, aktuálně 3,05 %. Nejčastěji používané linuxové distribuce jsou Arch Linux, Linux Mint a Ubuntu. Při výběru jenom Linuxu vede SteamOS Holo s 27,18 %. Procesor AMD používá 67,10 % hráčů na Linuxu.
Joel Severin v diskusním listu LKML představil svůj projekt linuxového jádra ve WebAssembly (Wasm). Linux tak "nativně" běží ve webovém prohlížeči. Potřebné skripty pro převod jsou k dispozici na GitHubu.
Byla vydána nová verze 25.10.31 svobodného multiplatformního video editoru Shotcut (Wikipedie) postaveného nad multimediálním frameworkem MLT. Shotcut je vedle zdrojových kódů k dispozici také ve formátech AppImage, Flatpak a Snap.
O víkendu probíhá konference OpenAlt 2025 (Stream). Na programu je spousta zajímavých přednášek. Pokud jste v Brně, stavte se. Vstup zdarma.
Josef Průša představil novou velkoformátovou uzavřenou CoreXY 3D tiskárnu Prusa CORE One L a nový open source standard chytrých cívek OpenPrintTag i s novou přepracovanou špulkou.
Na GOG.com běží Autumn Sale. Při té příležitosti je zdarma hororová počítačová hra STASIS (ProtonDB: Platinum).
Ubuntu 25.10 má nově balíčky sestavené také pro úroveň mikroarchitektury x86-64-v3 (amd64v3).
Nechápu proč sem pleteš ZFS. Nemá nativní podporu v jádře a v clusterovém použití prakticky na prd.
CEPH - Zapomeň. 3 nody jsou pro něj existenční minimum. Já mu dával šanci už třikrát, a pokaždé to skončilo na tom, že se mi ho nepodařilo rozběhat.
DRBD - fajn. Má ovšem jeden háček. Buď musíš mít pro každý stroj extra pole, nebo na něj lézt přes NFS, jako to používáme disklessu. Protože ale chceš virtualizovat i vidle, tak diskless požít nemůžeš a virtuální disky přes NFS.. - no, použít se to dá, ale žádná výhra. Navíc mám poslední dobou pocit, že hoši od Linbitu nějak prdí na agenta pro Pacemaker.
Takže já bych osobně doporučil u takové infrastruktury jako chceš provozovat jít do replikovaného GlusterFS. Výkonově je Schrot slabší, ale oproti DRBD se GlusterFS jeví pro clusterové použití jako robustnější řešení - nemusíš řešit ze kterého nodu na virtuální disk lezeš a můžeš bez obav šaškovat s nody - průběžné je aktualizovat a dělat s nimi i jiné hrátky. Mě v tom jedou zatím tři méně důležité stroje. Pořád zatím ve fázi testu. Oproti původnímu disklessovému řešení linuxových strojů které používám u Peanuts jsem zatím nepřišel na vhodnou strategii zálohování.
DRBD - fajn. Má ovšem jeden háček. Buď musíš mít pro každý stroj extra poleProč to? Nestačilo by nad tím DRBD rozběhat LVM? Přímo nad DRBD jsem to teda nezkoušel, ale IIRC jsem to zkoušel nad iSCSI blokovým zařízením - hádám, že by to mělo fungovat podobně. Samozřejmě to omezuje na maximálně 2 nody
Nechápu proč sem pleteš ZFS. Nemá nativní podporu v jádře a v clusterovém použití prakticky na prd.
Pls. Nesir informace o necem, co neznas. ZFS bezi se vsemi jadry od 2.6.32 po nejnovejsi. A clusterove pouziti pro object store se ZFS neni zadna novinka. Je nekolikero zpusobu, jak na to, ve vsech ZFS usnadnuje zivot.
Autorovi postu: kdybys se rozhodl pro ZFS a potreboval poradit, napis mi mail, pripadne muzes sem.
Co je, nebo neni v kernelu, je vzhledem k produkcnimu nasazeni IMHO irelevantni, pokud je nekdo, kdo tomu dela podporu.
…tedy aspoň do chvíle, než vás s tím taintovaným jádrem support pošle někam. Nebo vám ten někdo bude podporovat celé jádro?
            Ja bych to pro takhle maly pocet serveru nekomplikoval clusterovanim, kdybych mel resit replikaci dat, tak asynchronne send/recv snapshotu periodicky. Jelikoz to PVE ale nepodporuje, resil bych si to par skriptama sam zrejme. Ne kazdymu muze vyhovovat, nekdo rad UI v browseru, to pak se ZFS asi nic pointegrovaneho poradne neexistuje, leda poupravit drobne FreeNAS (snad umi nejake pluginy, pokud si vzpominam dobre). Ale nativni distribuovana reseni bych uvazoval az od vetsiho poctu nodu, s poradnou siti, atd. V malem bych se spokojil s nejakou formou asynchronni replikace. Nicmene to je muj nazor a jsou priklady lidi, kteri to provozuji i v malem vcelku dobre zclusterovane, ale uprimne si myslim, ze to je dost developmentu naskladat reseni, aby fungovalo a pak se dalo i vyskalovat.
Bohuzel se v hi-level resenich pripravenych pro snadne pouziti neorientuju vlastni zkusenosti, protoze si rad ty technologie poskladam podle situace sam; nicmene samotne ZFS toho umi hodne, rekl bych, ze na spoustu use-cases vubec neni nejake pokrocilejsi UI potreba, staci 2 prikazy na obslouzeni celeho storage a pripadne par skriptu na replikaci (na Githubu se pro ZFS vali nekolik variant vhodnych pro nasazeni rovnou.).
 Faktem je, že teoreticky by byl pěkný, AFAIK s tím jde pracovat jako s blokovým zařízením a KVM snad má nějakou podporu pro ceph zabudovanou.
Nad made in udělej si sám úložištěm už jsem přemýšlel, napadlo mě něco jako DRBD + corosync/pacemaker + iSCSI. Dokonce jsem to i rozběhal, ale stějně bych nevěděl, jak moc tomu věřit. Přece jenom iSCSI - pokud vím - není přímo na tohle dělané a redundance je v podstatě založená na tom, že jeden stroj spadne, aniž by předtím odpojil klienty. Když jsem failover vyvolal ručně, server odpojil klienty a těm se ztráta disků moc nelíbila.
            Pánové nic proti, ale jste jak praštění. Nemáte s tím reálnou zkušenost (CEPH), ale doporučujete to.Zatímco vy jste se asi praštil do hlavy doopravdy, a pak jste z mého příspěvku vyčetl něco, co tam ani náhodou není.
FCoE situaci neřeší a navíc na to nikde nemám HW.
K těm snapshotům - jde o btrfs snapshoty. DRBD (blokové zařízení) + BTRFS (souborový systém) + NFS (sdílení). Používat nad DRBD LVM považuji za úlet. Ne že by to nešlo, ale je to další, vcelku zbytečná vrstva, protože obvykle se používá DRBD vytvořené nad LVM logickým oddílem.
Jinak se pokusím schematicky uvést jaké kombinace jsem používal a proč jsem je opustil
( MD RAID | HW RAID ) + LVM + DRBD Primary/Primary + OCFS2 + Virtual disk
Navíc jsem si musel napsat vlastního agenta do Pacemakeru, který se staral o správné namountování OCFS2, protože ten co byl k dispozici byl zastaralý (pracoval tenkrát ještě se zámky v userspace, které u novější verze jádra byly odstraněny). To by rok 2011. Kritickým bodem byl ovšem rozpad DRBD pole. Po opakovaných restartech, se rozpadalo DRBD pole a vznikal split-brain, jehož řešení obnášelo dilema - který nod má ta správná data? Proto jsme tento koncept opustili postupně opustili a během r. 2012 přešli zpátky na DRBD v režimu Primary/Slave.
( MD RAID | HW RAID ) + LVM + DRBD Primary/Slave + ( Ext3 | Ext4 | Btrfs ) + NFS + (Diskless | Virtual disk)
Tato změna sebou přinesla to, že jsme mohli zahodit OCFS2 a používat rovnou běžný souborový systém. U některých clusterů se přes NFS exportují celé virtuální disky, ale nejlepší výkon a komfort poskytuje Diskless - na který už jsem odkazoval výše - který pracuje rovnou se soubory.
Bohužel neuralgickým bodem je agent Pacemakeru pro DRBD od Linbitu. Jedinou cestou, jak se zbavit závislosti na DRBD je - GlusterFS. Není sice tak výkonný (jeho výkon je závislý na mnoha faktorech), ale funguje poměrně spolehlivě a co hlavně - virtuální disky uložené na jeho svazcích lze poskytovat i na jiné stroje.
Btrfs multidevice + Thin LVM + GlusterFS + Virtual disk
Tohle řešení je ale poměrně čerstvá záležitost. Mám totiž ve zvyku věci průběžně dokumentovat, což je dost náročné na čas a ještě jsem nerealizoval všechny plánované testy nejrůznějších krizových stavů. Jednoznačná výhoda je v tom, že lze virtualizovat libovolný systém. Je to blbuvzdorné a jednou vytvořený virtuální stroj lze v případě nutnosti spustit z libovolného bricku, ale nemám odzkoušeno co se stane, když se začnou hnojit data uvnitř souboru s virtuálním diskem na některém z bricků. Největší slabiny spatřuji v následujících věcech:
 ):
Jestlize mi pujde o co nejlepsi vykon ktery mi dany HW dokaze poskytnout (hlavne pro ty potencionalni DB stroje) tak se asi vykaslat na clusterovani, pouzit samostatne sdilene uloziste pripojene pres 10Gbit iSCSI (MPIO?) a nejak vyresit priodicke backupy ?
V tom pripade bych se asi pustil do ZFS. Kdyz mu dam dostatek RAM, vykonne SSD a slusne HDD, tak asi chybu neudelam. Zde by me tedy zajimalo jak se resi to zalohovani snapshotu? Jak casto? Kam? Pri nejakem velkem prusvihu prijdu o data od posledni zalohy?
Jestlize bych ten cluster precijen pozadoval, tak nejakou formu primary/secondary replikace mezi 2 nody? Zde uz musim pocitat s nejakou reziji pro replikaci a propadu diskoveho vykonu. K tomu ale take potrebuji idealne stejne vykonny druhy server, ktery prijde ke slovu pouze v pripade vypadku/udrzbe toho prvniho. To uz se da povazovat za HA storage.  Se zfs to tedy zrejme nebude problem? nebo treba to DRBD ktere uz provozuji.
Nasleduje to mnou aktualne provozovane reseni  primary/primary DRBD bezici primo na virtualizacnich nodech. Pekne je to ze staci 2 nody, spatne je to ze maximalne 2 nody (i kdyz ted jsem koukal ze DRBD9 uz umi multinode replikaci). Taky momentalne nemam moznost snapshotu. Split-brain je neprijemnost ale ne problem, funguje to.
A potom plnohodnotny storage cluster - GlusterFS a CEPH. Pro GlusterFS by tedy stacily 2 nody? Ale externi, takze zase HW navic. Musim pocitat se znatelnou rezii kvuli replikaci mezi nody,  na nejaky use-case se hodi vic, na neco min. Ale ziskam vyborne moznosti rozsirovani.
CEPH - pro moje potreby nejmin vhodny (a to me stve hodne
 takhle teoreticky vypada opravdu idealne..),  - sice je podporovan beh  primo na Proxmoxu, ale rychlostne asi nejslabsi..... Na nenarocne VM by to asi slo, ale na narocnejsi DB asi spatne. Nemam jak otestovat, nezbyva mi nez verit zkusenostem jinych.
Pak jsou tady nejake dalsi kombinace, ktre asi nejak funguji, ale zde uz si prave nejsem jisty jestli to chci riskovat.... Koukal jsem na nejake navody na DRBD+ZFS (Proxmox uz ma podporu ZoL) a GlusterFS na dvou Proxmox nodech. Ale jak rikam, do toho bych se asi poustet nechtel...
No kazdopadne diky za dosavadni diskuzi (i kdyz spis jenom ctu a hledam o cem to vlastne mluvite), a za dalsi namety ke zkoumani 
            Rozchodit GlusterFS lze lupnutím prstu.To bych nepovažoval za tak důležité jako to, jak dobře to pak bude chodit. Ale ok, to už jste tu psal taky, že na dvou nodech (a jestli jsem dobře pochopil, tazatel jich víc mít nebude) to stáhlo za prd, to jako argument beru. Když jsem to četl, na Ceph se mi líbil návrh - hromada strojů, na nich hromada disků, poskládám to dohromady a všichni vidí všechno. Ideální pro prostředí, které se vyvíjelo tak, že tu hromadu strojů už mám, takže kvůli síťové storage nemusím vyhodit půlku serverovny. Dokonce mám pocit, že EMC něco podobného nabízí za peníze a vůbec bych se nedivil, kdyby se inspirovali (ať už jedni nebo druzí.) Na druhou stranu jsem o Ceph od nikoho neslyšel žádné pozitivní reference, takže jsem nějaké vážnější testování nechal "na jindy"...
 Ale jak rikam, zatim nemam HW, tak proto ten sber informaci, treba se tu ukaze nekdo kdo ma obe varianty realne otestovane.
            
 Kazdopadne na te Wiki je spousta zajimavich veci, diky.
K tomu tvemu pokusu s CEPH.... Odmitat ho protoze jsi ho ani nerozbehal neni zrovna OK. Ja jsem v trochu jine situaci. HW bude novy, funkcni a mohu ho vybrat na miru konkretnim potrebam (samozrejme dalsi otazka bude cena za ten idelani HW). Se SW tak necekam nejaky velky problem. Nebudu si to kompilovat sam, nebudu to manualne skadat.... Pouzil bych ten Proxmox ktery CEPH podporuje hlavne tou bezproblemovou instalaci a integraci. Maji na to vlastni balicek ktery se postara o instalaci i zavislosti. Spravovat se da pres Webmanagment proxmoxu.
Takze spis jde o to jaky vykon  bude CEPH vs GlusterFS mohu ocekavat na stejnem HW. 
 
            
 ).  Nasel jsem i nejake porovnani pristupu pres  FUSE a QEMU API a to je pekny rozdil. QEMU tam bylo jen o trochu pomalejsi nez primy pristup k diskum.  Ale nejakou tu otazku bych k tomu mel...
Pouzivat spis vice samostatnych disku (bricku) v jednom nodu? Nebo z vice disku sestavit RAID pole (RAID0) a z tohoto pole vytvorit jeden brick?
Ptam se proto ze pri tom zkouseni na virtualech jsem v kazdem nodu mel 2 disky (20GB a 10Gb) Celkova kapacita sice 30GB ale nemohl jsem zapsat soubor vetsi nez 20 GB. Je mi jasne ze pri pouziti normalnich disku se do takove situace asi nedostanu, ale pri pouziti vice malych disku by se to stat klidne mohlo zase. 
A kdyz budu mit ty jednotlive disky/bricky , tak v ramci nodu sice mohou byt ruzne velikosti, ale ostatni nody musi mit stejne kombinace?
Co HW RAID s cache? Pomuze nebo ma Glusterfs radsi primy pristup k diskum?
            fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75Random read
fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randreadHost - local, RAID10 6x300GB SAS2, MegaRAID SAS 2108 Random read/write
read : io=3072.4MB, bw=12732KB/s, iops=3183 , runt=247092msec write: io=1023.7MB, bw=4242.3KB/s, iops=1060 , runt=247092msecRandom Read
read : io=4096.0MB, bw=19690KB/s, iops=4922 , runt=213013msecVM Debian - GlusterFS, cache writeback, VirtIO Random read/write
read : io=3071.7MB, bw=13732KB/s, iops=3432, runt=229056msec write: io=1024.4MB, bw=4579.4KB/s, iops=1144, runt=229056msecRandom Read
read : io=4096.0MB, bw=45570KB/s, iops=11392, runt= 92040msecVM Debian - DRBD, cache directsync, VirtIO Random read/write
read : io=3071.7MB, bw=11792KB/s, iops=2948, runt=266734msec write: io=1024.4MB, bw=3932.5KB/s, iops=983, runt=266734msecRandom read
read : io=4096.0MB, bw=16911KB/s, iops=4227, runt=248025msecVubec tedy nevim jestli ty vysledky jsou celkove dobre nebo spatne, DRBD i GlusterFS bezi na vychozi konfiguraci, temer bez jakychkoliv uprav. Takze je cas trochu se venovat tomu tunningu...
            Random R/W: read : io=3071.7MB, bw=11986KB/s, iops=2996, runt=262420msec write: io=1024.4MB, bw=3997.9KB/s, iops=999, runt=262420msec Random R: read : io=4096.0MB, bw=18343KB/s, iops=4585, runt=228656msec(8x 300GB SAS2 10k, SmartArray P410, cache R/W 75/25, R10)
Random R/W: read : io=3071.7MB, bw=11409KB/s, iops=2852, runt=275688msec write: io=1024.4MB, bw=3804.8KB/s, iops=951, runt=275688msec Random R: read : io=4096.0MB, bw=17226KB/s, iops=4306, runt=243480msecPro porovnani:
/var/tmp: read : io=3071.7MB, bw=10460KB/s, iops=2614, runt=300719msec write: io=1024.4MB, bw=3488.3KB/s, iops=872, runt=300719msecTo, ze je 6 disku rychlejsich nez 8, je zvlastni. Glusterfs FUSE fio 2 nody:
read : io=3071.7MB, bw=7332.3KB/s, iops=1833, runt=428978msec write: io=1024.4MB, bw=2445.2KB/s, iops=611, runt=428978msecGluster FUSE top 2 nody:
root@ic3:/mnt/gluster-test/fio# gluster volume top gluster-test read-perf bs 4096 count 1024 Brick: ic3-gluster:/mnt/gluster-storage Throughput 2974.68 MBps time 0.0014 secs MBps Filename Time ==== ======== ==== 0 /fio/test 2015-06-03 10:06:29.522222 0 /test 2015-06-03 09:58:58.369362 Brick: ic4-gluster:/mnt/gluster-storage Throughput 2555.94 MBps time 0.0016 secs root@ic3:/mnt/gluster-test/fio# gluster volume top gluster-test write-perf bs 4096 count 1024 Brick: ic3-gluster:/mnt/gluster-storage Throughput 719.93 MBps time 0.0058 secs MBps Filename Time ==== ======== ==== 0 /fio/test 2015-06-03 10:06:29.494512 Brick: ic4-gluster:/mnt/gluster-storage Throughput 728.18 MBps time 0.0058 secs MBps Filename Time ==== ======== ==== 0 /fio/test 2015-06-03 10:03:11.735087 0 /test 2015-06-03 09:55:40.622298
root@nod2 :~# gluster volume top stroj read-perf bs 4096 count 1024 Brick: nod2:/srv/stroj/data Throughput 1062.39 MBps time 0.0039 secs MBps Filename Time ==== ======== ==== 0 /disk.img 2015-06-03 12:04:00.744629 Brick: nod3:/srv/stroj/data Throughput 1080.73 MBps time 0.0039 secs Brick: nod1:/srv/stroj/data Throughput 1122.07 MBps time 0.0037 secs MBps Filename Time ==== ======== ==== 0 /disk.img 2015-05-27 18:00:42.352519 root@nod2 :~# gluster volume top stroj write-perf bs 4096 count 1024 Brick: nod2:/srv/stroj/data Throughput 421.07 MBps time 0.0100 secs MBps Filename Time ==== ======== ==== 0 /disk.img 2015-06-03 13:07:13.967296 Brick: nod3:/srv/stroj/data Throughput 565.88 MBps time 0.0074 secs MBps Filename Time ==== ======== ==== 0 /disk.img 2015-06-03 13:07:15.150104 Brick: nod1:/srv/stroj/data Throughput 443.47 MBps time 0.0095 secs MBps Filename Time ==== ======== ==== 0 /disk.img 2015-06-03 13:07:17.407223 root@nod2 :~# gluster volume info stroj Volume Name: stroj Type: Replicate Volume ID: ce1671b3-7217-4817-b051-1919407824a4 Status: Started Number of Bricks: 1 x 3 = 3 Transport-type: tcp Bricks: Brick1: nod2:/srv/stroj/data Brick2: nod1:/srv/stroj/data Brick3: nod3:/srv/stroj/data Options Reconfigured: cluster.self-heal-daemon: enable nfs.disable: on
Ono s těmi benchmarky je to takové všelikajé, tak jsem jen pro porovnání přihodil stejné měření aplikované na virtuál, který používám pro testy, než bude časem úplně odstavený - stroj. Link jsem přidal, abyste si mohli otestovat jak ten stroj reaguje. Jede na něm apache, postgres. Dřív se na něm sbíraly data a dělaly nějaké výpočty.
Bricky na nodech jsou na 4TB SSHD od Seagate (LVM oddíl o velikosti 50GB, formátovaný na btrfs). Virtuální disk má 40GB a paměti má ten stroj 1GB.
Kromě tohoto stroje jedou na nodu nod2 ještě další dva, a celkem je v provozu 9 svazků.
z ic3-gluster: ic4-gluster:/gluster-test /mnt/nfsgluster nfs defaults,_netdev 0 0 fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75 read : io=3071.7MB, bw=28420KB/s, iops=7105, runt=110675msec write: io=1024.4MB, bw=9477.5KB/s, iops=2369, runt=110675msec fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randread read : io=4096.0MB, bw=36024KB/s, iops=9006, runt=116430msec z ic3-gluster: ic3-gluster:/gluster-test /mnt/nfsgluster nfs defaults,_netdev 0 0 fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75 read : io=3071.7MB, bw=10407KB/s, iops=2601, runt=302226msec write: io=1024.4MB, bw=3470.7KB/s, iops=867, runt=302226msec fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randread read : io=4096.0MB, bw=14545KB/s, iops=3636, runt=288362msecPodle tohoto testu je vykon pres NFS v pripade pripojeni na vzdaleny node cca 2.5x vetsi...
Random R read : io=4096.0MB, bw=72636KB/s, iops=18159, runt= 57744msec Random RW read : io=3071.7MB, bw=17964KB/s, iops=4490, runt=175095msec write: io=1024.4MB, bw=5990.6KB/s, iops=1497, runt=175095msecHlavne ten Random Read je docela zasadni skok. U pripojeni pres NFS (1Gbit) byly vysledky spis polovicni. Ale to pouzivat nebudu, takze asi neresim. Takze ted jdu hledat jak na benchmarky DB
            quick-read=off read-ahead=off io-cache=off stat-prefetch=off eager-lock=enable remote-dio=enable quorum-type=auto server-quorum-type=serverVM: VIRTIO, writeback
cat /sys/block/vda/queue/scheduler [noop] deadline cfq blockdev --getra /dev/vda 32768Jsou to bezne vygoogleny rady pro VM a Glusterfs, ani nevim co melo nejvetsi vliv (tusim ze se to pohlo pri nastaveni parametru Glusterfs) Ted hledam nejake vhodne zpusoby tech benchmarku DB a na zaklade toho bych pokracoval s ladenim GlusterFS.
z ic3-gluster: ic4-gluster:/gluster-test /mnt/nfsgluster nfs defaults,_netdev 0 0 [cfq] fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randread read : io=4096.0MB, bw=36024KB/s, iops=9006, runt=116430msec [deadline] fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randread read : io=4096.0MB, bw=76913KB/s, iops=19228, runt= 54533msec
        Tiskni
            
                Sdílej: