abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
AbcLinuxu hledá autory!
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
včera 17:25 | IT novinky

Do prodeje (Farnell) se dostal jednodeskový počítač Tinker Board (unboxing). Jedná se o konkurenci Raspberry Pi 3 od společnosti Asus. Porovnání (jpg) těchto počítačů například na CNXSoft. Cena Tinker Boardu je 55 £.

Ladislav Hagara | Komentářů: 8
včera 14:44 | Zajímavý projekt

Byla zveřejněna pravidla hackerské soutěže Pwn2Own 2017, jež proběhne od 15. do 17. března v rámci bezpečnostní konference CanSecWes ve Vancouveru. Soutěžit se bude o více než milion dolarů v pěti kategoriích. Letos se bude útočit i na Ubuntu. Jedná se již o 10. ročník této soutěže.

Ladislav Hagara | Komentářů: 1
včera 13:33 | Nová verze

Po sedmi měsících vývoje od vydání verze 5.7 byla vydána verze 5.8 (YouTube) toolkitu Qt. Z novinek lze zmínit například Qt Lite pro vestavěná zařízení. Nově jsou plně podporovány moduly Qt Wayland Compositor (YouTube) a Qt SCXML (YouTube). Současně byla vydána verze 4.2.1 integrovaného vývojového prostředí (IDE) Qt Creator.

Ladislav Hagara | Komentářů: 1
včera 11:52 | Pozvánky

Lednový Prague Containers Meetup se koná ve čtvrtek 26. ledna 2017 od 18:00 v Apiary, Pernerova 49, Praha 8. Přijďte se podívat na přednášky o Enterprise Kubernetes a Jenkins as a code.

little-drunk-jesus | Komentářů: 0
včera 11:40 | Pozvánky

Program letošního ročníku konference Prague PostgreSQL Developer Days, která se koná již 15. a 16. února 2017 na ČVUT FIT, Thákurova 9, Praha 6, byl dnes zveřejněn. Najdete ho na stránkách konference včetně anotací přednášek a školení. Registrace na konferenci bude otevřena zítra (24. ledna) v brzkých odpoledních hodinách.

TomasVondra | Komentářů: 0
22.1. 02:20 | Zajímavý článek

David Revoy, autor open source webového komiksu Pepper&Carrot nebo portrétu GNU/Linuxu, upozorňuje na svém blogu, že nový Inkscape 0.92 rozbíjí dokumenty vytvořené v předchozích verzích Inkscape. Problém by měl být vyřešen v Inkscape 0.92.2 [reddit].

Ladislav Hagara | Komentářů: 0
22.1. 02:02 | Komunita

Øyvind Kolås, hlavní vývojář grafických knihoven GEGL a babl, které využívá grafický program GIMP, žádá o podporu na Patreonu. Díky ní bude moci pracovat na vývoji na plný úvazek. Milník 1000 $, který by stačil na holé přežití, se již téměř podařilo vybrat, dalším cílem je dosažení 2500 $, které mu umožní běžně fungovat ve společnosti.

xkomczax | Komentářů: 12
21.1. 23:54 | Pozvánky

DevConf.cz 2017, již devátý ročník jedné z největších akcí zaměřených na Linux a open source ve střední Evropě, proběhne od pátku 27. ledna do neděle 29. ledna v prostorách Fakulty informačních technologií Vysokého učení technického v Brně. Na programu je celá řada zajímavých přednášek a workshopů. Letos je povinná registrace.

Ladislav Hagara | Komentářů: 0
21.1. 22:11 | Nová verze

Byla vydána verze 1.0.0 emulátoru terminálu Terminology postaveného nad EFL (Enlightenment Foundation Libraries). Přehled novinek v poznámkách k vydání.

Ladislav Hagara | Komentářů: 0
20.1. 17:00 | Nová verze

Byl vydán Docker 1.13. Přehled novinek na YouTube a v poznámkách k vydání na GitHubu. Docker umožňuje běh aplikací v softwarových kontejnerech (Wikipedia).

Ladislav Hagara | Komentářů: 7
Jak se stavíte k trendu ztenčování přenosných zařízení (smartphony, notebooky)?
 (12%)
 (2%)
 (72%)
 (3%)
 (11%)
Celkem 389 hlasů
 Komentářů: 31, poslední včera 19:19
Rozcestník
Reklama

Dotaz: Teoretická: Distributed File System

18.10.2010 15:43 Alf | skóre: 18
Teoretická: Distributed File System
Přečteno: 600×

Zdravím,

toto téma je hlavně teoretické, zajímá mě každý váš názor. Můžete psát i věci u kterých si nejste 100% jisti, že to tak jde :). Takže moc se mi líbí přístup ZFS, to vytváření filesystémů je prostě nádherné :), už teď jsem spokojen s LVM, ale ZFS je ještě lepší :). Líbí se mi taky, že umí "online" zapojit další disk.  Což mě přivádí k myšlence, jak to rozdělit na více strojů?

Představa je následující. Mám 4 storage servery (každý 25TB) a 5 klientů. Výsledek: 4 storage servery budou zapojeny jako jeden, tím mi vznikne 100TB pole. Každý klient bude mít toto pole k dispozici pro čtení/ukládání uživatelských dat. Jako filesystem by mel být použit ZFS.

Máte nějaké návrhy? Jak byste to řešili?

Odpovědi

18.10.2010 16:36 cronin | skóre: 48
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
18.10.2010 19:45 Alf | skóre: 18
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System

No maximálně podle nadpisu, ale o tomhle toho téma není.

19.10.2010 08:36 cronin | skóre: 48
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
Problem je v zadani, ktore zaroven hovori "Co" (distribuovany suborovy system), aj pozaduje "Ako" (ZFS). Ale vcelku vycerpavajuca odpoved je uz uvedena nizsie.
18.10.2010 20:17 VSi | skóre: 28
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
Myslím, že ZFS přímo nic takového neumí. Podstatné je, jak budou klienti k těm datům přistupovat. Tj. jestli je požadavek na NFS/CIFS a podobné standardní protokoly, které ze strany klienta rozkládání na víc strojů neumí. Dělat nad ZFS nějakou další vrstvu, která by ty 4 stroje spojovala, to je podle mě škoda - může to být něco jako glusterfs (nevím, jestli zrovna ten jde dát nad ZFS).

Tohle se obvykle řeší 1 serverem a externími diskovými poli (bedna s rámečky na disky, zdrojem, a příslušným rozhraním), která jsou připojena přes SAS, iSCSI, popř. Fibre Channel. Takhle lze připojit velké množství disků (v serveru je možné mít více SAS HBA s více porty, diskové krabice lze někdy kaskádovat), nad kterými lze udělat jednu ZFS instanci. Možnost je také ze 3 serverů svazky exportovat přes iSCSI a na 4. vše spojit do jednoho ZFS, a ten exportovat přes NFS/CIFS...
21.10.2010 03:00 imro | skóre: 19 | blog: hovado
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
Nuz, pokial by sme do toho zahrnuli aj komercne riesenia, tak napr. virtualizacia storage ponuka presne to, co popisujes. Napr. IBM ponuka SVC cluster, ktory ti dokaze spojit tebou popisovane 4 storage. Ten SVC cluster ti potom umoznuje do jednej partition mountnut klientov kolko len chces.
...............................................................................
Ak potrebujes naozaj ZFS, tak sa mrkni na projekt OpenSolaris, ktory ti dokaze urobit z jedneho servra, ku ktoremu je pripojene storage pole, fibre channel target a k nemu pripajat dalsie zariadenia. Velmi uzitocna a hlavne neskutocne vykonna vecicka. To ale neriesi vsetky veci,ktore si popisal,ze potrebujes. Mrkni sem, je to velmi zaujimave poctenicko:
http://www.anandtech.com/show/3963/zfs-building-testing-and-benchmarking
Heron avatar 19.10.2010 08:49 Heron | skóre: 50 | blog: root_at_heron | Olomouc
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
Představa je následující. Mám 4 storage servery (každý 25TB) a 5 klientů. Výsledek: 4 storage servery budou zapojeny jako jeden, tím mi vznikne 100TB pole. Každý klient bude mít toto pole k dispozici pro čtení/ukládání uživatelských dat. Jako filesystem by mel být použit ZFS
Možná jsem otázku zcela nepochopil (s nadpisem nemá nic společného), ale co ti brání vzít ta 4 disková pole (export např přes FC, iSCSI apod), zkrátka mít ve výsledku 4 bloková zařízení po 25TB, a nad těmito udělat jeden 100TB ZFS pool?
20.10.2010 13:31 Alf | skóre: 18
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System

Do téhle problematiky tolik nevidím, zatím ji oťukávám. Jdu provést nějaké testy :). Jen pro ujištění. Aby to tedy šlo neustále rozšiřovat, musí být každý iSCSI nastaven na každém klientovi. K jednomu souboru pak může přistupovat několik serverů. Ohlídá si to nějak nebo může nastat problém? Řešení jednoho serveru, kde budou všechny iSCSI připojeny a dále exportovat např. přes NFS by mohlo být za čas nedostačující.

PS: Ještě jednou upozorňuji, jedná se čistě jen o teorii. V žádném případě výsledek této diskuse nebudu závádět někde v produkčním prostředí. Jen chci více proniknout do této problematiky a zkušenosti zde získané použít v budoucnu. Vše to testuji ve virtuálním prostředí, takže se nebráním žádným experimentům.

Heron avatar 20.10.2010 13:47 Heron | skóre: 50 | blog: root_at_heron | Olomouc
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
Aby to tedy šlo neustále rozšiřovat, musí být každý iSCSI nastaven na každém klientovi.

Nikoliv. To co jsem popisoval já je stav, kdy nad diskovými poli vytvoříš jedno jediné a to potom předáváš klientů (pomocí NFS, případně SAMBy). Pochopitelně tam můžeš přidat další pole a to zastřešující jednoduše rozšířit (ZFS, LVM, to už je jedno).

Ohlídá si to nějak nebo může nastat problém?

Za předpokladu, že na daném blokovém zařízení (iSCSI se na straně Iniciátoru - klienta - tváří jako úplně obyčejný disk), je nějaký systém souborů, který umí být sdílen. Znám jenom jeden, VMFS.

U normálních FS nastane problém po prvním zápisu.

20.10.2010 13:58 Alf | skóre: 18
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System

To jsem si myslel. No dobře, každopádně jak to myslíš s tím rozšiřováním? Je to tak jak si to myslím? Tedy budu mít jeden hlavní server a další např. 4 připojený přes iSCSI do toho jednoho. Ten to vyexportuje třeba přes NFS ostatním. V případě potřeby připojím k tomu serveru přes iSCSI další. A až nebude ten hlavní stíhat, tak sestavím nové pole.

Heron avatar 20.10.2010 14:09 Heron | skóre: 50 | blog: root_at_heron | Olomouc
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
Tedy budu mít jeden hlavní server a další např. 4 připojený přes iSCSI do toho jednoho.

V podstatě takhle jsem to myslel s tím, že těch serverů nemusí být nutně 5. Export toho jednoho pole může klidně dělat jedno z těch diskových polí -- to pokud to chceme mít levné.

Případně ty jednotící servery mohou být dva v clusteru a ty storage budou zrcadlené -- v případě, že nám jde trochu o data. Tedy celkem 10 strojů.

Ten to vyexportuje třeba přes NFS ostatním.

Přesně tak, na tom jednotícím ty iSCSI mohou být spojeny klidně do RAID0 (pokud nám fakt nejde o data a chceme to mít pekelně rychlé), případně jen jako další disk ve VG či ZFS poolu. A nad touto vrstvou pak export přes síťové sdílené FS.

No dobře, každopádně jak to myslíš s tím rozšiřováním?

Přidám další pole, přes FC/iSCSI dotáhnu do toho jednotícího serveru a tam ho prostě přidám do R0, ZFS poolu, VG

S tím si lze hrát poměrně hodně, záleží na co to člověk potřebuje. Bohužel to se často zjistí až po roce provozu a celý storage je potřeba od základů překopat.

21.10.2010 03:10 imro | skóre: 19 | blog: hovado
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
Umoznit viacerym klientom zapisovat do jednej nazvyme to partition by malo zvladnut kazde lepsie pole. A inak, vami spominany VMFS ma obmedzenie na velkost partition-myslim ze su to 2TB, ale teraz presne neviem z hlavy povedat tu hodnotu
.................................................................................
Mna by len zaujimalo, na co potrebujete 100TB uceleneho priestoru. Akykolvek filesystem ktory na tom vytvoris bude mat problem sam so sebou. Akurat 3-4 vydania jadernych noviniek sa tejto problematike dost obsirne venovalo.
Heron avatar 21.10.2010 08:43 Heron | skóre: 50 | blog: root_at_heron | Olomouc
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
Umoznit viacerym klientom zapisovat do jednej nazvyme to partition by malo zvladnut kazde lepsie pole.

Pole jistě, ale systém souborů už ne. Nebo je vícenásobné připojení FS pro zápis v unixovém světě standardem?

Mna by len zaujimalo, na co potrebujete 100TB uceleneho priestoru.

Tazatel to bere jako teoretické cvičení. V mailing listech XFS se ale nezřídka objevují požadavky na 100TB. Nepřijde mi to tak přehnané.

19.10.2010 09:49 FooBar
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
Chtel bych te upozornit na jednu takovou veselou poucku -- pokud budes mit opravdu jen rozdistribuovanou storage na 4 servery, tvoje dostupnost bude P^4, kde P = pravdepodobnost ze je storage server up. Tzn. v pripade 4 storage serveru a P = 0.99 mas vyslednou dostupnost 0.96 -- teoreticky tudiz z kazdeho dne jsi hodinu dole, nebo v kazdem roce ctrnact a pul dne dole.

Bottom line -- potrebujes si zajistit i redundanci mezi serverama, jinak se z toho poseres.
20.10.2010 13:37 Alf | skóre: 18
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System

Díky za příspěvek ;). Samozřejmě v produkčním prostředí je to nutné řešit jinak. Každopádně tady mi jde o postup. Ostatní záležitosti jako redudanci teď můžeme nechat stranou.

21.10.2010 09:47 FooBar
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
Ah, spatne jsem pochopil smysl nadpisu, myslel jsem ze te zajima spis teorie za distribuovanyma datovyma ulozistema, nez "ciste teoreticky, zvolit produkt X nebo Y" ;)
frEon avatar 19.10.2010 17:34 frEon | skóre: 40 | Praha
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
ja bych si jeste par let pockal a pak nasadil ceph
Talking about music is like dancing to architecture.
20.10.2010 13:41 Alf | skóre: 18
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System

V tom nebude problém ;). Díky za tip.

frEon avatar 20.10.2010 17:30 frEon | skóre: 40 | Praha
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
np
Talking about music is like dancing to architecture.
19.10.2010 17:53 omg
Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
pro upresneni. ted jsi spokojen s lvm nebo s clvm?

Založit nové vláknoNahoru

Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

ISSN 1214-1267   www.czech-server.cz
© 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.