abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
AbcLinuxu hledá autory!
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
dnes 13:11 | IT novinky

Byl aktualizován seznam 500 nejvýkonnějších superpočítačů na světě TOP500. Dle očekávání se nejvýkonnějším superpočítačem stal superpočítač Summit. Český superpočítač Salomon klesl na 139. místo. Další přehledy a statistiky na stránkách projektu.

Ladislav Hagara | Komentářů: 0
dnes 09:00 | Nová verze

Po téměř 13 měsících vývoje od vydání verze 5.26 byla vydána nová stabilní verze 5.28 programovacího jazyka Perl. Do vývoje se zapojilo 77 vývojářů. Změněno bylo přibližně 730 tisíc řádků v 2 200 souborech. Přehled novinek a změn v podrobném seznamu.

Ladislav Hagara | Komentářů: 5
dnes 05:55 | Komunita

Při prvním spuštění Ubuntu 18.04 LTS (Bionic Beaver) je spuštěn nástroj Ubuntu Report. Pokud uživatel souhlasí, jsou pomocí tohoto nástroje odeslány do Canonicalu informace o daném počítači (doba instalace, počet procesorů, rozlišení displeje, velikost paměti, časová zóna, ...). Will Cooke, vedoucí týmu Ubuntu Desktop, zveřejnil na blogu Canonicalu první získané statistiky. Infografika na It's FOSS.

Ladislav Hagara | Komentářů: 0
včera 09:55 | Nová verze

Byl vydán Debian 8.11, tj. jedenáctá a současně poslední opravná verze Debianu 8 s kódovým názvem Jessie. Uživatelům je doporučen přechod na Debian 9 Stretch nebo využít LTS (Debian Long Term Support). LTS podpora Debianu 8 je plánována do 30. června 2020. LTS podpora Debianu 7 Wheezy skončila 31. května 2018.

Ladislav Hagara | Komentářů: 0
včera 09:11 | IT novinky

Hodnota Bitcoinu, decentralizované kryptoměny, klesla pod 6 000 dolarů. Před půl rokem byla hodnota Bitcoinu téměř 20 000 dolarů.

Ladislav Hagara | Komentářů: 33
23.6. 12:33 | Zajímavý projekt

Kernel.org představil lore.kernel.org, tj. archiv diskusního listu vývojářů linuxového jádra LKML (Linux Kernel Mailing List) s řadou zajímavých funkcí. Archiv běží na softwaru Public Inbox.

Ladislav Hagara | Komentářů: 0
23.6. 10:55 | Nová verze

Po devíti měsících vývoje od vydání verze 10.0 byla vydána verze 11.0 open source alternativy GitHubu, tj. softwarového nástroje s webovým rozhraním umožňujícího spolupráci na zdrojových kódech, GitLab (Wikipedie). Představení nových vlastností v příspěvku na blogu a na YouTube.

Ladislav Hagara | Komentářů: 2
22.6. 20:44 | Nová verze

Po více než 3 měsících vývoje od vydání verze 238 oznámil Lennart Poettering vydání verze 239 správce systému a služeb systemd (GitHub, NEWS).

Ladislav Hagara | Komentářů: 62
22.6. 15:00 | Nová verze

Bylo oznámeno vydání nové stabilní verze 1.28 a beta verze 1.29 open source textového editoru Atom (Wikipedie). Přehled novinek i s náhledy v příspěvku na blogu. Podrobnosti v poznámkách k vydání. Atom 1.28 je postaven na Electronu 2.0.

Ladislav Hagara | Komentářů: 3
22.6. 14:00 | Nová verze

Byla vydána nová verze 2.3.0 multiplatformního svobodného frameworku pro zpracování obrazu G'MIC (GREYC's Magic for Image Computing, Wikipedie). Přehled novinek i s náhledy na PIXLS.US.

Ladislav Hagara | Komentářů: 0
Jak čtete delší texty z webových stránek?
 (78%)
 (22%)
 (4%)
 (7%)
 (2%)
 (10%)
Celkem 259 hlasů
 Komentářů: 39, poslední 21.6. 17:44
    Rozcestník

    Dotaz: Teoretická: Distributed File System

    18.10.2010 15:43 Alf | skóre: 18
    Teoretická: Distributed File System
    Přečteno: 608×

    Zdravím,

    toto téma je hlavně teoretické, zajímá mě každý váš názor. Můžete psát i věci u kterých si nejste 100% jisti, že to tak jde :). Takže moc se mi líbí přístup ZFS, to vytváření filesystémů je prostě nádherné :), už teď jsem spokojen s LVM, ale ZFS je ještě lepší :). Líbí se mi taky, že umí "online" zapojit další disk.  Což mě přivádí k myšlence, jak to rozdělit na více strojů?

    Představa je následující. Mám 4 storage servery (každý 25TB) a 5 klientů. Výsledek: 4 storage servery budou zapojeny jako jeden, tím mi vznikne 100TB pole. Každý klient bude mít toto pole k dispozici pro čtení/ukládání uživatelských dat. Jako filesystem by mel být použit ZFS.

    Máte nějaké návrhy? Jak byste to řešili?

    Odpovědi

    18.10.2010 16:36 cronin | skóre: 49
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
    18.10.2010 19:45 Alf | skóre: 18
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System

    No maximálně podle nadpisu, ale o tomhle toho téma není.

    19.10.2010 08:36 cronin | skóre: 49
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
    Problem je v zadani, ktore zaroven hovori "Co" (distribuovany suborovy system), aj pozaduje "Ako" (ZFS). Ale vcelku vycerpavajuca odpoved je uz uvedena nizsie.
    18.10.2010 20:17 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
    Myslím, že ZFS přímo nic takového neumí. Podstatné je, jak budou klienti k těm datům přistupovat. Tj. jestli je požadavek na NFS/CIFS a podobné standardní protokoly, které ze strany klienta rozkládání na víc strojů neumí. Dělat nad ZFS nějakou další vrstvu, která by ty 4 stroje spojovala, to je podle mě škoda - může to být něco jako glusterfs (nevím, jestli zrovna ten jde dát nad ZFS).

    Tohle se obvykle řeší 1 serverem a externími diskovými poli (bedna s rámečky na disky, zdrojem, a příslušným rozhraním), která jsou připojena přes SAS, iSCSI, popř. Fibre Channel. Takhle lze připojit velké množství disků (v serveru je možné mít více SAS HBA s více porty, diskové krabice lze někdy kaskádovat), nad kterými lze udělat jednu ZFS instanci. Možnost je také ze 3 serverů svazky exportovat přes iSCSI a na 4. vše spojit do jednoho ZFS, a ten exportovat přes NFS/CIFS...
    21.10.2010 03:00 imro | skóre: 19 | blog: hovado
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
    Nuz, pokial by sme do toho zahrnuli aj komercne riesenia, tak napr. virtualizacia storage ponuka presne to, co popisujes. Napr. IBM ponuka SVC cluster, ktory ti dokaze spojit tebou popisovane 4 storage. Ten SVC cluster ti potom umoznuje do jednej partition mountnut klientov kolko len chces.
    ...............................................................................
    Ak potrebujes naozaj ZFS, tak sa mrkni na projekt OpenSolaris, ktory ti dokaze urobit z jedneho servra, ku ktoremu je pripojene storage pole, fibre channel target a k nemu pripajat dalsie zariadenia. Velmi uzitocna a hlavne neskutocne vykonna vecicka. To ale neriesi vsetky veci,ktore si popisal,ze potrebujes. Mrkni sem, je to velmi zaujimave poctenicko:
    http://www.anandtech.com/show/3963/zfs-building-testing-and-benchmarking
    Heron avatar 19.10.2010 08:49 Heron | skóre: 51 | blog: root_at_heron | Olomouc
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
    Představa je následující. Mám 4 storage servery (každý 25TB) a 5 klientů. Výsledek: 4 storage servery budou zapojeny jako jeden, tím mi vznikne 100TB pole. Každý klient bude mít toto pole k dispozici pro čtení/ukládání uživatelských dat. Jako filesystem by mel být použit ZFS
    Možná jsem otázku zcela nepochopil (s nadpisem nemá nic společného), ale co ti brání vzít ta 4 disková pole (export např přes FC, iSCSI apod), zkrátka mít ve výsledku 4 bloková zařízení po 25TB, a nad těmito udělat jeden 100TB ZFS pool?
    20.10.2010 13:31 Alf | skóre: 18
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System

    Do téhle problematiky tolik nevidím, zatím ji oťukávám. Jdu provést nějaké testy :). Jen pro ujištění. Aby to tedy šlo neustále rozšiřovat, musí být každý iSCSI nastaven na každém klientovi. K jednomu souboru pak může přistupovat několik serverů. Ohlídá si to nějak nebo může nastat problém? Řešení jednoho serveru, kde budou všechny iSCSI připojeny a dále exportovat např. přes NFS by mohlo být za čas nedostačující.

    PS: Ještě jednou upozorňuji, jedná se čistě jen o teorii. V žádném případě výsledek této diskuse nebudu závádět někde v produkčním prostředí. Jen chci více proniknout do této problematiky a zkušenosti zde získané použít v budoucnu. Vše to testuji ve virtuálním prostředí, takže se nebráním žádným experimentům.

    Heron avatar 20.10.2010 13:47 Heron | skóre: 51 | blog: root_at_heron | Olomouc
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
    Aby to tedy šlo neustále rozšiřovat, musí být každý iSCSI nastaven na každém klientovi.

    Nikoliv. To co jsem popisoval já je stav, kdy nad diskovými poli vytvoříš jedno jediné a to potom předáváš klientů (pomocí NFS, případně SAMBy). Pochopitelně tam můžeš přidat další pole a to zastřešující jednoduše rozšířit (ZFS, LVM, to už je jedno).

    Ohlídá si to nějak nebo může nastat problém?

    Za předpokladu, že na daném blokovém zařízení (iSCSI se na straně Iniciátoru - klienta - tváří jako úplně obyčejný disk), je nějaký systém souborů, který umí být sdílen. Znám jenom jeden, VMFS.

    U normálních FS nastane problém po prvním zápisu.

    20.10.2010 13:58 Alf | skóre: 18
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System

    To jsem si myslel. No dobře, každopádně jak to myslíš s tím rozšiřováním? Je to tak jak si to myslím? Tedy budu mít jeden hlavní server a další např. 4 připojený přes iSCSI do toho jednoho. Ten to vyexportuje třeba přes NFS ostatním. V případě potřeby připojím k tomu serveru přes iSCSI další. A až nebude ten hlavní stíhat, tak sestavím nové pole.

    Heron avatar 20.10.2010 14:09 Heron | skóre: 51 | blog: root_at_heron | Olomouc
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
    Tedy budu mít jeden hlavní server a další např. 4 připojený přes iSCSI do toho jednoho.

    V podstatě takhle jsem to myslel s tím, že těch serverů nemusí být nutně 5. Export toho jednoho pole může klidně dělat jedno z těch diskových polí -- to pokud to chceme mít levné.

    Případně ty jednotící servery mohou být dva v clusteru a ty storage budou zrcadlené -- v případě, že nám jde trochu o data. Tedy celkem 10 strojů.

    Ten to vyexportuje třeba přes NFS ostatním.

    Přesně tak, na tom jednotícím ty iSCSI mohou být spojeny klidně do RAID0 (pokud nám fakt nejde o data a chceme to mít pekelně rychlé), případně jen jako další disk ve VG či ZFS poolu. A nad touto vrstvou pak export přes síťové sdílené FS.

    No dobře, každopádně jak to myslíš s tím rozšiřováním?

    Přidám další pole, přes FC/iSCSI dotáhnu do toho jednotícího serveru a tam ho prostě přidám do R0, ZFS poolu, VG

    S tím si lze hrát poměrně hodně, záleží na co to člověk potřebuje. Bohužel to se často zjistí až po roce provozu a celý storage je potřeba od základů překopat.

    21.10.2010 03:10 imro | skóre: 19 | blog: hovado
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
    Umoznit viacerym klientom zapisovat do jednej nazvyme to partition by malo zvladnut kazde lepsie pole. A inak, vami spominany VMFS ma obmedzenie na velkost partition-myslim ze su to 2TB, ale teraz presne neviem z hlavy povedat tu hodnotu
    .................................................................................
    Mna by len zaujimalo, na co potrebujete 100TB uceleneho priestoru. Akykolvek filesystem ktory na tom vytvoris bude mat problem sam so sebou. Akurat 3-4 vydania jadernych noviniek sa tejto problematike dost obsirne venovalo.
    Heron avatar 21.10.2010 08:43 Heron | skóre: 51 | blog: root_at_heron | Olomouc
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
    Umoznit viacerym klientom zapisovat do jednej nazvyme to partition by malo zvladnut kazde lepsie pole.

    Pole jistě, ale systém souborů už ne. Nebo je vícenásobné připojení FS pro zápis v unixovém světě standardem?

    Mna by len zaujimalo, na co potrebujete 100TB uceleneho priestoru.

    Tazatel to bere jako teoretické cvičení. V mailing listech XFS se ale nezřídka objevují požadavky na 100TB. Nepřijde mi to tak přehnané.

    19.10.2010 09:49 FooBar
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
    Chtel bych te upozornit na jednu takovou veselou poucku -- pokud budes mit opravdu jen rozdistribuovanou storage na 4 servery, tvoje dostupnost bude P^4, kde P = pravdepodobnost ze je storage server up. Tzn. v pripade 4 storage serveru a P = 0.99 mas vyslednou dostupnost 0.96 -- teoreticky tudiz z kazdeho dne jsi hodinu dole, nebo v kazdem roce ctrnact a pul dne dole.

    Bottom line -- potrebujes si zajistit i redundanci mezi serverama, jinak se z toho poseres.
    20.10.2010 13:37 Alf | skóre: 18
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System

    Díky za příspěvek ;). Samozřejmě v produkčním prostředí je to nutné řešit jinak. Každopádně tady mi jde o postup. Ostatní záležitosti jako redudanci teď můžeme nechat stranou.

    21.10.2010 09:47 FooBar
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
    Ah, spatne jsem pochopil smysl nadpisu, myslel jsem ze te zajima spis teorie za distribuovanyma datovyma ulozistema, nez "ciste teoreticky, zvolit produkt X nebo Y" ;)
    frEon avatar 19.10.2010 17:34 frEon | skóre: 40 | Praha
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
    ja bych si jeste par let pockal a pak nasadil ceph
    Talking about music is like dancing to architecture.
    20.10.2010 13:41 Alf | skóre: 18
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System

    V tom nebude problém ;). Díky za tip.

    frEon avatar 20.10.2010 17:30 frEon | skóre: 40 | Praha
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
    np
    Talking about music is like dancing to architecture.
    19.10.2010 17:53 omg
    Rozbalit Rozbalit vše Re: Teoretická: Distributed File System
    pro upresneni. ted jsi spokojen s lvm nebo s clvm?

    Založit nové vláknoNahoru

    Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.