abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
    včera 18:00 | IT novinky

    DuckDuckGo AI Chat umožňuje "pokecat si" s GPT-3.5 Turbo od OpenAI nebo Claude 1.2 Instant od Anthropic. Bez vytváření účtu. Všechny chaty jsou soukromé. DuckDuckGo je neukládá ani nepoužívá k trénování modelů umělé inteligence.

    Ladislav Hagara | Komentářů: 1
    včera 14:22 | IT novinky

    VASA-1, výzkumný projekt Microsoftu. Na vstupu stačí jediná fotka a zvukový záznam. Na výstupu je dokonalá mluvící nebo zpívající hlava. Prý si technologii nechá jenom pro sebe. Žádné demo, API nebo placená služba. Zatím.

    Ladislav Hagara | Komentářů: 2
    včera 04:44 | Nová verze

    Nová čísla časopisů od nakladatelství Raspberry Pi: MagPi 140 (pdf) a HackSpace 77 (pdf).

    Ladislav Hagara | Komentářů: 0
    včera 01:00 | Nová verze

    ESPHome, tj. open source systém umožňující nastavovat zařízení s čipy ESP (i dalšími) pomocí konfiguračních souborů a připojit je do domácí automatizace, například do Home Assistantu, byl vydán ve verzi 2024.4.0.

    Ladislav Hagara | Komentářů: 0
    18.4. 22:11 | IT novinky Ladislav Hagara | Komentářů: 0
    18.4. 20:55 | Nová verze

    Neziskové průmyslové konsorcium Khronos Group vydalo verzi 1.1 specifikace OpenXR (Wikipedie), tj. standardu specifikujícího přístup k platformám a zařízením pro XR, tj. platformám a zařízením pro AR (rozšířenou realitu) a VR (virtuální realitu). Do základu se z rozšíření dostalo XR_EXT_local_floor. Společnost Collabora implementuje novou verzi specifikace do platformy Monado, tj. open source implementace OpenXR.

    Ladislav Hagara | Komentářů: 2
    18.4. 17:22 | Nová verze

    Byla vydána nová verze 0.38.0 multimediálního přehrávače mpv (Wikipedie) vycházejícího z přehrávačů MPlayer a mplayer2. Přehled novinek, změn a oprav na GitHubu. Požadován je FFmpeg 4.4 nebo novější a také libplacebo 6.338.2 nebo novější.

    Ladislav Hagara | Komentářů: 13
    18.4. 17:11 | Nová verze

    ClamAV (Wikipedie), tj. multiplatformní antivirový engine s otevřeným zdrojovým kódem pro detekci trojských koní, virů, malwaru a dalších škodlivých hrozeb, byl vydán ve verzích 1.3.1, 1.2.3 a 1.0.6. Ve verzi 1.3.1 je mimo jiné řešena bezpečnostní chyba CVE-2024-20380.

    Ladislav Hagara | Komentářů: 2
    18.4. 12:11 | IT novinky

    Digitální a informační agentura (DIA) oznámila (PDF, X a Facebook), že mobilní aplikace Portál občana je ode dneška oficiálně venku.

    Ladislav Hagara | Komentářů: 10
    18.4. 05:11 | Komunita

    #HACKUJBRNO 2024, byly zveřejněny výsledky a výstupy hackathonu města Brna nad otevřenými městskými daty, který se konal 13. a 14. dubna 2024.

    Ladislav Hagara | Komentářů: 2
    KDE Plasma 6
     (68%)
     (11%)
     (2%)
     (20%)
    Celkem 566 hlasů
     Komentářů: 4, poslední 6.4. 15:51
    Rozcestník

    Rizika cloud computingu

    8.3.2009 13:34 | Přečteno: 1686×

    V souvislosti se svojí diplomkou se aktivně zajímám o tzv. cloud computing.

    Dnes jsem narazil na hezký souhrnný článek na Živě.cz, který popisuje aktivity jednotlivých velkých hráčů na poli cloud computingu. Tento článek odpovídá trendu, který pozoruji dlouhodobě - mnoho lidí předpovídá Internetu centralizaci. Argumentují především nižším TCO a flexibilitou, kterou firma pronájmem výpočetního výkonu nebo diskového prostoru získá.

    Tento trend podtrhuje velký úspěch Googlu s jeho Gmailem a dalšími Google Apps (kalendář, office). Přiznávám, že tyto služby (především email) osobně využívám, ale byl bych velmi opatrný ve chvíli, kdy bych těmto službám měl svěřovat důležitá data. Rád bych připomněl například únorový výpadek datových center Google. Jistě, jednalo se o pár hodin v jinak nepřetržitém provozu, který navíc nezpůsobil ztrátu dat. Mnoho lidí si ale možná uvědomilo, jak bezmocní v tu chvíli jsou.

    Takové štěstí už nemělo například 20.000 firemních klientů cloudového diskového úložiště Nirvanix, kdy došlo 8.srpna 2008 k trvalé ztrátě 50% uložených dat (na konci článku je přehled dalších zdrojů a materiálů). Hlášené výpadky měl také Amazon se svou službou S3, ačkoliv zde zatím nedošlo ke ztrátě dat. Podobné excesy velkých hráčů na trhu, které svými technickými problémy ovlivňují business mnoha dalších společností by měly lidstvo varovat a donutit k zamyšlení, jestli je tohle ta správná cesta. Opět musím zdůraznit, že v případě takto globálních služeb prakticky neexistují garance dostupnosti. V rámci know-how jednotlivých společností dokonce nejsou ani známy technologie ani design aplikací, na kterých jsou jejich datová centra stavěna a uložená data organizována. To platilo jak pro Nirvanix, tak v současnosti stále platí pro Amazon S3. Zákazník tedy doslova kupuje zajíce v pytli.

    Osobně nejsem přesvědčený, že je cloud computing v takto nabízené formě dobré a strategické řešení. Pokud se člověk začte to historie ARPANETu (předchůdce Internetu), zjistí (resp. potvrdí si), že motivací tvůrců bylo naopak vytvořit síť, která nebude obsahovat single point of failure. Bohužel, prvním porušením těchto myšlenek je prakticky hvězdicovité uspořádání současné infrastruktury (nechci domýšlet dopady zničení Sitelu na český Internet). Nedělejme druhou chybu ve vytváření centrálních výpočetních center spravovaných jednou globální entitou!

    Moje řešení? Ano, něco bych měl. Ale zřejmě se to příliš neslučuje se strategií velkých hráčů zmiňovaných v první článku Živě.cz. Zaprvé se jedná o otevřený design a zdrojové kódy umožňující bezpečnostní audit a peer review. Díky tomu by bylo možné spolehnout se na design služby, s předstihem odhalovat bezpečnostní problémy a rizika a celkově důvěřovat danému konceptu. Druhým bodem pak je provoz této implementace nezávislými právními subjekty. Co si pod tím lze představit? Cloud network jako takový nemusí být provozovaný jednou firmou. Je možné navrhnout design tak, že více poskytovatelů bude díky vzájemným rozhraním v rámci jednoho cloudu komunikovat a vytvářet tak virtuálně pro klienta jednu síť. Díky implementaci paritních algoritmů by pak bylo možné obnovit data v případě výpadku u jednoho z poskytovatelů. Příliš idealistické? Možná. Ale možná je to také jediná cesta k bezpečné budoucnosti cloud computingu. V současnosti se tyto technologie teprve vytvářejí a je především na klientech, jak daleko nechají nebezpečnou centralizaci zajít.

           

    Hodnocení: 79 %

            špatnédobré        

    Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

    Komentáře

    Vložit další komentář

    8.3.2009 14:53 dad
    Rozbalit Rozbalit vše Re: Rizika cloud computingu

    nazminujete se o nejvetsim problemu a tou je casova promenlivost dopadu povahy dat. Dnes neskodna data, napr. ze je nekdo homosexual mohou mit za 20 let dalekosahle nasledky, az bude potreba najit skupinu tech 'kteri za to mohou'. A centralni data dnes muze bez povoleni soudce prohlizet kdejaka sluzba. Ponechat jakakoliv data nekomu tretimu je velmi nebezpecne. Jedina ochrana je, ze data jsou roztristena tak detailne, ze je technicky nemozne najit souvislosti.

    8.3.2009 14:58 slush | skóre: 9 | blog: slushuv_koutek
    Rozbalit Rozbalit vše Re: Rizika cloud computingu

    Tohle bych mozna upresnil. Jsou v podstate dve hlavni vyuziti cloudovych ulozist - jako rozlozeni zateze narocnych webovych stranek a jako interni datove uloziste (zalohy, archivy). V tom prvnim pripade jde o verejna data (resp. data, ktera by byla stejne uverejnena na webovem serveru klienta). V druhem pripade ani nepripoustim fakt, ze by nekdo pustil ven interni data spolecnosti bez hodne silne sifry.

    To mi pripomina nedavny exces s klici v Debianu. Jestli jsem tehdy pochopil problem, tak v pripade pouziti toho spatneho klice z Debianu by bylo mozne dostat se nepovolene k sifrovanym datum ulozenym na techto "verejnych" ulozistich...

    8.3.2009 16:44 YYY | skóre: 29 | blog: martinek
    Rozbalit Rozbalit vše Re: Rizika cloud computingu
    Vyjmecne s Vami souhlasim. :-)
    8.3.2009 16:28 Dušan Hokův | skóre: 43 | blog: Fedora a další...
    Rozbalit Rozbalit vše Re: Rizika cloud computingu
    nechci domýšlet dopady zničení Sitelu na český Internet

    Sitel neni jedinej POP NIXu. Druha vec jek, kolik "taky poskytovatelu" ma svoji technologii rozlozenou prave kvuli redundanci na vice mistech.
    8.3.2009 16:38 slush | skóre: 9 | blog: slushuv_koutek
    Rozbalit Rozbalit vše Re: Rizika cloud computingu

    Jasne, byl to spis recnicky obrat. Stejne si nejsem jisty, jak moc by to cesky Internet ustal, vzhledem k tomu, ze ma Sitel (NIX4?) nejrychlejsi konektivitu. Znate to, cim pretizenejsi nejaka linka je, tim rychleji uzivatele klikaji na F5 :-D.

    8.3.2009 17:27 h.xman | skóre: 10
    Rozbalit Rozbalit vše Re: Rizika cloud computingu
    Zajímavý post. Jsem zvědavý na tu diplomku, doufám pak postneš link až to bude hotové.

    Ad tvoje úvahy, na základě kterých dochazíš k "tvému řešení": S tím kupováním zajíce v pytli z hlediska zákazníků to není tak žhavé - oni sice nevidí "dovnitř", ale pro mnohé z nich je to spíš východa, že se nemusí starat o technické detaily a prostě jen dostanou "výsledný produkt" - a co se týče kvality produktu, tak vzhledem k tomu, že failures různých cloudů se mohutně publikují, je možné udělat si obrázek o míře rizika poměrně dobře. Když to spadlo Amazonu, tak z toho bylo velké haló, protože se to dotklo mnoha firem, ale firmy vědí, že když si to budou zajišťovat samy, tak riziko výpadku je tam taky, tomu se nedá vyhnout - a možná že u profíků typu Google nebo Amazon, keří se na tohle specializují, je to riziko přece jen menší než když si to budeme dělat sami. A že je to single point of failure je z hlediska firem spíš výhoda - když to nejede nám, ať to nejede ani konkurenci.

    Uzavřenost může být pro firmy problém z hlediska hrozby vendor lock-in, ale dá se očekávat, že se časem utvoří nějaký standard, aby bylo možné přecházet mezi cloudy, je to v zájmu jejich providerů aby omezili strach firem z vendor lock-in. IBM s Amazonem uz na tom údajně pracují, četl jsem že "[a]lthough industry cloud-computing standards do not exist for APIs or data import and export, IBM and Amazon Web Services have worked together to make interoperability happen" (link). Tohle by mohlo pro firmy problém s uzavřeností řešit lépe než provoz nezávislými právními subjekty, což by mohlo přinést více problémů než užitku (kdo přebere zodpovědnost v případě problému atp.) - i když na druhou stranu je to zajímavá myšlenka a z určitého pohledu má jistě opodstatnění.

    Navíc se mi zdá, že se v tom postu soustředíš na storage - ale cloud computing není jen o tom, takové věci jako možnost kupovat si výpočetní výkon (Amazon a jeho EC2) ve špičkách se pro optimalizaci nákládů přímo nabízejí - budeš se v té diplomce zabývat i tím?
    Pro poutníky mezi vámi: Camino de Santiago
    8.3.2009 18:33 slush | skóre: 9 | blog: slushuv_koutek
    Rozbalit Rozbalit vše Re: Rizika cloud computingu

    > Jsem zvědavý na tu diplomku,

    Netýká se přímo cloud computingu :-). Píšu o Toru a dalších anonymizačních sítích.

    > oni sice nevidí "dovnitř", ale pro mnohé z nich je to spíš východa

    Samozřejmě něco jiného je _možnost_ a _potřeba_. Souhlasím, že je dobré, že firmy nepotřebují znát technické detaily, prostě dostanou API. Na druhou stranu fakt, že nevím, jak ta technologie funguje ve mě moc důvěry nevzbuzuje. Viz případ té firmy, co ztratila 50% dat. Myslím, že v případě solidního designu té sítě se tohle prostě _nemůže_ stát.

    > failures různých cloudů se mohutně publikují

    Publikují se následky, ale ne příčiny. To, že Amazon tehdy a tehdy nejel vím, ale byla odstraněna příčina, aby se to příště nestalo? Myslím, že ten zajíc v pytli na tohle sedí docela trefně. Ostatně myslím, že na tomhle serveru nejsem sám, kdo má rád otevřenost :-).

    > možná že u profíků typu Google nebo Amazon, keří se na tohle specializují, je to riziko přece jen menší než když si to budeme dělat sami

    Tak samozřejmě je pravděpodobné, že diskové pole Google bude spolehlivější než Frantovo Diskové Pole (tm). Jde o to, co se v globálním měřítku stane, když vypadne FDP (tm) a když Google. Z tohodle pohledu má Google mnohem větší zodpovědnost než Franta.

    > problém z hlediska hrozby vendor lock-in

    Správně jste postřehl, že se zajímám úzce o data storage cloudy. V téhle oblasti si zase nemyslím, že ten vendor lockin je nějak výrazně možný. Je celkem jedno, jestli se ta data nahrávají přes FTP, NFS, WebServices nebo FrantuvProtokol(tm, samozrejme), protože je velmi jednoduché realizovat abstrahující mezivrstvu.

    > Tohle by mohlo pro firmy problém s uzavřeností řešit lépe než provoz nezávislými právními subjekty

    Ne, tohle vůbec neřeší to, co jsem měl na mysli. Pokud bude interoperabilni standard mezi IBM a Amazonem, Vy budete mít data u Amazonu a Amazon "lehne popelem" (prostě se admini ožerou a změní hesla), IBM Vám nepomůže. Já měl na mysli vytvoření absolutně decentralizované sítě, kde když se jeden subjekt rozhodne, že ho to už "neba" a vypne servery, síť se sama zreplikuje. Stejně jako RAID...

    > kdo přebere zodpovědnost v případě problému atp

    Nikdo :-). Ostatně stejně jako když se najde bezpečnostní díra v opensource serverovém OS, který ve firmě na všech strojích používáte. Vtip je v tom, že to riziko by bylo rozložené a podle designu by nemusel existovat single point of failure. Něco jiného je chyba v implementaci software, ale od toho zase máme testing, peer reviews a bezpečnostní audity, že ano.

    > na druhou stranu je to zajímavá myšlenka a z určitého pohledu má jistě opodstatnění.

    Dovedu si představit nějaky opensource projekt... Co jsem hledal na webu, tak jsem nenašel nic přesně takového. Samozřejmě existují implementace cloud filesystémů, ale fígl je v tom, že jsou zaměřené primárně na výkon a vzájemně si důvěřují. Ta myšlenka, kterou tady píšu je o filesystemu, kde se jednotlivé nody _podezírají_. Ani se nesnažím popírat, že ta myšlenka souvísí právě s Torem. Vyžadovalo by to samozřejmě datový i přenosový overhead, ale mohlo by to být opravdu robustní - tedy vhodné pro backupy a archivaci.

    Ale kdyby někdo věděl o implementaci něčeho podobného, co tady píšu, tak určitě sem s tím.

    > budeš se v té diplomce zabývat i tím?

    Ne :-), diplomka mě jen navnadila na systematické přemýšlení o těhle věcech.

    8.3.2009 23:57 petr_p | skóre: 59 | blog: pb
    Rozbalit Rozbalit vše Re: Rizika cloud computingu

    Nevím, jestli jste na to nenarazil, ale existuje projekt Internet Backplane Protocol, což je sada na sobě nezávislých datových úložišť, kterým uživatel apriori nevěří.

    Uživatel si vybere cluster, naalokuje prostor (a trvanlivost dat) a odešle zašifrovaná data. Uživateli je vrácena trojice hashů, které slouží jako tokeny pro budoucí tři nezávislé operace – pro čtení dat, pro přepis dat a pro změnu trvanlivosti dat. Takže uživatel A může nahrát data, uživateli B předá hash pro čtení a šifrovací klíč, a uživatel B si pak může data přečíst. Vhledem k tomu, že data se šifrují na straně klientů, tak provozovatel serveru nemá šanci zjistit, co v nich je.

    Dále protokol (a některá úložiště) umožňuje asynchronní přesun dat, kdy původnímu úložišti řeknete, že chcete data překopírovat na další vámi určené úložiště a „systém“ se už o to postará.

    Celé to bylo vymyšleno pro pro armádní účely a vývoj si zaplatila DARPA. Takže výsledek je pod licencí BSD. Kdybyste chtěl, mám balíčky pro Gentoo (ale testoval jsem jen klientskou stranu).

    9.3.2009 00:43 slush | skóre: 9 | blog: slushuv_koutek
    Rozbalit Rozbalit vše Re: Rizika cloud computingu

    Zajimave, zajimave! Priznam se, ze na tohle jsem pri svych soucasnych toulkach na Internetu nenarazil, ikdyz ted zpetne si uvedomuju, ze jsem o tom uz kdysi slysel. Samotna klientska strana (co jsem zatim precetl) je zhruba to, jak bych si to predstavoval. Jde o to, ze IBP zrejme neresi failover mezi jednotlivymi cloudy - tj. kdyz nahraju data na jeden depot a jeho node lehne, o data prijdu...? Budu to muset jeste kapanek vic nastudovat.

    Myslim, ze ty balicky najdu nekde na Internetu. Kdyby ne, urcite se Vam ozvu. Dekuju za nabidku!

    9.3.2009 11:52 petr_p | skóre: 59 | blog: pb
    Rozbalit Rozbalit vše Re: Rizika cloud computingu
    Je to tak. Failover mezi depoty není řešen (avšak lze snadno rozšířit popisný soubor exnode nebo vytvořit nad ním další vrstvu, která to pořeší). Failover mezi uzly jednoho depotu řešen je, nicméně klient si jej musí explicitně vyžádat a ne všechny depoty jej podporují.
    9.3.2009 18:48 Ondrej 'SanTiago' Zajicek
    Rozbalit Rozbalit vše Re: Rizika cloud computingu

    Mimo to take distribuovane sitove datove uloziste  (block-level ) vyviji Evgeniy Polyakov pod jmenem DST. Klient uz je v Linux-staging, takze by mohl byt brzy i ve vanilla jadre.

    8.3.2009 21:07 slush | skóre: 9 | blog: slushuv_koutek
    Rozbalit Rozbalit vše Re: Rizika cloud computingu

    > se v tom postu soustředíš na storage - ale cloud computing není jen o tom, takové věci jako možnost kupovat si výpočetní výkon

    Na tohle jsem zapomněl pořádně zareagovat. Hlavní důvod, proč rozebírám především storage je v tom, že u pronájmu výpočetního výkonu nevidím to riziko popisované výše. Výkon je jen tupý výkon. Když není, dá se dokoupit (silně zjednodušeně řečeno). Originální data firmy (archivy) nikoliv...

    9.3.2009 11:17 Messa | skóre: 39 | blog: Messa
    Rozbalit Rozbalit vše Re: Rizika cloud computingu
    Že měl S3 nebo Google výpadky - jako by typické firemní infrastruktury nikdy výpadky neměly, kéž by při nich docházelo jen k několikahodinové nedostupnosti :-)
    11.3.2009 09:23 Karel Zak
    Rozbalit Rozbalit vše Re: Rizika cloud computingu

    Presne. IMHO ten problem neni jen o "cloud computingu". Ta neschopnost/nemoznost decentralizace je smutna -- ja cekal, ze s rozvojem P2P siti uvidime masivnejsi prenos techto myslenek i do infrastruktur firem, ale nic... 

     

    Založit nové vláknoNahoru

    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.