Domén s koncovkou .CZ je už 1,5 miliónu. K registraci domény s pořadovým číslem 1 500 000 došlo včera krátce před půlnocí. Počet domén se dynamicky vyvíjí podle toho, jak jsou registrovány nebo naopak rušeny. Proto je v tuto chvíli jejich počet opět nižší.
Byla vydána beta verze Ubuntu 25.04 s kódovým názvem Plucky Puffin. Přehled novinek v poznámkách k vydání. Dle plánu by Ubuntu 25.04 mělo vyjít 17. dubna 2025.
Textový editor Neovim byl vydán ve verzi 0.11 (𝕏). Přehled novinek v příspěvku na blogu a poznámkách k vydání.
Živé ISO obrazy Debianu Bookworm jsou 100 % reprodukovatelné.
Boudhayan "bbhtt" Bhattcharya v článku Uzavření kapitoly o OpenH264 vysvětluje, proč bylo OpenH264 odstraněno z Freedesktop SDK.
Představeny byly nové verze AI modelů: DeepSeek V3-0324, Google Gemini 2.5 a OpenAI 4o Image Generation.
XZ Utils (Wikipedie) byly vydány ve verzi 5.8.0. Jedná se o první větší vydání od backdooru v XZ v loňském roce.
Byla vydána nová verze 0.40.0 multimediálního přehrávače mpv (Wikipedie) vycházejícího z přehrávačů MPlayer a mplayer2. Přehled novinek, změn a oprav na GitHubu. Požadován je FFmpeg 6.1 nebo novější a také libplacebo 6.338.2 nebo novější.
Byla vydána nová verze 2.20 svobodného video editoru Flowblade (GitHub, Wikipedie). Přehled novinek v poznámkách k vydání. Videoukázky funkcí Flowblade na Vimeu. Instalovat lze také z Flathubu.
LibrePCB, tj. svobodný multiplatformní softwarový nástroj pro návrh desek plošných spojů (PCB), byl vydán ve verzi 1.3.0. Přehled novinek v příspěvku na blogu a v aktualizované dokumentaci. Vypíchnut je interaktivní HTML BOM (Bill of Materials) a počáteční podpora Rustu. Zdrojové kódy LibrePCB jsou k dispozici na GitHubu pod licencí GPLv3.
Tentokrat vam popisu, k jake serverove konfiguraci jsme nakonec dospeli a proc, jake kupujeme disky a co si myslim o centralnich diskovych ulozistich.
Minuly rok, kdyz nam akorat dochazela volna kapacita vsech twinu i toweru
dohromady, dorazila na trh platforma Supermicro X9 pro nejnovejsi Intel
Sandy Bridge Xeony. Musel jsem mit aspon jeden, chtel jsem to zkusit .
Pri takove velikosti (vpsFree melo cca 300-350 VPS celkem) uz jsme si mohli takovou masinku dovolit. Specifikace jsou nasledujici:
Na takovou masinu jsme mohli hned konsolidovat 3 towery. Sranda je, ze ve finale je to pro jednotlivou VPS jeste vyhodnejsi, protoze cim vetsi rozdil je mezi velikosti jedne VPS a celkovou velikosti HW, kde bezi, tim vetsi sance je, ze se HW prostredky budou dat bezbolestne agregovat (dulezite klicove slovo pro rejpaly: bezbolestna agregace = nikomu nikdy nevadi a neprijde do cesty).
V tuhle chvili, kdy jsme takovy server koupili a nasadili do provozu, vysel
na Root.cz clanek o vpsFree, diky kteremu jsme rapidne narostli - tim myslim
+100 clenu behem jedineho mesice, ja osobne to povazuju pri beznem prumeru 10 za
mesic za obrovsky uspech . Takze bylo potreba koupit dalsi takovy.
Jelikoz se dvouprocesorova sestava osvedcila a diky tomu ^ narustu v poctu clenu se nam podstatne zvetsil rozpocet na hardware, jsme se rozhodli zahajit migraci vsech VPS na takovy hardware. A v tu chvili opet prislo Supermicro s genialni platformou - Fat Twin. Narozdil od klasickych twinu, ktere bezne proste nemaji tolik pozic na disky a trpi jejich upgradovatelnost, 4-nodova verze Fat Twinu obsahne uplne presne to same v jednom nodu, jake jsme zacali stavet ty dve predchozi masiny - 8 disku, 2CPU, 16 DIMM a i nejake to PCIe se tam v pripade potreby vejde.
Vsechny VPS v Praze uz mame dneska tedy na tomhle hardwaru, uz bych si to celkem nedovedl predstavit jinak. Ceka nas jeste Brno, to bychom meli resit pravdepodobne ke konci roku.
Kdyz se nasklada 80 VPS na jeden node, zacina byt trochu problem stihat obslouzit vsechny jejich IO pozadavky - i kdyz s 240 GB Flashcache je to mnohem, mnohem mensi problem, nez by byl bez ni, porad se obcas muze stat, ze ve spicce proste disky nebudou stihat.
(Poznamecka: ano, 80 VPS na jeden node - to je proste krasa kontejnerove virtualizace - nicmene o softwarove strance se rozepisu nekdy priste).
Warning: ted si zacpete oci vsichni vyznavaci "enterprise", jinak vam z nich
zacne krvacet
Kaslu na "enterprise" HDD! Nevyplati se. Tecka. Kupujeme Western Digital Caviar Black Edition uz od prvnich mesicu existence vpsFree.cz - jedinou vyjimkou byly 1U twin nody, tam byla Raid edition (RE2, RE3 a po vymene nektere RE4). Mezi RE a Black disky je naprosto minimalni rozdil. Deal with it. Za tu dobu, co tyvsechny masiny provozujeme, v prepoctu na typ podle kusu mame priblizne stejnou umrtnost mezi ruznymi modely disku RE a Blacky - dokonce mozna RE maji procentualne vetsi umrtnost.
V pripade RE disku si tak clovek priplaci za "dobry pocit", to je asi tak vsechno. Mam podezreni, ze RE a Black jsou ty same disky s trochu jinym firmware (RE maji TLER - ale who cares, Linux mdraid to stejne neumi vyuzit).
Stejne tak kaslu na hardwarovy RAID! Zkousel jsem ruzne radice (LSI, Areca), verte nebo ne, softwarovy RAID v pripade RAID10, RAID5 i RAID6 umi byt na soucasnych x86 CPU rychlejsi. A ze nam RAID sezere kousek jednoho jadra CPU, nas netrapi. HW RAID je prezitek, vhodny tak pro systemy, ktere SW RAID neumi, nebo ho umi jeste hur nez linux. Delal jsem mereni a porovnavani na Illumosu se ZFS (raid-z, raid-z2, raid-z3), na RHELu s mdraidem (5, 6, 10) a ve vetsine pripadu SW RAID je rychlejsi, nebo stejne rychly, jako HW.
Kvuli zmatkovani s hardwarem a hlavne softwarovou konfiguraci (zkuste
efektivne spravovat 24TB storage pod linuxem...) se nam nedochovaly vysledky
benchmarku, coz me dost stve a dava to memu tvrzeni mensi vahu, ale co se
da delat, zkuste si to sami (idealne pod realnou zatezi, ne syntetickymi
benchmarky), pokud neverite.
A tak v poslednich dnech premyslim, jestli by nestalo za ty penize, zkusit koupit masinku s 12ti 2.5" pozicemi a dat do nich 2.5" Scorpio Black (a 2 SSDcka). Stejne budeme muset dokoupit nejaky ten hardware brzo, tak to vyzkousime. Slibuju si od toho vetsi IOPS, protoze vic mensich disku rychlejc odbavuje IO queue.
Zalezi na use-case, nekde davaji smysl, nekde ne. Podle meho, davat VPS na diskove pole muze byt fajn, ale spatne se skaluje. Kdyz mate 4 virtualizacni nody, kdyz jich je 8, nebo i 20, daji se obslouzit jednim rozumnym polem. Vezmete si ale nekolik racku masin a zkuste centralizovat uloziste... Dobre, tohle se nedela, pro dalsi racky se koupi separatni uloziste. Ale v cem je pak ta vyhoda centralizovane spravy uloziste?
Krome toho, centralizovanim uloziste stavite do systemu vyrazny SPOF. Jasne, da se pouzit vic frontendu k jednomu diskovemu poli, coz vyzaduje SAS disky, ale cena to takoveho reseni podle meho nazoru vyrazne prevysuje vyhody centralizovaneho uloziste. Nehlede na fakt, ze je malo open-source vyvojaru, kteri vyviji primo nad SANem, takze je nutne pouzivat jenom takovy software, ktery prochazi poradnym QA zahrnujicim i takove use-cases.
Delat SAN po Ethernetu je docela smrt, iSCSI je podle mne sprosta nadavka, kterou vymyslel nekdo, kdo se chtel pomstit koncovym uzivatelum dat nad tim protokolem. Takze zbyva FibreChannel, InfiniBand a jine low-latency high-bandwidth SAN reseni.
V tom momente, kdy mame SAN, je pri kontejnerove virtualizaci potreba pouzit clusterovy filesystem, kdyz maji data jedne VPS byt dostupne na vice nodech zaroven (pro snadne balancovani, servisovani jednotlivych virtualizacnich nodu a podobne). NFS jde pouzit akorat do verze 3, protoze jsou potreba syrova nemapovana UID/GID vlastniku souboru, coz s NFSv4 udelat nejde. S NFSv3 prijde omezeni maximalne 16ti sekundarnich skupin, v kterych muze jeden uzivatel byt, aby UGO opravneni fungovala korektne, navic v3 nezna ACL, coz povazuju za vyrazne omezeni.
Ve vpsFree centralni uloziste nachazi vyuziti tedy hlavne na zalohovani, ktere zas v kontrastu podle mne nedava smysl ukladat lokalne. Dalsim vyuzitim bude v blizke budoucnosti NAS pro mene vyuzivana data hlavne pro lidi, kteri si chteji do vpsFree posilat domaci zalohy a pro podobne skladovaci use-cases.
Dalsi strankou centralnich ulozist je fakt, ze nemam rad proprietarni reseni. Prijde mi omezujici, abych si na poli, ktere stejne vetsinou skryva nejakou x86 platformu pod kapotou, nemohl bezet nejaky nas backend, pripadne napriklad slave MySQL instance pro replikaci a nasledne snazsi zalohovani bez ovlivneni chodu masteru.
Jenze postavit pole na Linuxu tak, aby bylo stejne flexibilni, jako single purpose storage boxy napriklad od NetAppu, je temer nadlidsky ukol. Tohle jsem v poslednich mesicich vyresil nasazovanim OpenIndiany na zalohovaci storage, kdo nepouzival ZFS v takove skale (aktualne 24TB syroveho mista, neco okolo 600 datasetu, nad kazdym 14 snapshotu), poradne nepochopi, o cem mluvim. BTRFS je proti nemu fajn hracka, ale takovemu nasazeni je jeste na mile daleko.
Nevyhodou OpenIndiany jsou bugy v jejich verzi Illumosu a hlavne absence stabilniho release - tohle clovek musi holt vyresit vlastnim buildem a investici nejakeho casu do takoveho reseni. Na druhou stranu, v Solaris ekosystemu se takova prace snadno recykluje a je pak nasaditelna snadno na vice systemech.
Vim, ze i FreeBSD ma podporu ZFS, ale tam chybi poradna integrace s NFS,
navic FreeBSD 9.1-RELEASE se ukazalo zabugovanejsi, nez Illumos
Pro prostredi, kde jsou na to penize, myslim neni 1000 USD na socket rocne za licenci Solarisu 11 takova prekazka. Jak jsem ale rekl, proprietarnimu reseni nefandim, takze Solaris nechavam jenom jako nejposlednejsi zachrannou cestu, kdyby se Illumos ukazal dlouhodobe jako nepouzitelny - za tech par mesicu, co nam Illumos bezi, to zatm nevypada jako realna "hrozba".
O ZFS, OpenIndiane a buildeni Illumosu se zrejme rozepisu v blizke
budoucnosti, protoze to podle mne stoji za podeleni se .
V pristim poslednim dilu tehle serie o hardwaru zbyva rozebrat, jak resime
sitovou infrastrukturu
Tiskni
Sdílej:
Navic v datacentru je 24/7 support, takze vypadek to bude na par desitek minut, coz se muze stat vsude a i pri jinych situacich, nez jenom hw chybach.Neexistuje neco, co by umoznilo provozovat clusterove reseni jednoduse bez nutnosti centralniho uloziste? Napr. mit sparovane nody a v kazdem paru provozovat DRBD (nebo neco podobneho) tak, ze pulka VPS bezi primarne na jednom a druha pulka na druhem nodu, ale je mozne okamzite premigrovat/prevzit na druhy nod. je pri vypadku jednoho nodu. (Nejspis by pak slo i omezit redundanci v ramci jenoho nodu.)
Neviem či by to malo zmysel, pretože vpsfree.cz nemá žiadne dohodnuté SLA. Prípadne ma opravte.
vzctl set [veid] --diskspace 100GBa hned tim zmenit kvotu pro VPS je proste luxus, navic to jde nahoru i dolu za behu VPS.
FreeBSD je pravda, ZFS ne, maji vlastni FS.Nechť NetApp není Data ONTAP C-mode, pak neplatí ani jedno. Nebo... je v tom případě je i Windows založené na FreeBSD protože mají jejich TCP/IP stack.
To nejsou obycejne prebrandovane. NetApp do nich sype i vlastni firmware.Vlastní firmware na NetApp discích je hlavně kvůli znemožnění použití běžných Seagate disků v úložišti, za účelem zachování marže z prodeje SupportEdge podpory pro diskové shelfy.
Zalezi na use-case, nekde davaji smysl, nekde ne. Podle meho, davat VPS na diskove pole muze byt fajn, ale spatne se skaluje. Kdyz mate 4 virtualizacni nody, kdyz jich je 8, nebo i 20, daji se obslouzit jednim rozumnym polem. Vezmete si ale nekolik racku masin a zkuste centralizovat uloziste... Dobre, tohle se nedela, pro dalsi racky se koupi separatni uloziste. Ale v cem je pak ta vyhoda centralizovane spravy uloziste?FAS 6240 - 250 039,67 IOPS na 189TB použitelné kapacity. To je poměrně hodně racků s hosty pro virtuální mašiny.
Jasne, da se pouzit vic frontendu k jednomu diskovemu poli, coz vyzaduje SAS disky, ale cena to takoveho reseni podle meho nazoru vyrazne prevysuje vyhody centralizovaneho uloziste.Doplň si základní vzdělání.
Nehlede na fakt, ze je malo open-source vyvojaru, kteri vyviji primo nad SANem, takze je nutne pouzivat jenom takovy software, ktery prochazi poradnym QA zahrnujicim i takove use-cases.Centralizované uložiště nemusí být SAN, nehledě na to, že Linuxové FC SAN drivery jsou velice pěkně odladěné a pro aplikaci se to chová jako lokální disk (nechť Oracle ASM a podobné nejsou aplikací).
Delat SAN po Ethernetu je docela smrt, iSCSI je podle mne sprosta nadavka, kterou vymyslel nekdo, kdo se chtel pomstit koncovym uzivatelum dat nad tim protokolem. Takze zbyva FibreChannel, InfiniBand a jine low-latency high-bandwidth SAN reseni.iSCSI je na tom moc hezky po 10Gb/s Ethernetu a se switchi od Dellu je to i celkem levná záležitost, když už chceš hovořit o desítkách racků.
Buď to zdůvodní, a pak o tom bude vědět třeba 50 přítomných - v té chvíli i když to někdo vynese ven tak nezjistíš kdo.Proč bych já zjišťoval kdo to vynesl, když to můžou za mě dělat orgány činné v trestním řízení?
Me osobne je to taky proti srsti, ale skoro zadna vetsi firma ti ceny za hardware nebo sluzby nezvereni na internetu a skoro stejne mnozstvi ti ji nepovi ani po telefonu.U individuálních služeb je to normální – taky jako dodavatel neříkám předem cenu, protože to nejde odhadnout, nebo se lidi minou v očekáváních a neví, za co ta cena je, tak jim to přijde moc drahé nebo naopak OK, ale pak toho budou chtít víc, než jsem chtěl dodat… tam se cena dohodne až po důkladných konzultacích. Jenže tohle není případ komoditního zboží a typických služeb, které se sekají jak Baťa cvičky.
ostatni vyrobci to proste po par vyjednavacich telefonatech zabalily s tim, ze by nas dotovali z vlastniho kdyby chteli srazit cenu nas stejnou uroven. Opravdu jak na bazaru...Někdy si říkám, že je to takhle zařízené kvůli lidem, kteří neumí nic jiného než mlít pantem – aby si taky mohli připadat úspěšní a důležití, že něčeho dosáhli, získali slevu… Jsou to takové virtuální hodnoty pro potěchu těch, kteří by jinak reálně žádné hodnoty nepřinesli. Bez tohoto handlování bychom se mohli bavit věcně, o technických a obchodních výhodách daného řešení. Ne řešit, jak máš náš nákupčí nejlépe podkuřovat zástupci dodavatele na golfu, aby ukecal lepší cenu.
No, mě jde o to, že jelikož ty evidentně považuješ cenovou nabídku za obchodní tajemství... WTF? seriózní firma snad zveřejní kolik chce za co někde na webu, aby měl zákazník porovnání s konkurencí, ne?Kdyť jsi to sám napsal o něco níž. Katalogové ceny jsou přepálené (protože co kdyby to někdo, čti státní úřady, za ty peníze náhodou koupil), takže se dávají "slevy". No a tu cenu se slevou přece nevyvěsíš někam na web, to by další zákazníci začali vyjednávat o ceně na téhle hodnotě a ne na té přestřelené...
Takhle malou konfiguraci jsem nikdy necenil, ale minimálně u větších konfigurací je sleva 60 - 80%.To si i tady musíme hrát na divadlo se "slevami", které vlastně slevy nejsou? To je jak na nákupu v Mountfieldu. Přiznej barvu a řekni spíš, že tabulkové ceny jsou o takových 60-80% přepáleny oproti cenám za které se to opravdu prodává. A jelikož musíte i tak mít nějaké zisky, tipuju že dalších pár procent bude marže a skutečné náklady budou tak do 10k USD. Jdu blejt, velebnosti.
Přiznej barvu a řekni spíš, že tabulkové ceny jsou o takových 60-80% přepáleny oproti cenám za které se to opravdu prodává.Bacha na různé základy procent.
Pošli "ofiko" poptávku na marek.stopka@perlur.cz a cena bude obchodnímu tajemství dle § 17 zákona č. 513/1991 Sb., obchodní zákoník. Tohle už je custom konfigurace, kterou jen tak na web hodit nemůžu...Jen čistě ze zvědavosti - jakou má tohle logiku? Protože i když jsem se snažil, žádnou jsem za tím nezahlédl.
To máš jako tvrdit, že když postavíš nové datové centrum, tak by si na začátku životního cyklu měl těm 2 zákazníkům co máš účtovat celý overhead napájecí a chladíci soustavy.Špatný příklad. U datového centra počítám s větším počtem zákazníků a tak těm prvním účtuju jenom to, co na ně připadá (zbytek jde na vrub mně, protože tam zatím mám prázdný prostor.) Dumpingová cena pro jednoho zákazníka s tím, že tomu samému zákazníkovi následně prodám něco dráž, je něco jiného.
A přitom by to mělo být obráceně. První služba dražší, protože má dodavatel více práce se seznámením se s prostředím, a pak již levněji, protože má menší práci.
V podstatě se snažíte první podhodnocenou službu zajistit odběr dalších služeb. Kdyby tato snaha byla zhmotněna do něčeho jiného než jen víry, tak by se na to dal napasovat nějaký protikorupční zákon (Američani jich znají velké množství).
Tady je krásně vidět, jak je tenká hranice mezi tržním a korupčním jednáním.
Tady je krásně vidět, jak je tenká hranice mezi tržním a korupčním jednáním.Ta hranice je jasná a toto není případ korupce. Korupce je, když uplácíš někoho, aby zneužil své pravomoci a přihrál ti něco z majetku, který aktuálně spravuje (ale nepatří mu). Můžeš tedy uplatit politika nebo manažera tím, že jim osobně poskytneš nějakou výhodu a oni pak poškodí svého zaměstnavatele (stát, firma…), který z tebou poskytnuté výhody nic nemá. Jenže, když poskytneš slevu zákazníkovi (jako celé právnické osobě, ne konkrétnímu manažerovi) a od té samé právnické osoby očekáváš v budoucnu další zakázky, tak to nemůže být korupce. (byť to může být něco taky velmi nepěkného – ve spojení s dalšími praktikami)
Já jsem nepsal, že to je korupce.
Jen mi přijde od zákazníka hloupé, aby skočil po očividně (očividnost se právě snaží dodavatelé schovat do obchodního tajemství) dotované nabídce a pak musel krvavě platit za následné služby. Pokud to udělá nevědomky, tak by ho akcionáři měli rychle vyměnit. Pokud to udělá vědomě, tak je třeba se ptát, co z toho má, protože přesně takové chování je projevem korupce. A jediný rozdíl pak je, jestli se korupce prokáže, nebo ne, což v případě, že obě strany mlčí (a ještě jim nahrává institut obchodního tajemství) je značně problematické.
Jak pozoruju, nikde nejde jen o jednu část ekosystému, patří k tomu zachování poskytovaných služeb a dohodnutých smluv. Ono se dost těžko přechází jinam nebo na něco jiného.Pokud to udělá vědomě, tak je třeba se ptát, co z toho má, protože přesně takové chování je projevem korupce. A jediný rozdíl pak je, jestli se korupce prokáže, nebo ne, což v případě, že obě strany mlčí (a ještě jim nahrává institut obchodního tajemství) je značně problematické.
A občas jdeme s cenou i pod skutečné náklady, protože ten jeden konkrétní projekt nám otevře dveře k tomu zákazníkovi.To je právě praktika, která se mi nelíbí – tvářit se, že je něco levné nebo dokonce zadarmo a když na to zákazník skočí a stane se závislým, tak ho oškubat. Podobně to dělají drogoví dealeři…
Pokud tam není vendor lock-in, co brání zákazníkovi si při příští zakázce vybrat třeba diskové pole od jiného výrobce?To že se to třeba nevyplatí? Protože když pořídíš nějakou technologii tak jí upravíš nástroje, nakoupíš integrační nástroje, imlementuješ monitoring, vyškolíš lidi. A to vše je náklad, který plánuješ nějakou dobu odepisovat, když změníš dodavatele diskových úložišť, tak musíš všechny tyhle investice udělat znova. A to stojí peníze, a rozdíl v těch cenách mezi jednotlivými výrobci je tak malý, že se zřídka kdy vyplatí. To už se spíš mnohem častěji implementují dual-vendor politiky, kdy celou dobu kupuješ od obou výrobců, a máš procesy,... přizpůsobeny technologiím obou výrobců.
To že se to třeba nevyplatí?A jak bys definoval vendor lock-in? Např. Wikipedia ho popisuje takto:
In economics, vendor lock-in, also known as proprietary lock-in or customer lock-in, makes a customer dependent on a vendor for products and services, unable to use another vendor without substantial switching costs.S čímž se celkem ztotožňuji. Vždy je to o nákladech, které je potřeba vynaložit na přechod jinam – závislost na MS Windows je podobná – není to nic nemožného, jsou to „jen“ náklady na přepsání softwaru, aby nepoužíval proprietární funkce, a přeškolení lidí.
Doplň si základní vzdělání.Tohle jsem tu dlouho neslyšel :D
Ako riešite likvidáciu poškodených a nefunkčných HDD ?
Hledal jsem ty testy, fakt to nemuzu najit, museli jsme to zapomenout odzalohovat mezi jednotlivymi reinstalacemi toho pole
Jinak co se tyce 'spojovani' - 8 disku navesime v pohode, ty desky maji 2x SATA3 a minimalne 6x SATA2, vetsi pocet disku se resi SAS expandery primo v backplane - coz ta masina "2node v 2U s 12ti 2.5 disky per node" ma, dokonce ma i SAS2 HBA onboard.
RE maji TLER - ale who cares, Linux mdraid to stejne neumi vyuzit- HE? co konkrétně neumí využít? toto je podle mně právě stěžejní důvod proč POUŽÍVAT RE disky namísto běžných (a jednou jsme se pěkne spálili s RE disky kde TLER nefungoval kvůli chybě firmware...).. ani nemusím být enterprise fanatik abych trochu kroutil hlavou...
Delat SAN po Ethernetu je docela smrt, iSCSI je podle mne sprosta nadavka, kterou vymyslel nekdo, kdo se chtel pomstit koncovym uzivatelum dat nad tim protokolem.Ono se take doporucuje, pokud to clovek mysli s iSCSI vazne, tak ji stavet jako SAN. Tedy separatni switche a cela infratruktura, pokud mozno to neroutovat a povolit Jumbo frame. Super je take pouzit hw iSCSI karty. Jeste bych zkusil FCoE. To je take pomerne zajimavy protokol. Vyhoda tech enterprise storage je hlavne managementu monitoringu a funkcich co ten storage nabizi. Souhlasim, ze pro VPS hosting to nema cenu, ale kdo to zkusim a muze porovnat, tak uz nechce jinak