Byl vydán Nextcloud Hub 8. Představení novinek tohoto open source cloudového řešení také na YouTube. Vypíchnout lze Nextcloud AI Assistant 2.0.
Vyšlo Pharo 12.0, programovací jazyk a vývojové prostředí s řadou pokročilých vlastností. Krom tradiční nadílky oprav přináší nový systém správy ladících bodů, nový způsob definice tříd, prostor pro objekty, které nemusí procházet GC a mnoho dalšího.
Microsoft zveřejnil na GitHubu zdrojové kódy MS-DOSu 4.0 pod licencí MIT. Ve stejném repozitáři se nacházejí i před lety zveřejněné zdrojové k kódy MS-DOSu 1.25 a 2.0.
Canonical vydal (email, blog, YouTube) Ubuntu 24.04 LTS Noble Numbat. Přehled novinek v poznámkách k vydání a také příspěvcích na blogu: novinky v desktopu a novinky v bezpečnosti. Vydány byly také oficiální deriváty Edubuntu, Kubuntu, Lubuntu, Ubuntu Budgie, Ubuntu Cinnamon, Ubuntu Kylin, Ubuntu MATE, Ubuntu Studio, Ubuntu Unity a Xubuntu. Jedná se o 10. LTS verzi.
Na YouTube je k dispozici videozáznam z včerejšího Czech Open Source Policy Forum 2024.
Fossil (Wikipedie) byl vydán ve verzi 2.24. Jedná se o distribuovaný systém správy verzí propojený se správou chyb, wiki stránek a blogů s integrovaným webovým rozhraním. Vše běží z jednoho jediného spustitelného souboru a uloženo je v SQLite databázi.
Byla vydána nová stabilní verze 6.7 webového prohlížeče Vivaldi (Wikipedie). Postavena je na Chromiu 124. Přehled novinek i s náhledy v příspěvku na blogu. Vypíchnout lze Spořič paměti (Memory Saver) automaticky hibernující karty, které nebyly nějakou dobu používány nebo vylepšené Odběry (Feed Reader).
OpenJS Foundation, oficiální projekt konsorcia Linux Foundation, oznámila vydání verze 22 otevřeného multiplatformního prostředí pro vývoj a běh síťových aplikací napsaných v JavaScriptu Node.js (Wikipedie). V říjnu se verze 22 stane novou aktivní LTS verzí. Podpora je plánována do dubna 2027.
Byla vydána verze 8.2 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a v informačním videu. Zdůrazněn je průvodce migrací hostů z VMware ESXi do Proxmoxu.
R (Wikipedie), programovací jazyk a prostředí určené pro statistickou analýzu dat a jejich grafické zobrazení, bylo vydáno ve verzi 4.4.0. Její kódové jméno je Puppy Cup.
Kdysi dávno se zrodil standard IEEE 802.1Q, umožňující konsolidovat jednotlivé fyzické ethernetové sítě do jedné fyzické sítě, která je oddělena pomocí logických VLAN. V roce 2007 se začaly práce na vyšší konsolidaci síťové infrastruktury; v současné době má většina firemních datových center minimálně dvě oddělené fyzické sítě, storage síť (většinou Fibre Channel) a produkční ethernetovou síť. Standard FCoE se zrodil proto, aby bylo možné tyto dvě fyzické sítě sloučit do jedné fyzické sítě a ušetřit tak náklady na hardware, kabeláž, lidi, kteří se o sítě starají, prostor, chlazení a spotřebu. Tento standard byl schválen v roce 2009 a v současné době bývá nasazován v datových centrech po celém světě.
Důvod pro nasazení FCoE jsou jako vždy peníze. Pokud provozujete nějaké aplikace na kterých záleží, není pochyb, že potřebujete využít nějaké spolehlivé diskové pole pro ukládání dat. Nicméně je velice nákladné udržovat ethernetovou síť pro připojení uživatelů k serveru a separátní fyzickou Fibre channel síť pro přístup k datům. Většinou potřebujete mít obě sítě plně redundantní, protože si nemůžete dovolit výpadky, a dostatečně dimenzované. Mít gigabitovou ethernet síť a 4Gb Fibre Channel síť něco stojí. S příchodem 10Gb ethernetu se otevřela možnost (z pohledu kapacity) využít tuto síť i jako platformu pro připojení k diskovým polím. Jediné, co chybělo, byl patřičný standard, který by umožňoval konsolidaci v praxi provést. V současnosti je už standard k dispozici a začínají se objevovat i zařízení, která jej podporují.
Oba velcí hráči na poli storage sítí (Cisco i Brocade) už v současné době nabízejí produkty, které podporují FCoE. V případě produktů Cisco se jedná o produktovou řadu Cisco Nexus. Stejně tak společnosti jako QLogic, Emulex a Brocade začaly nabízet CNA adaptéry pro servery, které spojují jak NIC (Network interface controller), tak HBA (Host bus adaptér) do jediného zařízení. Dá se očekávat, že se brzy s podporou pro FCoE přidají i společnosti, které se v minulosti neorientovaly na storage sítě. Pokud tak neučiní, může se stát, že jim ujede vlak…
V současné době je na trhu k dispozici i první storage platforma, která nativně podporuje FCoE (sice ne zrovna dobře, ale o tom později). Jedná se o produktové řady V-series a FAS společnosti NetApp. Nicméně i pokud vaše disková pole FCoE nepodporují, pořád můžete výhod FCoE využít. Například Brocade 8000 obsahuje i běžné FC porty a pokud do těchto portů připojíte vaše diskové pole, které podporuje Fibre Channel, tento switch provede zapouzdření FC3, FC4 a FC5 vrstvy do ethernetových rámců s ethertype 0x8906
. Dále pak probíhá přenos dat pomocí protokolu FCoE.
V současné době je na trhu, pokud je mi známo, jen jeden výrobce, který nabízí storage platformu s nativní podporou FCoE. Jak jsem již uvedl, jedná se o společnost NetApp s produktovou řadou V-Series a FAS. Bohužel v současné době, pokud si kupujete 10Gb karty, si můžete vybrat mezi běžnými 10Gb/s NIC a mít k dispozici ethernet (iSCSI, NFC, CIFS, …) nebo 10Gb/s CNA a mít k dispozici pouze FCoE. Zatím není možné využít CNA adaptéry k transportu běžného ethernetového provozu. Na druhou stranu, NetApp slibuje, že tato funkcionalita bude k dispozici během léta roku 2010.
V současné době se pracuje na podpoře FCoE v linuxovém jádře, jedná se o projekt Open-FCoE.org. Tento projekt si klade za cíl vytvořit softwarový FCoE initiator a target ovladač, který vám umožní užívat si FCoE i s běžným NIC adaptérem bez potřeby vlastnit CNA kartu. V budoucnu by tedy mělo být používání FCoE stejně snadné, jako je v dnešní době používání iSCSI, a to nejen v Linuxu, ale i v jiných operačních systémech (*BSD, Windows i Mac OS X). Jen bude potřeba, aby vaše síť splňovala nějaké požadavky, jako je například podpora Jumbo Frames, o tom ale až po reklamě :)
Od verze linuxového jádra 2.6.29 je Open-FCoE součástí vanilkového jádra. Aplikaci FCGW (Fibre Channel Gateway) můžete použít jako rozhraní mezi nativní FC fabric a FCoE initiatorem (pokud si chcete možnosti FCoE vyzkoušet bez toho, abyste kupovali řadu Nexus 7k nebo Brocade 8000, které umí tuto gateway poskytnout také). Na vývoji Open-FCoE se z velké míry podílí například společnost Intel, avšak i společnost Sun Microsystems v současné době nabízí svobodnou implementaci FCoE v operačním systému OpenSolaris.
Už z názvu obou protokolů je patrný rozdíl. Zatímco FCoE pracuje na ethernetové vrstvě sítě, iSCSI staví až nad TCP stackem. To jednoduše znamená, že FCoE funguje, jen pokud jsou initiator i target ve stejném ethernetovém segmentu (L2 doméně), kdežto iSCSI nemá problém, pokud používáte na vaší síti routování. Nicméně pokud využijete například Fibre Channel over IP, můžete routovat jak běžný FC, tak i FCoE traffic. [srovnání různých blokových storage protokolů na stránkách Network Appliance] iSCSI se dá nasadit na sítích, kde může docházet ke ztrátám paketů, a není k jeho nasazení zapotřebí mít 10Gb ethernet (pro FCoE oficiálně ano, ale Open-FCoE funguje i na 1Gb/s ethernetu). Nicméně pro využití FCoE musí vaše síťová zařízení podporovat PAUSE frame a class based pause flow control (PFC), což není zapotřebí pro využití iSCSI. Idea využití class based PFC je v tom, že pokud dojde k zahlcení síťového zařízení a linka mezi switchi/zařízením nemá dostatečnou propustnost, dojde k pozastavení přenosu rámců s nižší prioritou a rámce s vyšší prioritou budou přeneseny. Ano, hádáte správně, FCoE rámce budou ve třídě s nejvyšší prioritou :-). Dále je nutné mít pro FCoE k dispozici síť, která podporuje Jumbo Frames, protože FC payload je 2 112 bytů.
V současné době se pracuje na 16Gb/s FC (plánované uvedení v roce 2011). Práce budou pravděpodobně pokračovat, nejspíše také bude publikován standard, nicméně nedá se očekávat nějaké masivní nasazování 16Gb/s FC sítí, protože brzy přijde na trh 40Gb/s a 100Gb/s ethernet a trh se nejspíše bude ubírat směrem právě k FCoE na 40Gb/s a 100Gb/s ethernetu. Ale není potřeba panikařit; jakákoli migrace stojí peníze, a proto se pravděpodobně nikde nic rozsáhle migrovat nebude. Každá organizace by si však, pokud v blízké době plánuje investovat do storage sítě, měla pořádně promyslet, jestli se bude jednat o FCoE síť, nebo jen o FC. A pokud jen o FC, mít připravený plán na její začlenění do budoucí FCoE infrastruktury.
Dále se také dá očekávat že započne válka, minimálně ve větších společnostech, které mají oddělené síťové a storage oddělení. V současné době je zvykem, že storage oddělení vlastní switche, vlákna i disková pole a patřičně se o tuto storage síť také starají, kdežto s větším nasazením FCoE budou muset obě skupiny, jak storage, tak síťaři, více spolupracovat a každý storage specialista ví, jak je to se síťaři… nic neumí, jsou pomalí a na co sáhnou, to pokazí… :-D
Podrobnější představení standardu, technologií a technických detailů bude následovat v dalším článku.
Nástroje: Tisk bez diskuse
Tiskni Sdílej:
Svého času jsem provedl experiment - náhodou se mi na stole sešlo železo, které ho umožňovalo: dvě síťovky Myri-10G, externí RAIDový box s řadičem Areca na úrovni ARC-1680 (ale propoj PCI-e pouze x4), nějaký server s čipsetem Intel 5000P (CPU Xeon tuším 5300 series), jako koncové zařízení (iSCSI initiator) nějaký "průmyslový desktopový" board tuším s i945, který podporuje v x16 slotu i jiné věci než grafiku (zde iSCSI kartu).
Desktop | Server | | RAID | 10Gb Eth <======> 10Gb Eth | PCIe x4 <=====> PCIe x4
Použil jsem "alternativní" softwarový SCSI target pro Linux SCST, který mj. obsahuje také iSCSI front-end. Jako back-end umí použít libovolné blokové zařízení buď s použitím systémového bufferingu (VM), nebo bez bufferingu v "direct módu" (bDIRECT), nebo snad i s přímým relayem SCSI příkazů. SCST žije celý v kernelu a je optimalizován na průchodnost.
Mám pocit, že Intel I/OAT v čipsetu 5000 jsem nepoužil - jednak mi to v Linuxu nechtělo chodit, jednak to možná nechodí se síťovkou jinou než Intel, jednak to vlastně v Linuxu má odlehčovat jenom "copy to user", což je dost k ničemu, když SCST žije celý v kernelu (viz níže).
Samotný RAID mi dával přímo proti serveru sekvenční LBA čtení cca 600 MBps. Když jsem ho přes iSCSI namapoval "klientovi" (initiatoru) na tom desktopovém stroji, tak desktopový stroj z toho vytáhl sekvenční LBA čtení 500 MBps (v jedné relaci). Provedl jsem jenom nějaké lehké ladění dostupnými prostředky:
Ono je nakonec možné, že pro většinu aplikací ty sekvenční MBps jsou honěním trička. Důležitým číslem jsou IOps. Pokud uvážíte nevelkou standardní hloubku TCQ front na několika zúčastněných vrstvách, tak se do toho poměrně přímo promítá doba zpracování jednotlivého požadavku, potažmo i přenosové latence. Latence na běžném Ethernetu (neřku-li TCP/IP) jsou nepochybně delší, než latence na klasických storage sběrnicích.
V tomto směru bohužel žádné benchmarky nemám.
Strašlivá režie vrstev TCP/IP má několik faset. Pokud se týče ztráty kapacity na vrub enkapsulace, jsou to tuším nějaké jednotky procent při MTU=1500 (= ztráta zanedbatelá). Jiná věc je "processing overhead", tj. spotřeba procesorového výkonu na počítání algoritmů a spotřeba průchodnosti sběrnic na "zbytečné" kopie dat. Nějaká čísla jsou tady, ovšem podle mých experimentů zjevně neaktuální pro dnešní hardware - mají snad nějakou relativní hodnotu. A ještě jiná věc je režie způsobená reakcemi "TCP/IP flow control" (regulační smyčky) - tj. rozjezd spojení, přibržďování oknem, a nedejbože retransmit při ztrátě paketu, ó hrůzo.
Protože mě storage hardware v podstatě neživí, dovolím si pár odhadů selským rozumem a laických pivních prohlášení "Hrozný overhead iSCSI" znamená víceméně tolik, že netriviální logika vrstev TCP/IP se nesnadno implementuje v čistém hardwaru, a navíc zejména za nepříznivých okolností (vytížení sítě směsí různého provozu) může projevovat náhodné vyšší latence. Proto si vymyslíme jednodušší enkapsulaci celých FC rámců, která pojede přímo nad Ethernetem, nebude mít vlastní garanci doručení, proto bude implementačně jednoduchá. Garanci doručení pak doženeme jednoduchými recepty, známými z minulosti (absolutní priorita pro náš provoz, a (802.3x)802.1bb flow-control v Ethernetu) - že jednoduché recepty mohou mít své mouchy, zejména v prostředí se složitým mixem "best effort" provozu, to ať si vyřeší někdo jiný. Když dáme povinně 10Gb Ethernet, tak s trochou štěstí bude úzké hrdlo někde jinde (reálné targety nebo initiatory). Ostatně "přibržďování toku" si v moderním SCSI provozu řeší TCQ s podobným efektem, jako má TCP receive window (až na to, že ztráta FCoE paketu znamená SCSI command timeout, což je docela závažná chyba).
Abych nebyl zase tolik zbytečně ošklivý, ono má asi smysl, v nějaké složitější síti, tj. v systému, kde spolu soupeří spousta datových toků na vrstvách síťové komunikace a storage komunikace, aby storage komunikace měla obecně přednost - aby se provoz škrtil a hltil přednostně na internetové vrstvě (kde je to jaksi snáze omluvitelné), ale aby počítače měly pokud možno vždycky dostupné disky. Je možné, že to v globále vede k lepší stabilitě systémů. Podmínkou je, aby nějaká aplikace nežrala IO bandwidth "nadoraz, co to dá" - to je právě problém s absolutní priorizací. Stejně jsem ale zvědav, jak jsou na FCoE ošetřeny problémy typu "head of line blocking". A mimochodem, té priorizace by se možná dalo dosáhnout třeba i levněji s klasickými switchi, pomocí 802.1p, ne?
Jestli někdo potřebuje storage síťku na capture HD videa, tzn. vyžaduje striktně deterministické odezvy (dokonce nejen od blokové vrstvy, ale od filesystému, chacha) tak by možná měl sáhnout spíš po FC než po FCoE.
iSCSI HBA třeba od Adaptecu mívaly tuším svého času prostě jenom síťovku Intel, která byla vybavena trochu jinou option ROMkou a ovladači pro Windows, aby se to v BIOSu tvářilo jako SCSI řadič. Čili nějaký kompletní offload iSCSI do hardwaru se v podstatě nekonal.
Když se FCoE před časem začalo objevovat, mluvilo se o tom, že ethernetové switche pro tento provoz jsou stavěny speciálně na super-nízké latence. Čili není to normální kancelářský Ethernet. Máte někdo představu, kolik tyhle hračky stojí? Je to cenově blízko ke konvenčnímu Ethernetu, nebo spíš k FibreChannelu?
>> Strašlivá režie vrstev TCP/IP má několik faset.
>>
> doteď jsem byl dojmu, že fazeta je skosená hrana.
> nebo se normálně používá i v tomhle kontextu?
>
obrazně řečeno. Několik aspektů. Fakt je, že jsem to slovo takhle použité potkal asi spíš v anglině než v češtině. Omlouvám se tedy za neblahý novotvar
F.Ryšánek