Evropský parlament dnes přijal směrnici týkající se tzv. práva spotřebitele na opravu. Poslanci ji podpořili 584 hlasy (3 bylo proti a 14 se zdrželo hlasování). Směrnice ujasňuje povinnosti výrobců opravovat zboží a motivovat spotřebitele k tomu, aby si výrobky nechávali opravit a prodloužili tak jejich životnost.
Bylo oznámeno (cs) vydání Fedora Linuxu 40. Přehled novinek ve Fedora Workstation 40 a Fedora KDE 40 na stránkách Fedora Magazinu. Současně byl oznámen notebook Slimbook Fedora 2.
ČTK (Česká tisková kancelář) upozorňuje (X), že na jejím zpravodajském webu České noviny byly dnes dopoledne neznámým útočníkem umístěny dva smyšlené texty, které nepocházejí z její produkce. Jde o text s titulkem „BIS zabránila pokusu o atentát na nově zvoleného slovenského prezidenta Petra Pelligriniho“ a o údajné mimořádné prohlášení ministra Lipavského k témuž. Tyto dezinformace byly útočníky zveřejněny i s příslušnými notifikacemi v mobilní aplikaci Českých novin. ČTK ve svém zpravodajském servisu žádnou informaci v tomto znění nevydala.
Byla založena nadace Open Home Foundation zastřešující více než 240 projektů, standardů, ovladačů a knihoven (Home Assistant, ESPHome, Zigpy, Piper, Improv Wi-Fi, Wyoming, …) pro otevřenou chytrou domácnost s důrazem na soukromí, možnost výběru a udržitelnost.
Společnost Meta otevírá svůj operační systém Meta Horizon OS pro headsety pro virtuální a rozšířenou realitu. Vedle Meta Quest se bude používat i v připravovaných headsetech od Asusu a Lenova.
Společnost Espressif (ESP8266, ESP32, …) získala většinový podíl ve společnosti M5Stack, čímž posiluje ekosystém AIoT.
Byla vydána nová stabilní verze 3.5 svobodného multiplatformního softwaru pro editování a nahrávání zvukových souborů Audacity (Wikipedie). Přehled novinek také na YouTube. Nově lze využívat cloud (audio.com). Ke stažení je oficiální AppImage. Zatím starší verze Audacity lze instalovat také z Flathubu a Snapcraftu.
50 let operačního systému CP/M, článek na webu Computer History Museum věnovaný operačnímu systému CP/M. Gary Kildall z Digital Research jej vytvořil v roce 1974.
Byl zveřejněn program a spuštěna registrace na letošní konferenci Prague PostgreSQL Developer Day, která se koná 4. a 5. června. Na programu jsou 4 workshopy a 8 přednášek na různá témata o PostgreSQL, od konfigurace a zálohování po využití pro AI a vector search. Stejně jako v předchozích letech se konference koná v prostorách FIT ČVUT v Praze.
Po 48 letech Zilog končí s výrobou 8bitového mikroprocesoru Zilog Z80 (Z84C00 Z80). Mikroprocesor byl uveden na trh v červenci 1976. Poslední objednávky jsou přijímány do 14. června [pdf].
Kdysi dávno se zrodil standard IEEE 802.1Q, umožňující konsolidovat jednotlivé fyzické ethernetové sítě do jedné fyzické sítě, která je oddělena pomocí logických VLAN. V roce 2007 se začaly práce na vyšší konsolidaci síťové infrastruktury; v současné době má většina firemních datových center minimálně dvě oddělené fyzické sítě, storage síť (většinou Fibre Channel) a produkční ethernetovou síť. Standard FCoE se zrodil proto, aby bylo možné tyto dvě fyzické sítě sloučit do jedné fyzické sítě a ušetřit tak náklady na hardware, kabeláž, lidi, kteří se o sítě starají, prostor, chlazení a spotřebu. Tento standard byl schválen v roce 2009 a v současné době bývá nasazován v datových centrech po celém světě.
Důvod pro nasazení FCoE jsou jako vždy peníze. Pokud provozujete nějaké aplikace na kterých záleží, není pochyb, že potřebujete využít nějaké spolehlivé diskové pole pro ukládání dat. Nicméně je velice nákladné udržovat ethernetovou síť pro připojení uživatelů k serveru a separátní fyzickou Fibre channel síť pro přístup k datům. Většinou potřebujete mít obě sítě plně redundantní, protože si nemůžete dovolit výpadky, a dostatečně dimenzované. Mít gigabitovou ethernet síť a 4Gb Fibre Channel síť něco stojí. S příchodem 10Gb ethernetu se otevřela možnost (z pohledu kapacity) využít tuto síť i jako platformu pro připojení k diskovým polím. Jediné, co chybělo, byl patřičný standard, který by umožňoval konsolidaci v praxi provést. V současnosti je už standard k dispozici a začínají se objevovat i zařízení, která jej podporují.
Oba velcí hráči na poli storage sítí (Cisco i Brocade) už v současné době nabízejí produkty, které podporují FCoE. V případě produktů Cisco se jedná o produktovou řadu Cisco Nexus. Stejně tak společnosti jako QLogic, Emulex a Brocade začaly nabízet CNA adaptéry pro servery, které spojují jak NIC (Network interface controller), tak HBA (Host bus adaptér) do jediného zařízení. Dá se očekávat, že se brzy s podporou pro FCoE přidají i společnosti, které se v minulosti neorientovaly na storage sítě. Pokud tak neučiní, může se stát, že jim ujede vlak…
V současné době je na trhu k dispozici i první storage platforma, která nativně podporuje FCoE (sice ne zrovna dobře, ale o tom později). Jedná se o produktové řady V-series a FAS společnosti NetApp. Nicméně i pokud vaše disková pole FCoE nepodporují, pořád můžete výhod FCoE využít. Například Brocade 8000 obsahuje i běžné FC porty a pokud do těchto portů připojíte vaše diskové pole, které podporuje Fibre Channel, tento switch provede zapouzdření FC3, FC4 a FC5 vrstvy do ethernetových rámců s ethertype 0x8906
. Dále pak probíhá přenos dat pomocí protokolu FCoE.
V současné době je na trhu, pokud je mi známo, jen jeden výrobce, který nabízí storage platformu s nativní podporou FCoE. Jak jsem již uvedl, jedná se o společnost NetApp s produktovou řadou V-Series a FAS. Bohužel v současné době, pokud si kupujete 10Gb karty, si můžete vybrat mezi běžnými 10Gb/s NIC a mít k dispozici ethernet (iSCSI, NFC, CIFS, …) nebo 10Gb/s CNA a mít k dispozici pouze FCoE. Zatím není možné využít CNA adaptéry k transportu běžného ethernetového provozu. Na druhou stranu, NetApp slibuje, že tato funkcionalita bude k dispozici během léta roku 2010.
V současné době se pracuje na podpoře FCoE v linuxovém jádře, jedná se o projekt Open-FCoE.org. Tento projekt si klade za cíl vytvořit softwarový FCoE initiator a target ovladač, který vám umožní užívat si FCoE i s běžným NIC adaptérem bez potřeby vlastnit CNA kartu. V budoucnu by tedy mělo být používání FCoE stejně snadné, jako je v dnešní době používání iSCSI, a to nejen v Linuxu, ale i v jiných operačních systémech (*BSD, Windows i Mac OS X). Jen bude potřeba, aby vaše síť splňovala nějaké požadavky, jako je například podpora Jumbo Frames, o tom ale až po reklamě :)
Od verze linuxového jádra 2.6.29 je Open-FCoE součástí vanilkového jádra. Aplikaci FCGW (Fibre Channel Gateway) můžete použít jako rozhraní mezi nativní FC fabric a FCoE initiatorem (pokud si chcete možnosti FCoE vyzkoušet bez toho, abyste kupovali řadu Nexus 7k nebo Brocade 8000, které umí tuto gateway poskytnout také). Na vývoji Open-FCoE se z velké míry podílí například společnost Intel, avšak i společnost Sun Microsystems v současné době nabízí svobodnou implementaci FCoE v operačním systému OpenSolaris.
Už z názvu obou protokolů je patrný rozdíl. Zatímco FCoE pracuje na ethernetové vrstvě sítě, iSCSI staví až nad TCP stackem. To jednoduše znamená, že FCoE funguje, jen pokud jsou initiator i target ve stejném ethernetovém segmentu (L2 doméně), kdežto iSCSI nemá problém, pokud používáte na vaší síti routování. Nicméně pokud využijete například Fibre Channel over IP, můžete routovat jak běžný FC, tak i FCoE traffic. [srovnání různých blokových storage protokolů na stránkách Network Appliance] iSCSI se dá nasadit na sítích, kde může docházet ke ztrátám paketů, a není k jeho nasazení zapotřebí mít 10Gb ethernet (pro FCoE oficiálně ano, ale Open-FCoE funguje i na 1Gb/s ethernetu). Nicméně pro využití FCoE musí vaše síťová zařízení podporovat PAUSE frame a class based pause flow control (PFC), což není zapotřebí pro využití iSCSI. Idea využití class based PFC je v tom, že pokud dojde k zahlcení síťového zařízení a linka mezi switchi/zařízením nemá dostatečnou propustnost, dojde k pozastavení přenosu rámců s nižší prioritou a rámce s vyšší prioritou budou přeneseny. Ano, hádáte správně, FCoE rámce budou ve třídě s nejvyšší prioritou :-). Dále je nutné mít pro FCoE k dispozici síť, která podporuje Jumbo Frames, protože FC payload je 2 112 bytů.
V současné době se pracuje na 16Gb/s FC (plánované uvedení v roce 2011). Práce budou pravděpodobně pokračovat, nejspíše také bude publikován standard, nicméně nedá se očekávat nějaké masivní nasazování 16Gb/s FC sítí, protože brzy přijde na trh 40Gb/s a 100Gb/s ethernet a trh se nejspíše bude ubírat směrem právě k FCoE na 40Gb/s a 100Gb/s ethernetu. Ale není potřeba panikařit; jakákoli migrace stojí peníze, a proto se pravděpodobně nikde nic rozsáhle migrovat nebude. Každá organizace by si však, pokud v blízké době plánuje investovat do storage sítě, měla pořádně promyslet, jestli se bude jednat o FCoE síť, nebo jen o FC. A pokud jen o FC, mít připravený plán na její začlenění do budoucí FCoE infrastruktury.
Dále se také dá očekávat že započne válka, minimálně ve větších společnostech, které mají oddělené síťové a storage oddělení. V současné době je zvykem, že storage oddělení vlastní switche, vlákna i disková pole a patřičně se o tuto storage síť také starají, kdežto s větším nasazením FCoE budou muset obě skupiny, jak storage, tak síťaři, více spolupracovat a každý storage specialista ví, jak je to se síťaři… nic neumí, jsou pomalí a na co sáhnou, to pokazí… :-D
Podrobnější představení standardu, technologií a technických detailů bude následovat v dalším článku.
Nástroje: Tisk bez diskuse
Tiskni Sdílej:
Svého času jsem provedl experiment - náhodou se mi na stole sešlo železo, které ho umožňovalo: dvě síťovky Myri-10G, externí RAIDový box s řadičem Areca na úrovni ARC-1680 (ale propoj PCI-e pouze x4), nějaký server s čipsetem Intel 5000P (CPU Xeon tuším 5300 series), jako koncové zařízení (iSCSI initiator) nějaký "průmyslový desktopový" board tuším s i945, který podporuje v x16 slotu i jiné věci než grafiku (zde iSCSI kartu).
Desktop | Server | | RAID | 10Gb Eth <======> 10Gb Eth | PCIe x4 <=====> PCIe x4
Použil jsem "alternativní" softwarový SCSI target pro Linux SCST, který mj. obsahuje také iSCSI front-end. Jako back-end umí použít libovolné blokové zařízení buď s použitím systémového bufferingu (VM), nebo bez bufferingu v "direct módu" (bDIRECT), nebo snad i s přímým relayem SCSI příkazů. SCST žije celý v kernelu a je optimalizován na průchodnost.
Mám pocit, že Intel I/OAT v čipsetu 5000 jsem nepoužil - jednak mi to v Linuxu nechtělo chodit, jednak to možná nechodí se síťovkou jinou než Intel, jednak to vlastně v Linuxu má odlehčovat jenom "copy to user", což je dost k ničemu, když SCST žije celý v kernelu (viz níže).
Samotný RAID mi dával přímo proti serveru sekvenční LBA čtení cca 600 MBps. Když jsem ho přes iSCSI namapoval "klientovi" (initiatoru) na tom desktopovém stroji, tak desktopový stroj z toho vytáhl sekvenční LBA čtení 500 MBps (v jedné relaci). Provedl jsem jenom nějaké lehké ladění dostupnými prostředky:
Ono je nakonec možné, že pro většinu aplikací ty sekvenční MBps jsou honěním trička. Důležitým číslem jsou IOps. Pokud uvážíte nevelkou standardní hloubku TCQ front na několika zúčastněných vrstvách, tak se do toho poměrně přímo promítá doba zpracování jednotlivého požadavku, potažmo i přenosové latence. Latence na běžném Ethernetu (neřku-li TCP/IP) jsou nepochybně delší, než latence na klasických storage sběrnicích.
V tomto směru bohužel žádné benchmarky nemám.
Strašlivá režie vrstev TCP/IP má několik faset. Pokud se týče ztráty kapacity na vrub enkapsulace, jsou to tuším nějaké jednotky procent při MTU=1500 (= ztráta zanedbatelá). Jiná věc je "processing overhead", tj. spotřeba procesorového výkonu na počítání algoritmů a spotřeba průchodnosti sběrnic na "zbytečné" kopie dat. Nějaká čísla jsou tady, ovšem podle mých experimentů zjevně neaktuální pro dnešní hardware - mají snad nějakou relativní hodnotu. A ještě jiná věc je režie způsobená reakcemi "TCP/IP flow control" (regulační smyčky) - tj. rozjezd spojení, přibržďování oknem, a nedejbože retransmit při ztrátě paketu, ó hrůzo.
Protože mě storage hardware v podstatě neživí, dovolím si pár odhadů selským rozumem a laických pivních prohlášení "Hrozný overhead iSCSI" znamená víceméně tolik, že netriviální logika vrstev TCP/IP se nesnadno implementuje v čistém hardwaru, a navíc zejména za nepříznivých okolností (vytížení sítě směsí různého provozu) může projevovat náhodné vyšší latence. Proto si vymyslíme jednodušší enkapsulaci celých FC rámců, která pojede přímo nad Ethernetem, nebude mít vlastní garanci doručení, proto bude implementačně jednoduchá. Garanci doručení pak doženeme jednoduchými recepty, známými z minulosti (absolutní priorita pro náš provoz, a (802.3x)802.1bb flow-control v Ethernetu) - že jednoduché recepty mohou mít své mouchy, zejména v prostředí se složitým mixem "best effort" provozu, to ať si vyřeší někdo jiný. Když dáme povinně 10Gb Ethernet, tak s trochou štěstí bude úzké hrdlo někde jinde (reálné targety nebo initiatory). Ostatně "přibržďování toku" si v moderním SCSI provozu řeší TCQ s podobným efektem, jako má TCP receive window (až na to, že ztráta FCoE paketu znamená SCSI command timeout, což je docela závažná chyba).
Abych nebyl zase tolik zbytečně ošklivý, ono má asi smysl, v nějaké složitější síti, tj. v systému, kde spolu soupeří spousta datových toků na vrstvách síťové komunikace a storage komunikace, aby storage komunikace měla obecně přednost - aby se provoz škrtil a hltil přednostně na internetové vrstvě (kde je to jaksi snáze omluvitelné), ale aby počítače měly pokud možno vždycky dostupné disky. Je možné, že to v globále vede k lepší stabilitě systémů. Podmínkou je, aby nějaká aplikace nežrala IO bandwidth "nadoraz, co to dá" - to je právě problém s absolutní priorizací. Stejně jsem ale zvědav, jak jsou na FCoE ošetřeny problémy typu "head of line blocking". A mimochodem, té priorizace by se možná dalo dosáhnout třeba i levněji s klasickými switchi, pomocí 802.1p, ne?
Jestli někdo potřebuje storage síťku na capture HD videa, tzn. vyžaduje striktně deterministické odezvy (dokonce nejen od blokové vrstvy, ale od filesystému, chacha) tak by možná měl sáhnout spíš po FC než po FCoE.
iSCSI HBA třeba od Adaptecu mívaly tuším svého času prostě jenom síťovku Intel, která byla vybavena trochu jinou option ROMkou a ovladači pro Windows, aby se to v BIOSu tvářilo jako SCSI řadič. Čili nějaký kompletní offload iSCSI do hardwaru se v podstatě nekonal.
Když se FCoE před časem začalo objevovat, mluvilo se o tom, že ethernetové switche pro tento provoz jsou stavěny speciálně na super-nízké latence. Čili není to normální kancelářský Ethernet. Máte někdo představu, kolik tyhle hračky stojí? Je to cenově blízko ke konvenčnímu Ethernetu, nebo spíš k FibreChannelu?
>> Strašlivá režie vrstev TCP/IP má několik faset.
>>
> doteď jsem byl dojmu, že fazeta je skosená hrana.
> nebo se normálně používá i v tomhle kontextu?
>
obrazně řečeno. Několik aspektů. Fakt je, že jsem to slovo takhle použité potkal asi spíš v anglině než v češtině. Omlouvám se tedy za neblahý novotvar
F.Ryšánek