Portál AbcLinuxu, 1. května 2025 22:29
Inu, bylo nebylo, kolem 9h (stalo se před pár týdny) měla přítelkyně telefonát, abych se vrátil z dovolené do práce. Já spal a měl u telefonu vypnuté vyzvánění a když se po 2 hodinách nedovolali, sehnali si číslo na přítelkyni.
někdo Ti to píše pod každým druhým blogem a musím se přidat: najdi si zaměstnavatele, který respektuje své zaměstnance a neselhává v řízení podniku
SW je zabugovany a nikto ho netestuje...Asi tak, 2x za dva měsíce se nám sekly Cisco 10Gbe switche s cenovkou 2x100tis. Po prvním pádu jsme přeflašli firmware. Opravené bugy půl stránky, známé neopravené bugy 3 stránky. Po druhém pádu už nebylo co flashovat, protože login na web rozhranní se zasekne na 70% a dál nejde. Přístup přes ssh naštěstí funguje.
jedno nalučování, při kterém se mění primární klíč asi ve 20 tabulkáchNejak nechapu dve veci. Co je to nalučování a proc se pritom meni primarni klic ve 20 tabulkach?
Jenomže ty nejedeš ZFS, takže potřebuješ řadič s cache, baterií atd., co ti sníží IOPs na diskách, ne?Nejsem oprávněn popisovat infrastrukturu ve firmě, takže sorry. Stejně bych to nepopisoval, protože to není (jen) moje dílo a s kdečím nesouhlasím. Na soukromé účely bych si HW raid (po všech těch zkušenostech) nikdy nepořídil. Tam jedu čistě HBA a zbytek softwarově.
A nejvíc mně štve, že při flashi řadiče ztratí řadič částečně nastavení.Tož to se nám nestalo a těch areca řadičů se flashovalo už docela dost.
Na soukromé účely bych si HW raid (po všech těch zkušenostech) nikdy nepořídil. Tam jedu čistě HBA a zbytek softwarově.Na to zrovna u toho zmíněného LSI za 5kKč (v Linuxu driver megaraid_sas) bacha - v JBOD režimu má tendence tuhnout.
to se nám taky vždy podařilo na počkání shoditNějaký postup, co si laskavý čtenář může vyzkoušet doma?
někdo se tady ptal na možnost HA pomocí virtualizace, do toho bych třeba vůbec nešelProč ne? AFAIK třeba VMware tohle má zabudované a neslyšel jsem, že by si na to někdo stěžoval.
Nějaký postup, co si laskavý čtenář může vyzkoušet doma?Hledali jsme nejlepší způsob, jak ten storage dostat do vmware. Zkoušelo se připojit RBD přes iSCSI (a ve vmware vmfs a na tom vmka). Potom jsme testovali rbd přímo v těch vmkách (tj vmka bootovala z malého disku a potom si připojila rbd a na tom byl oddíl pro data). Potom s verzí ceph 11 a 12 se testoval cephfs, jednak přes NFS, vmware a vmka na tom NFS a opět přimountovat přímo cephfs do těch vm. No, během toho se tam pouštěly testy na těch vmkách (paralelně třeba na 12 vm), zejména pgbench (to používám jako univerzální test - mám v hlavně tps různých systémů a kolik je tak typická hodnota). A v podstatě stačilo počkat pár hodin a potom ceph lehl. A to v jakékoliv konfiguraci připojení těch vm (nfs, iscsi, rbd, cephfs). Potom teda kolega přešel na testy rovnou z fyzického stroje, hodil tam bonie++ a za pár hodin to opět lehlo. Kde "to" byla nejspíš nějaká vrstva mezi OSD a klienty (možná librados). Navíc ono to ani nefungovalo správně. Od verze 11, kde je cepfs považován za stabilní byl ale stále doporučován jeden metadata server s tím, že by se měl po jeho pádu automaticky nahodit druhý. Nikdy se nenahodil. Metadata server spadl a cephfs prostě nebyl. Od verze 12 by mělo být možné používat více metadata serverů. Takže recept je nejspíš několikahodinová vysoká zátěž náhodných přístupů.
Potom jsme testovali rbd přímo v těch vmkách (tj vmka bootovala z malého disku a potom si připojila rbd a na tom byl oddíl pro data).Pokud to bylo kernelovým /dev/rbd, tak jestli si správně pamatuju, na loňských Linux Days to někdo nedoporučoval - že prej při jejich testování ten kernel dokázal deadlocknout souběžný přístup ze dvou procesů na jedno blokové zařízení (nebo to bylo z jednoho procesu?) Pochopil jsem to tenkrát tak, že vývojáři cephu se rozhodli, že vyvíjet pro kernel je těžké, a na kernelového RBD klienta se víceméně vykašlali. Ale to je jenom moje spekulace, nic víc.
Zkoušelo se připojit RBD přes iSCSIJestli to znamená /dev/rbd v nějakém linuxovém stroji, který to pak exportuje jako iSCSI, tak je to vlastně totéž jako předchozí případ.
Od verze 11, kde je cepfs považován za stabilní byl ale stále doporučován jeden metadata server s tím, že by se měl po jeho pádu automaticky nahodit druhý. Nikdy se nenahodil. Metadata server spadl a cephfs prostě nebyl.No, pokud se pamatuju, tak podle dokumentace "měl by se" znamená, že tam má být (třeba) pacemaker, který to udělá. Já jsem to neřešil, protože pacemaker úplně nemusím, cephfs pro mě není kritický, takže jsem si počkal, než budou podporovat i víc souběžných metadata serverů.
Takže recept je nejspíš několikahodinová vysoká zátěž náhodných přístupů.To by se asi vyzkoušet dalo. Já na tom momentálně mám akorát jedno (K)VM, které má integrovanou podporu pro RBD - běží to stabilně, ale moc to nedělá - munin (takže brát s rezervou) ukazuje řádově stovky iops při práci se zálohami, ale je to nárazové a mezitím se neděje nic.
Já na tom momentálně mám akorát jedno (K)VM, které má integrovanou podporu pro RBD - běží to stabilně, ale moc to nedělá - munin (takže brát s rezervou) ukazuje řádově stovky iops při práci se zálohami, ale je to nárazové a mezitím se neděje nic.Implementace RBD pro KVM je jiná než v kernelu? No naše testy běžely kolem 3tis. iops. Včetně SSD OSD cache. Což je teda dost bída. 3 stroje (jo, to je docela málo), 6xSSD (každý stroj dvě) a disky (každý stroj cca 24 disků), pro každou skupinu disků jedno SSD. Co se týče RAM, tak 128GB+192GB+192GB (takže min. čtení bych očekával z cache - ani to se nepotvrdilo). Vše na 10GBe síti. Sekvenčně to dalo z jednoho RBD cca 400MB/s, když se to pustilo paralelně, tak 800MB/s. To se dá považovat za maximum na dané síti. Proč má jedno RBD tam malý výkon nevím. Ale sekvenční testy jsou celkem na nic. Random testy z toho dokázaly vytáhnout max 3tis. iops. To už to jedno SSD dá mnohem víc.
Tak jestli je tohle pravda, tak je ceph prakticky nepoužitelný.No, co se chlubí, tak to firmy používají ve velkém, takže tady možná chybí "pro nás"
Implementace RBD pro KVM je jiná než v kernelu?Jo. Knihovna pro RBD v Qemu block-rbd.so podle
ldd
používá librados.so.2, tj. čistě user space kód, který se nejspíš trochu víc vyvíjí a udržuje. Host ty disky vidí jako SCSI disky, takže jeho jaderné RBD vůbec nepřijde ke slovu.
No naše testy běžely kolem 3tis. iops. Včetně SSD OSD cache.Co přesně byla ta "OSD cache"? Z toho "pro každou skupinu disků jedno SSD" mi to zní, že to nebyla cache, ale journal device - pro každý disk jeden oddíl na tom SSD. Nebo to skutečně byla cache, tj. tohle http://docs.ceph.com/docs/jewel/rados/operations/cache-tiering/ ?
No, co se chlubí, tak to firmy používají ve velkém, takže tady možná chybí "pro nás"Tak v původní větě byl kondicionál. Pokud je pravda to, co jsi tvrdil ty, tak je to nepoužitelné. Ano, z mého pohledu. Komentář vždy píšu z mého pohledu.
Knihovna pro RBD v Qemu block-rbd.so podle ldd používá librados.so.2, tj. čistě user space kódOk, ale to by nám aktuálně nepomohlo, my jsme ta data potřebovali exportovat z toho clusteru, takže NFS nebo iSCSI.
Co přesně byla ta "OSD cache"?XFS journal.
Komentář vždy píšu z mého pohledu.To nejspíš každý - ale i tak je mezi "ceph je prakticky nepoužitelný" a "ceph je pro nás prakticky nepoužitelný" docela rozdíl.
XFS journal.OSD cache a XFS journal mi teda přijdou jako dvě docela různé věci
3*24 15k SAS disků by v hrubém výkonu (250 iops na jeden disk) mělo dát 18tis. iops. Pokud budu počítat 200 iops (což ty disky dají víc), tak je to stále nějakých 14 tis. iops.Tohle jsou ale přece hrušky a jablka, číslo relevantní akorát pro raid 0. Ve chvíli, kdy z těch disků poskládáte raid 10, jste pro 2 kopie dat u zápisu na nějakých 7 tisících (dělím těch 14.) Pro 3 kopie na teoretickém maximu 4800 iops. Ceph ve výchozím nastavení ukládá všechna data ve 3 kopiích, takže jste na těch 4800 přinejlepším - když nemáte dedikované journal device, tak mezi 4800 a polovinou z toho.
A to vůbec nemluvím o těch SSDkčách. Intel SSD 3700 dá s prstem v nose samo 20tis. iops.Jenže ho používáte jako cache nebo XFS journal nebo co, takže při dlouhém testu nevyhnutelně dojdete do stavu, kdy na něm dojde místo, protože writeback na rotační disky nestíhá - to už jsem psal. Samozřejmě si pomůžete na tom, že se přehází jednotlivé I/O operace, ale realisticky se výkonem budete pohybovat na straně toho rotačního disku.
Takže když to spočítám, hrubý výkon všeho by se dal odhadovat na 134400 iops. Jesti z tohoto HW ceph vytáhne jen 3tis. tak je to (opět z mého soukromého pohledu), dost málo. To ten HW jsem schopen využít jinak a lépe.To máte dobré, ale i tak bych se zdráhal vynášet soudy - protože z dostupných informací bych rohodně nedal ruku do ohně za to, že jste ten Ceph měli dobře nastavený.
Tohle jsou ale přece hrušky a jablkaJe to ukazatel toho, co je teoreticky dostupné a lze to porovnávat s tím, co je dostupné i prakticky. Jestliže se dosáhne na polovinu toho (RAID10 - 100% výkon při čtení, 50% výkon při zápisu), tak je to pořád lepší než 20% při zápisu a nepřesvědčivé čtení.
To máte dobré, ale i tak bych se zdráhal vynášet soudy - protože z dostupných informací bych rohodně nedal ruku do ohně za to, že jste ten Ceph měli dobře nastavený.No to já taky ne, ale i to ukazuje na kvalitu cephu. Kdyby bylo po mém, tak se celé testování cephu zastaví hned v počátku (a ušetřím si i tuto diskusi), protože podle oficiální "quick start" dokumentace to nebylo vůbec možné nainstalovat (příkazy měly jiné parametry, některé ani neexistovaly apod.) Už jen toto je v mém hodnocení stopka pro nasazení něčeho tak důležitého, jako je storage "pro všechno". Když není v pořádku ani dokumentace, tak podle čeho se potom chcete řídit v provozu, když se něco stane. Kolega, co měl větší trpělivost, to nakonec rozjel do stavu, kdy už to teda fungovalo. Jako co se týče integrity dat, trápili jsme to hodně, vytahovali disky, vypínali nody, killovali procesy, všechno ustál. Klobouk dolů. V té době jsem k tomu už dostával důvěru, ale přišlo na řadu testování napojení na okolní svět a to se teda nepodařilo spolehlivě zařídit.
RAID10 - 100% výkon při čtení, 50% výkon při zápisu33% výkon při zápisu. Buď to, nebo řekněte, že jste měli v tom cephu přenastavený počet replik. Jasně, 33% je taky lepší než 20%, ale už ne o moc, něco vás stojí fakt, že to není raid, a taky jsme se pořád ještě nevypořádali s potenciálními chybami v návrhu/nastavení.
Kdyby bylo po mém, tak se celé testování cephu zastaví hned v počátku (a ušetřím si i tuto diskusi)Tak jestli vám vadí diskuze, tak se na ni můžeme vykašlat. Svět se nezboří.
protože podle oficiální "quick start" dokumentace to nebylo vůbec možné nainstalovatJo, na něco takového si vzpomínám taky. Zase tak velký problém jsem s tím neměl, protože ten quickstart návod mi přišel, že to udělá něco nějak a já nebudu mít tušení, co - nic moc výchozí pozice právě pro ty případy, kdy se něco stane. Takže instalovat podle kapitoly o manuální instalaci mi zase tak nevadilo. Navíc takhle zpětně mi přijde, že ten quickstart je návod pro někoho, kdo si s tím chce jenom pokusně hrát.
V té době jsem k tomu už dostával důvěru, ale přišlo na řadu testování napojení na okolní svět a to se teda nepodařilo spolehlivě zařídit.Jo, jestli hledáte něco pro VMWare a cephfs vám nefunguje ani na verzi 12, tak ceph není pro vás. Aspoň než si výrobci komerčních věcí všimnou a dopíšou podporu.
33% výkon při zápisuRAID10 má 50% výkon při zápisu.
Buď to, nebo řekněte, že jste měli v tom cephu přenastavený počet replik.Ne, počet replik byl defaultní, tedy 3. Akorát nevím, proč bych měl každé číslo vztahovat k tomu, jak to zrovna má ceph.
Jo, jestli hledáte něco pro VMWare a cephfs vám nefunguje ani na verzi 12, tak ceph není pro vás.Tak ono to není o vmware. Sám jsi v této diskusi psal, že RBD v kernelu se může seknout. Tím se fakticky vylučuje export blokového zařízení (takže i věci jako iscsi, nebo třeba gfs2 nebo ocfs2 - mít nad tím blockdevice clustrový fs). Dál zbývá jen cephfs a ten objektový přístup (ten se mi koncepčně líbí úplně nejvíc, ale taky pro něj nemáme využití). No CephFS ve verzi 10 měl pouze jeden metadata server (to mi pro produkční prostředí nepřijde úplně nejlepší) a ve všech testovaných verzích se nám ho podařilo shodit (ale podrobnosti nevím, já to nedělal). Takže bez ohledu na vmware, se z toho prakticky ta data nedají dostat.
Aspoň než si výrobci komerčních věcí všimnou a dopíšou podporu.Viz výše. Nevím, co by ta podpora měla zahrnovat. iSCSI používám běžně i mezi linuxama, je to prostě univerzální prostředek jak dostat blokové zařízení po síti někam jinam. (O NBD samozřejmě vím, ale to stále neřeší problém RBD v jádře).
Ne, počet replik byl defaultní, tedy 3. Akorát nevím, proč bych měl každé číslo vztahovat k tomu, jak to zrovna má ceph.Tak jako hlavní důvod bych viděl, aby se srovnávalo srovnatelné. Ten RAID má 2 kopie dat, když vám jeden disk umře a během resyncu umře druhý*, tak jste přišel o data. Ceph má s výchozím nastavením 3 kopie, tj. poskytuje větší redundanci a to má logicky nějakou cenu. Když si sestavíte RAID 10 (nebo jak se to pak bude jmenovat) se 3 kopiemi dat, aby se srovnávalo srovnatelné, tak na těch 50% výkonu taky nedosáhnete.
Takže bez ohledu na vmware, se z toho prakticky ta data nedají dostat.No to je právě to, co záleží na prostředí. Virtualizace s QEMU/KVM třeba nemá problém. A samozřejmě jsou tu věci specifické pro konkrétní aplikace, třeba nedávno na té suse akci prezentovaný storage modul pro Dovecot, který Ceph využívá jako key-value databázi na ukládání mailů.
Nevím, co by ta podpora měla zahrnovat.No kde bych primárně očekával, že se podpora objeví, by mohl být ten VMWare. I když ti vlastně AFAIK nějakou vlastní softwarově definovanou storage mají taky, takže se do toho možná hnát nebudou, protože proč si podkopávat vendor lock-in. Ale jinak když mohou existovat iSCSI karty, klidně by mohly existovat i RBD karty (ne že bych to viděl jako pravděpodobné, ale šlo by to.) * automaticky počítám s tím, že to bude "ten správný", protože zákon schválnosti** ** no dobře, tady by se dalo namítnout, že u RAID10 mám šanci, že umře jiný disk a o data nepřijdu, zatímco u cephu, když při 2 replikách umřou dva disky, tak se nějaká data ztratí stoprocentně. Na druhou stranu u toho RAID10 se musí synchronizovat celý disk na jiný disk, zatímco ceph bude synchronizovat z každého zbývajícího disku jednu část dat a souběžně. Pro tu 3x24 konfiguraci to vychází, jestli se nepletu, na 1/48 podíl na každý relevantní disk, tj. pro 1TB disky každý zbývající disk musí přečíst 21GB dat. IMO se ty pravděpodobnosti katastrofy vyrovnají.
Tak jako hlavní důvod bych viděl, aby se srovnávalo srovnatelné.Tak taky se na ten systém můžu podívat jako na black box. Tady máš data, nějak je ulož. Nehledě na to, že existují systémy s možností více replik dat, ale potvrzený zápis se klientovi vrátí dřív, třeba při provedených zápisech na dvě zařízení (a další repliky si to udělá asynchronně).
Virtualizace s QEMU/KVM třeba nemá problém. A samozřejmě jsou tu věci specifické pro konkrétní aplikace, třeba nedávno na té suse akci prezentovaný storage modul pro Dovecot, který Ceph využívá jako key-value databázi na ukládání mailů.Jo, ta prezentace německé pošty je pěkná. Akorát nevím, jestli je skutečně cílem cephu to, aby si každý psal vlastní konektor do cephu a ten cephfs a rbd (a ostatně i ten objektový přístup - v té prezentaci se píše, že to příliš neškáluje) jsou tam jen na ozdobu.
Tak taky se na ten systém můžu podívat jako na black box.Tak to bych si u sebe dovedl představit akorát u něčeho, na čem mi nezáleží
Akorát nevím, jestli je skutečně cílem cephu to, aby si každý psal vlastní konektor do cephu a ten cephfs a rbd (a ostatně i ten objektový přístup - v té prezentaci se píše, že to příliš neškáluje) jsou tam jen na ozdobu.No, vzato kolem a kolem, rbd a cephfs jsou taky konektory do cephu - u RBD je klíčem identifikátor bloku, hodnota je ten blok. Cephu je to jedno, rozdíl je akorát to, že oproti osatním jsou tyhle dva způsoby využití trochu rozšířené přímo v tom, co ceph dodává - cephfs má metadata servery a RBD nástroje na správu těch blokových zařízení. Takže bych řekl, že je to přesně záměrem - nevyhovuje ti nic, co máme zabudované? Udělej si vlastní implementaci.
Největším problémem jsou licence. Ty hází klacky pod nohy neuvěřitelně.<napřesdržku>Tak, je to Oracle, to za ty peníze stojí, protože nikdo jiný tak dobrou databázi vyrobit neumí, ne?</napřesdržku>
Současný stav je, že mám dva Netapp storage, mezi nimiž běží replikace (replikuji SVM - virtuální server včetně všech volume, který v rámci NetAppu zajišťuje NFS službu a další). Nad tím primárním mám ESXi cluster ze třech nabušených serverů, jeden může jít down a zbývající dva to utáhnou. V záložní lokalitě mám další ESXi cluster, kde mám dva nabušené stroje a přibyde další.Ano. Tohle moc dobře znám
Největším problémem jsou licence. Ty hází klacky pod nohy neuvěřitelně. A těm se přizpůsobuje hw řešení.Jo.
To ty s Postgresem asi neznáš.Neznám.
Morgoši ukradli kabely. ČEZ to dneska opravuje. Celá nemocnice běží na dieslech. A kolem 17. hodiny jeden zakolisal a odpalil ups a padlo celý Datacentrum... Odeslo cely diskovy pole, takze top specialista z hp sedl a letel sem. A kdyz obnovoval to pole po castech, tak to padlo znovu. Ted bezi ze zalozni lokality.
Navíc nejde jednoduše srovnat verze jedním upgradem, protože je potřeba postupovat postupně podle major verzí (nejde moc přeskakovat).To je smutný když nemaj něco jako boot sektor, kterej se nemění (třeba jako uboot partišna v embedded) :-/.
Jeden update žere 15-20min času a v našem případě bylo potřeba udělat update 3 s tím, že dodaný řadič jsem hodil do jiného storage a upgradnul jsem si u něj fw jinde.Kolik gigabajtů ten firmware má? :-O Nebo se to tam cpe po nějakým UARTu?
web ksichtOMG flashovat firmware řadiče přes web
ftpo_O
a v našem případě bylo potřeba udělat update 3 s tím, že dodaný řadič jsem hodil do jiného storage a upgradnul jsem si u něj fw jindeTu kartu jsi teda držel v ruce ne? To je pro JTAG vzdálenost víc než dostačující. Nebo tys tím webem a ftp myslel obecný přístup pro dopravu libovolného souboru na počítač hostující tu kartu? (já myslel na blackbox stroj asi jako DSL modemy, kde je přímo flashovací webový formulář a jiné soubory se uploadovat nedají). To pak asi jo, ale to s bezpečností ftp by tam platilo stejně
pokusů bylo 20 po 2min, takže místo 15min upgrade trval první asi hodinuu JTAGu to je nezávislé na tom jak se interní OS v řadiči vyspí (=když má každá major verze vlastní standard updatu), protože je to JTAG, kdo přímo zapisuje instrukce CPU. Dále ve specifikaci PCI/PCIe karty jsou přímo piny na JTAG, takže karta by se ani nemusela vytahovat z (ideální) desky.
ten controller, to není nic jiného, než kompletní PCJo ale těch 50MB určitě nebude obraz nějaký openwrt distribuce. To bude firmware nějakýho RISC CPU na řadiči SCSI/SATA/SAS atd. Mám tu například starou SCSI kartu, kde je am29k, a byly i s i960.
Když web chcípne, což zachvíli chcípne, tak update běží dál.Jo takže to běží nejspíš na tom PC a updatuje to diskový řadič. U modemů/routerů to ale updatuje ten samej hw, na kterým to běží. Dokázala by to ta vzdálená utilita opravit, kdyby v půlce flashování vypadl proud?
23:37:25.395 Checking if controller is UP after restart .. 23:37:25.457 > ***.***.***.*** login: admin 23:37:25.504 > Password: 23:37:26.426 > HP StorageWorks MSA Storage P2000G3 FC/iSCSI 23:37:26.426 > System Name: Primary 23:37:26.426 > System Location: Uninitialized Location 23:37:26.426 > Version: TS250P003 23:37:26.426 telnet: set cli-parameters api pager disabled (1) 23:37:26.442 Attempt : 0 23:37:26.442 Controller is Reachable .. 23:37:26.442 Controller Status Check 23:37:26.520 > ***.***.***.*** login: admin 23:37:26.567 > Password: 23:37:27.176 > HP StorageWorks MSA Storage P2000G3 FC/iSCSI 23:37:27.176 > System Name: Primary 23:37:27.176 > System Location: Uninitialized Location 23:37:27.176 > Version: TS250P003 23:37:27.176 telnet: set cli-parameters api pager disabled (1) 23:37:27.207 Flashing Array to firmware version : TS252P005 23:37:27.286 Starting Controller Flash: this will take approximately 30 mins. The actual time may vary depending on your configuration. 23:37:27.426 ftp state is : 1 23:37:27.426 ftp state is : 2 23:37:27.426 ftp state is : 3 23:37:27.442 Connected to the controller. 23:37:27.442 Setting FTP session max time duration to 90 Minutes 23:37:27.504 ftp state is : 4 23:37:27.504 Logged into the controller. 23:37:33.583 File uploaded, bytes written: 38563840 23:37:33.583 File uploaded, bytes written: 23:37:41.630 ftp: socket disconnect 23:37:41.662 FTP >> File Transfer Complete. Starting Operation: 23:37:44.287 FTP >> Checking component list 23:37:44.349 FTP >> mc bundle component check passed. 23:37:44.349 FTP >> Checking bundle integrity... 23:37:55.334 FTP >> Initial mc file integrity checks passed. 23:37:55.334 FTP >> Checking system health. 23:38:01.522 FTP >> System health check complete. Health state: Degraded 23:38:01.553 FTP >> Stopping Management Controller applications. 23:38:09.148 FTP >> Starting message server 23:38:09.367 FTP >> Initial connection to SC successful. 23:38:09.538 FTP >> STATUS: Updating Expander Controller firmware. 23:38:09.663 FTP >> Updating Expander Controller firmware. (bus ID = 0, target ID = 31) 23:38:09.663 FTP >> Loading Expander (0:31) 23:38:09.663 FTP >> Sending Expander firmware to Storage Controller buffer 23:38:09.710 FTP >> Updating EC Image:Remaining size 1092021 23:38:10.757 FTP >> Updating EC Image:Remaining size 928181 23:38:11.804 FTP >> Updating EC Image:Remaining size 764341 23:38:12.851 FTP >> Updating EC Image:Remaining size 600501 23:38:13.882 FTP >> Updating EC Image:Remaining size 436661 23:38:14.914 FTP >> Updating EC Image:Remaining size 272821 23:38:15.961 FTP >> Updating EC Image:Remaining size 108981 23:38:16.648 FTP >> Firmware has been sent to the Storage Controller buffer. Beginning EMP update. 23:38:16.648 FTP >> Sending firmware from SC buffer to device 0:31 23:38:16.976 FTP >> Updating EMP Image:Remaining size 1100213 23:38:19.102 FTP >> Updating EMP Image:Remaining size 1034677 23:38:21.211 FTP >> Updating EMP Image:Remaining size 969141 23:38:23.305 FTP >> Updating EMP Image:Remaining size 903605 23:38:25.399 FTP >> Updating EMP Image:Remaining size 838069 23:38:27.524 FTP >> Updating EMP Image:Remaining size 772533 23:38:29.633 FTP >> Updating EMP Image:Remaining size 706997 23:38:31.743 FTP >> Updating EMP Image:Remaining size 641461 23:38:33.884 FTP >> Updating EMP Image:Remaining size 575925 23:38:36.009 FTP >> Updating EMP Image:Remaining size 510389 23:38:38.118 FTP >> Updating EMP Image:Remaining size 444853 23:38:40.197 FTP >> Updating EMP Image:Remaining size 379317 23:38:42.322 FTP >> Updating EMP Image:Remaining size 313781 23:38:44.431 FTP >> Updating EMP Image:Remaining size 248245 23:38:46.541 FTP >> Updating EMP Image:Remaining size 182709 23:38:48.650 FTP >> Updating EMP Image:Remaining size 117173 23:38:50.776 FTP >> Updating EMP Image:Remaining size 51637 23:38:52.713 FTP >> Expander Controller firmware was updated successfully. 23:38:52.713 FTP >> Finished updating EC firmware. 23:38:52.916 FTP >> STATUS: Updating expansion-module firmware. 23:38:52.994 FTP >> Performed rescan at the beginning of the expansion-module firmware update. Waiting a few seconds... 23:39:03.026 FTP >> No expansion enclosures were found. 23:39:03.026 FTP >> Finished updating expansion-module firmware. 23:39:03.886 FTP >> STATUS: Updating Storage Controller firmware. 23:39:03.948 FTP >> Controller current bundle: TS250P003,loading bundle TS252P005 23:39:03.948 FTP >> Instructing SC to shut down and reboot when finished updating 23:39:36.513 FTP >> Waiting 5 seconds for SC to shutdown. 23:39:41.560 FTP >> Shutdown of SC successful. 23:39:41.560 FTP >> Sending new firmware to SC. 23:39:41.748 FTP >> Updating SC Image:Remaining size 6845206 23:39:42.732 FTP >> Updating SC Image:Remaining size 6517526 23:39:43.732 FTP >> Updating SC Image:Remaining size 6189846 23:39:44.717 FTP >> Updating SC Image:Remaining size 5862166 23:39:45.717 FTP >> Updating SC Image:Remaining size 5534486 23:39:46.701 FTP >> Updating SC Image:Remaining size 5206806 23:39:47.686 FTP >> Updating SC Image:Remaining size 4879126 23:39:48.686 FTP >> Updating SC Image:Remaining size 4551446 23:39:49.670 FTP >> Updating SC Image:Remaining size 4223766 23:39:50.670 FTP >> Updating SC Image:Remaining size 3896086 23:39:51.655 FTP >> Updating SC Image:Remaining size 3568406 23:39:52.639 FTP >> Updating SC Image:Remaining size 3240726 23:39:53.639 FTP >> Updating SC Image:Remaining size 2913046 23:39:54.624 FTP >> Updating SC Image:Remaining size 2585366 23:39:55.624 FTP >> Updating SC Image:Remaining size 2257686 23:39:56.608 FTP >> Updating SC Image:Remaining size 1930006 23:39:57.608 FTP >> Updating SC Image:Remaining size 1602326 23:39:58.593 FTP >> Updating SC Image:Remaining size 1274646 23:39:59.577 FTP >> Updating SC Image:Remaining size 946966 23:40:00.577 FTP >> Updating SC Image:Remaining size 619286 23:40:01.546 FTP >> Updating SC Image:Remaining size 291606 23:40:02.421 FTP >> Waiting for Storage Controller to complete programming. 23:40:47.580 FTP >> Please wait... 23:41:18.067 FTP >> Storage Controller has completed programming. 23:41:18.067 FTP >> Updating SC Image:Remaining size 0 23:41:18.067 FTP >> Waiting for SC reboot. 23:42:02.785 FTP >> Please wait... 23:42:23.083 FTP >> . 23:42:23.083 FTP >> Storage Controller has rebooted. 23:42:23.083 FTP >> Storage Controller has been updated, proceeding to next step. 23:42:23.990 FTP >> STATUS: Updating Management Controller firmware 23:42:23.990 FTP >> MC current version: L250R027-01,loading version L252R021-01 23:42:24.287 FTP >> Checking sub-bundle integrity... 23:42:25.068 FTP >> Sub-bundle management controller file integrity checks passed 23:42:25.084 FTP >> Raising MC shields 23:42:31.912 FTP >> Successfully unmounted /app filesystem 23:42:31.912 FTP >> Starting message server 23:42:34.287 FTP >> Loading the Management Controller Loader 23:42:34.303 FTP >> Loader sector write detected. 23:42:34.303 FTP >> Flash /mnt/ramdisk/mc/components/ARMLoader.bin to /dev/mtdblock0 23:42:34.303 FTP >> Comparing Sector 0, size 19 KiB 23:42:34.334 FTP >> Flash image is the same, no need to re-flash. 23:42:34.334 FTP >> Finished loading Management Controller Loader 23:42:34.334 FTP >> Loading the Management Controller Loader 23:42:34.350 FTP >> Loader sector write detected. 23:42:34.350 FTP >> Flash /mnt/ramdisk/mc/components/ARMLoader.bin to /dev/mtdblock1 23:42:34.350 FTP >> Comparing Sector 0, size 19 KiB 23:42:34.381 FTP >> Flash image is the same, no need to re-flash. 23:42:34.381 FTP >> Finished loading Management Controller Loader 23:42:34.428 FTP >> Loading the Management Controller Kernel 23:42:34.444 FTP >> Flash /mnt/ramdisk/mc/components/kernel.bin to /dev/mtdblock2 23:42:34.444 FTP >> Comparing Sector 0, size 128 KiB 23:42:34.522 FTP >> Flash needs to change.....doing the reprogramming 23:42:34.522 FTP >> Flashing Sector 0 of 39 23:42:34.569 FTP >> Flashing Sector 1 of 39 23:42:35.537 FTP >> Flashing Sector 2 of 39 23:42:37.147 FTP >> Flashing Sector 3 of 39 23:42:38.210 FTP >> Flashing Sector 4 of 39 23:42:39.350 FTP >> Flashing Sector 5 of 39 23:42:40.491 FTP >> Flashing Sector 6 of 39 23:42:41.335 FTP >> Flashing Sector 7 of 39 23:42:43.022 FTP >> Flashing Sector 8 of 39 23:42:44.054 FTP >> Flashing Sector 9 of 39 23:42:45.007 FTP >> Flashing Sector 10 of 39 23:42:46.398 FTP >> Flashing Sector 11 of 39 23:42:47.444 FTP >> Flashing Sector 12 of 39 23:42:48.335 FTP >> Flashing Sector 13 of 39 23:42:49.523 FTP >> Flashing Sector 14 of 39 23:42:50.460 FTP >> Flashing Sector 15 of 39 23:42:51.304 FTP >> Flashing Sector 16 of 39 23:42:52.679 FTP >> Flashing Sector 17 of 39 23:42:53.586 FTP >> Flashing Sector 18 of 39 23:42:54.554 FTP >> Flashing Sector 19 of 39 23:42:55.867 FTP >> Flashing Sector 20 of 39 23:42:56.836 FTP >> Flashing Sector 21 of 39 23:42:57.773 FTP >> Flashing Sector 22 of 39 23:42:58.961 FTP >> Flashing Sector 23 of 39 23:42:59.914 FTP >> Flashing Sector 24 of 39 23:43:00.836 FTP >> Flashing Sector 25 of 39 23:43:02.180 FTP >> Flashing Sector 26 of 39 23:43:03.133 FTP >> Flashing Sector 27 of 39 23:43:03.961 FTP >> Flashing Sector 28 of 39 23:43:05.336 FTP >> Flashing Sector 29 of 39 23:43:06.227 FTP >> Flashing Sector 30 of 39 23:43:07.274 FTP >> Flashing Sector 31 of 39 23:43:08.462 FTP >> Flashing Sector 32 of 39 23:43:09.383 FTP >> Flashing Sector 33 of 39 23:43:10.243 FTP >> Flashing Sector 34 of 39 23:43:11.587 FTP >> Flashing Sector 35 of 39 23:43:12.571 FTP >> Flashing Sector 36 of 39 23:43:13.712 FTP >> Flashing Sector 37 of 39 23:43:14.743 FTP >> Flashing Sector 38 of 39 23:43:15.462 FTP >> Completed flashing image. 23:43:15.462 FTP >> Close mtd 23:43:16.087 FTP >> Done. 23:43:16.087 FTP >> Finished loading Management Controller Kernel 23:43:26.713 FTP >> Loading the Management Controller Application 23:43:26.744 FTP >> Flash /mnt/ramdisk/mc/components/app.squashfs to /dev/mtdblock8 23:43:26.760 FTP >> Comparing Sector 0, size 128 KiB 23:43:26.838 FTP >> Flash needs to change.....doing the reprogramming 23:43:26.853 FTP >> Flashing Sector 0 of 173 23:43:26.885 FTP >> Flashing Sector 1 of 173 23:43:27.869 FTP >> Flashing Sector 2 of 173 23:43:29.338 FTP >> Flashing Sector 3 of 173 23:43:30.400 FTP >> Flashing Sector 4 of 173 23:43:31.322 FTP >> Flashing Sector 5 of 173 23:43:32.869 FTP >> Flashing Sector 6 of 173 23:43:33.760 FTP >> Flashing Sector 7 of 173 23:43:34.604 FTP >> Flashing Sector 8 of 173 23:43:36.135 FTP >> Flashing Sector 9 of 173 23:43:37.104 FTP >> Flashing Sector 10 of 173 23:43:38.151 FTP >> Flashing Sector 11 of 173 23:43:39.339 FTP >> Flashing Sector 12 of 173 23:43:40.167 FTP >> Flashing Sector 13 of 173 23:43:41.136 FTP >> Flashing Sector 14 of 173 23:43:42.323 FTP >> Flashing Sector 15 of 173 23:43:43.151 FTP >> Flashing Sector 16 of 173 23:43:44.042 FTP >> Flashing Sector 17 of 173 23:43:45.495 FTP >> Flashing Sector 18 of 173 23:43:46.402 FTP >> Flashing Sector 19 of 173 23:43:47.542 FTP >> Flashing Sector 20 of 173 23:43:48.699 FTP >> Flashing Sector 21 of 173 23:43:49.745 FTP >> Flashing Sector 22 of 173 23:43:51.308 FTP >> Flashing Sector 23 of 173 23:43:52.339 FTP >> Flashing Sector 24 of 173 23:43:53.371 FTP >> Flashing Sector 25 of 173 23:43:54.761 FTP >> Flashing Sector 26 of 173 23:43:55.637 FTP >> Flashing Sector 27 of 173 23:43:57.074 FTP >> Flashing Sector 28 of 173 23:43:58.246 FTP >> Flashing Sector 29 of 173 23:43:59.184 FTP >> Flashing Sector 30 of 173 23:44:00.699 FTP >> Flashing Sector 31 of 173 23:44:01.699 FTP >> Flashing Sector 32 of 173 23:44:02.621 FTP >> Flashing Sector 33 of 173 23:44:04.012 FTP >> Flashing Sector 34 of 173 23:44:04.903 FTP >> Flashing Sector 35 of 173 23:44:05.825 FTP >> Flashing Sector 36 of 173 23:44:06.903 FTP >> Flashing Sector 37 of 173 23:44:07.809 FTP >> Flashing Sector 38 of 173 23:44:08.841 FTP >> Flashing Sector 39 of 173 23:44:09.872 FTP >> Flashing Sector 40 of 173 23:44:10.809 FTP >> Flashing Sector 41 of 173 23:44:12.200 FTP >> Flashing Sector 42 of 173 23:44:13.310 FTP >> Flashing Sector 43 of 173 23:44:14.216 FTP >> Flashing Sector 44 of 173 23:44:15.388 FTP >> Flashing Sector 45 of 173 23:44:16.450 FTP >> Flashing Sector 46 of 173 23:44:18.154 FTP >> Flashing Sector 47 of 173 23:44:19.263 FTP >> Flashing Sector 48 of 173 23:44:20.435 FTP >> Flashing Sector 49 of 173 23:44:21.482 FTP >> Flashing Sector 50 of 173 23:44:22.513 FTP >> Flashing Sector 51 of 173 23:44:24.154 FTP >> Flashing Sector 52 of 173 23:44:25.185 FTP >> Flashing Sector 53 of 173 23:44:26.029 FTP >> Flashing Sector 54 of 173 23:44:27.545 FTP >> Flashing Sector 55 of 173 23:44:28.561 FTP >> Flashing Sector 56 of 173 23:44:29.451 FTP >> Flashing Sector 57 of 173 23:44:30.842 FTP >> Flashing Sector 58 of 173 23:44:31.795 FTP >> Flashing Sector 59 of 173 23:44:32.748 FTP >> Flashing Sector 60 of 173 23:44:34.061 FTP >> Flashing Sector 61 of 173 23:44:34.952 FTP >> Flashing Sector 62 of 173 23:44:35.889 FTP >> Flashing Sector 63 of 173 23:44:37.217 FTP >> Flashing Sector 64 of 173 23:44:38.155 FTP >> Flashing Sector 65 of 173 23:44:39.124 FTP >> Flashing Sector 66 of 173 23:44:40.296 FTP >> Flashing Sector 67 of 173 23:44:41.311 FTP >> Flashing Sector 68 of 173 23:44:43.030 FTP >> Flashing Sector 69 of 173 23:44:44.015 FTP >> Flashing Sector 70 of 173 23:44:44.843 FTP >> Flashing Sector 71 of 173 23:44:46.546 FTP >> Flashing Sector 72 of 173 23:44:47.499 FTP >> Flashing Sector 73 of 173 23:44:48.640 FTP >> Flashing Sector 74 of 173 23:44:49.875 FTP >> Flashing Sector 75 of 173 23:44:50.906 FTP >> Flashing Sector 76 of 173 23:44:52.234 FTP >> Flashing Sector 77 of 173 23:44:53.281 FTP >> Flashing Sector 78 of 173 23:44:54.281 FTP >> Flashing Sector 79 of 173 23:44:56.000 FTP >> Flashing Sector 80 of 173 23:44:56.984 FTP >> Flashing Sector 81 of 173 23:44:58.078 FTP >> Flashing Sector 82 of 173 23:44:59.297 FTP >> Flashing Sector 83 of 173 23:45:00.235 FTP >> Flashing Sector 84 of 173 23:45:01.172 FTP >> Flashing Sector 85 of 173 23:45:02.469 FTP >> Flashing Sector 86 of 173 23:45:03.500 FTP >> Flashing Sector 87 of 173 23:45:04.485 FTP >> Flashing Sector 88 of 173 23:45:05.813 FTP >> Flashing Sector 89 of 173 23:45:06.813 FTP >> Flashing Sector 90 of 173 23:45:07.641 FTP >> Flashing Sector 91 of 173 23:45:08.860 FTP >> Flashing Sector 92 of 173 23:45:09.798 FTP >> Flashing Sector 93 of 173 23:45:10.563 FTP >> Flashing Sector 94 of 173 23:45:12.017 FTP >> Flashing Sector 95 of 173 23:45:13.017 FTP >> Flashing Sector 96 of 173 23:45:14.173 FTP >> Flashing Sector 97 of 173 23:45:15.423 FTP >> Flashing Sector 98 of 173 23:45:16.376 FTP >> Flashing Sector 99 of 173 23:45:17.704 FTP >> Flashing Sector 100 of 173 23:45:18.751 FTP >> Flashing Sector 101 of 173 23:45:19.642 FTP >> Flashing Sector 102 of 173 23:45:21.330 FTP >> Flashing Sector 103 of 173 23:45:22.549 FTP >> Flashing Sector 104 of 173 23:45:23.502 FTP >> Flashing Sector 105 of 173 23:45:24.924 FTP >> Flashing Sector 106 of 173 23:45:25.986 FTP >> Flashing Sector 107 of 173 23:45:27.033 FTP >> Flashing Sector 108 of 173 23:45:28.299 FTP >> Flashing Sector 109 of 173 23:45:29.127 FTP >> Flashing Sector 110 of 173 23:45:30.440 FTP >> Flashing Sector 111 of 173 23:45:31.393 FTP >> Flashing Sector 112 of 173 23:45:32.268 FTP >> Flashing Sector 113 of 173 23:45:34.174 FTP >> Flashing Sector 114 of 173 23:45:35.159 FTP >> Flashing Sector 115 of 173 23:45:35.940 FTP >> Flashing Sector 116 of 173 23:45:37.596 FTP >> Flashing Sector 117 of 173 23:45:38.628 FTP >> Flashing Sector 118 of 173 23:45:39.518 FTP >> Flashing Sector 119 of 173 23:45:40.972 FTP >> Flashing Sector 120 of 173 23:45:41.878 FTP >> Flashing Sector 121 of 173 23:45:42.878 FTP >> Flashing Sector 122 of 173 23:45:44.222 FTP >> Flashing Sector 123 of 173 23:45:45.066 FTP >> Flashing Sector 124 of 173 23:45:45.941 FTP >> Flashing Sector 125 of 173 23:45:47.238 FTP >> Flashing Sector 126 of 173 23:45:48.113 FTP >> Flashing Sector 127 of 173 23:45:49.019 FTP >> Flashing Sector 128 of 173 23:45:50.410 FTP >> Flashing Sector 129 of 173 23:45:51.238 FTP >> Flashing Sector 130 of 173 23:45:52.238 FTP >> Flashing Sector 131 of 173 23:45:53.426 FTP >> Flashing Sector 132 of 173 23:45:54.441 FTP >> Flashing Sector 133 of 173 23:45:55.285 FTP >> Flashing Sector 134 of 173 23:45:56.254 FTP >> Flashing Sector 135 of 173 23:45:57.613 FTP >> Flashing Sector 136 of 173 23:45:58.957 FTP >> Flashing Sector 137 of 173 23:46:00.207 FTP >> Flashing Sector 138 of 173 23:46:01.473 FTP >> Flashing Sector 139 of 173 23:46:02.598 FTP >> Flashing Sector 140 of 173 23:46:03.567 FTP >> Flashing Sector 141 of 173 23:46:04.895 FTP >> Flashing Sector 142 of 173 23:46:05.833 FTP >> Flashing Sector 143 of 173 23:46:06.801 FTP >> Flashing Sector 144 of 173 23:46:07.880 FTP >> Flashing Sector 145 of 173 23:46:08.786 FTP >> Flashing Sector 146 of 173 23:46:10.083 FTP >> Flashing Sector 147 of 173 23:46:11.192 FTP >> Flashing Sector 148 of 173 23:46:12.130 FTP >> Flashing Sector 149 of 173 23:46:12.989 FTP >> Flashing Sector 150 of 173 23:46:13.802 FTP >> Flashing Sector 151 of 173 23:46:15.130 FTP >> Flashing Sector 152 of 173 23:46:16.146 FTP >> Flashing Sector 153 of 173 23:46:17.162 FTP >> Flashing Sector 154 of 173 23:46:18.271 FTP >> Flashing Sector 155 of 173 23:46:19.162 FTP >> Flashing Sector 156 of 173 23:46:20.334 FTP >> Flashing Sector 157 of 173 23:46:21.349 FTP >> Flashing Sector 158 of 173 23:46:22.193 FTP >> Flashing Sector 159 of 173 23:46:23.553 FTP >> Flashing Sector 160 of 173 23:46:24.725 FTP >> Flashing Sector 161 of 173 23:46:25.646 FTP >> Flashing Sector 162 of 173 23:46:26.881 FTP >> Flashing Sector 163 of 173 23:46:27.787 FTP >> Flashing Sector 164 of 173 23:46:28.725 FTP >> Flashing Sector 165 of 173 23:46:30.053 FTP >> Flashing Sector 166 of 173 23:46:31.053 FTP >> Flashing Sector 167 of 173 23:46:31.928 FTP >> Flashing Sector 168 of 173 23:46:33.397 FTP >> Flashing Sector 169 of 173 23:46:34.913 FTP >> Flashing Sector 170 of 173 23:46:36.663 FTP >> Flashing Sector 171 of 173 23:46:38.225 FTP >> Flashing Sector 172 of 173 23:46:39.835 FTP >> Completed flashing image. 23:46:39.835 FTP >> Close mtd 23:46:41.085 FTP >> Done. 23:46:41.085 FTP >> Finished loading Management Controller Application 23:46:51.539 FTP >> Finished updating Management Controller firmware 23:46:51.617 FTP >> Updating system configuration files 23:46:52.398 FTP >> System configuration complete 23:46:52.430 FTP >> Lowering MC shields 23:46:52.492 FTP >> ========================================== 23:46:52.492 FTP >> Software Component Load Summary: 23:46:52.508 FTP >> MC Software: SUCCESSFUL 23:46:52.523 FTP >> SC Software: SUCCESSFUL 23:46:52.523 FTP >> EC Software: SUCCESSFUL 23:46:52.539 FTP >> Expansion Software: NOT ATTEMPTED 23:46:52.539 FTP >> ========================================== 23:46:53.117 FTP >> Code load completed successfully. 23:46:53.117 FTP >> Restarting Management Controller... 23:46:53.133 Device flash status for Controller A = 1 23:50:53.149 Sleep called...exiting 23:50:53.149 Wait for Ctrlr readyVýsledkem flashování je pak ještě druhý log soubor, do kterého se zapíše, že vše proběhlo úspěšně + časy :
--------------------------------------------------------------------------- Setup Session Beginned on **/**/2017 - 23:33:01 PM --------------------------------------------------------------------------- Command Line Parameters Given: /s Controller IP is :***.***.***.*** Name: Online ROM Flash Component for Windows - HPE P2000 G3 MSA Arrays New Version: TS252P005 Beginning Silent Session... The software is installed but is not up to date. Current Version: TS250P003 - the component will be updated to the new version Device flash Successful - P2000G3 FC/iSCSI : Controller A Detailed log in :MSA2000_***_***_***_***.log The operation was successful. --------------------------------------------------------------------------- Session Ended on **/**/2017 - 23:51:17 PM ---------------------------------------------------------------------------Zdar Max
23:42:34.522 FTP >> Flashing Sector 0 of 39 ... 23:43:15.462 FTP >> Completed flashing image.Těch 19 sekund se muselo zdát jako věčnost
v takovém případě máš druhý controller a čekáš nbd na nový controller od supportu.No právě že musíš čekat než se uráčí výrobce poslat přeinstalovanou verzi. To není moc robustní řešení, ideální by bylo vyřešit to svépomocí (hlavně by se nečekalo nbd). Do toho nbd pak běží zařízení se sníženou redundancí. JTAG nejde transportovat přes TCP?
Update pomocí webu se nedá automatizovat.Proč by ne? Naopak původně webové technologie se pro automatizaci používají velice často – webové služby, REST přes HTTP(S) apod.
potom od seba uploadnut do pola cez debilne HTML rozhranie plne javascriptu, ktore pocas uploadu hadze stale nejake timeouty. Potom spustis upgrade a ten skonci s nejakou nezmyselnou chybou, ktora nikde na webe neexistuje. No a pre istotu sa ten uploadnuty subor vymaze, takze pre dalsi pokus ho musis uploadovat znovu...Nehledě na to že u toho řadiče jsem to pochopil tak, že se flashuje (PCIe?) karta v počítači, ale pro flashování je nutný webserver hostitelského počítače?
To je smutný když nemaj něco jako boot sektor, kterej se nemění (třeba jako uboot partišna v embedded) :-/.Ono je to mnohdy ještě horší. Třeba update firmware u arecy probíhá tak, že tam postupně naláduješ 4 soubory (dle manu je možno v libovolném pořadí), ale musíš vždy všechny, jinak už nenajede. Proč to nemají jako jeden soubor s fw fakt netuším. Takže to tam naláduješ, dáš reboot, a když to naběhne, tak jsi to asi udělal dobře.
debilne HTML rozhranie plne javascriptu, ktore pocas uploadu hadze stale nejake timeoutyděsivé
No a pre istotu sa ten uploadnuty subor vymaze, takze pre dalsi pokus ho musis uploadovat znovuTak to už je jen třešnička na dortu
Tiskni
Sdílej:
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.