Google oznámil, že Quick Share na Androidu funguje s AirDropem na iOS. Zatím na telefonech Pixel 10. Uživatelé tak mohou snadno přenášet soubory z telefonů s Androidem na iPhony a obráceně.
Byla vydána nová verze 8.5 (8.5.0) skriptovacího jazyka PHP používaného zejména k vývoji dynamických webových stránek. Přináší řadu novinek a vylepšení (URI Extension, Pipe Operator, Clone With, …). Vydána byla také příručka pro přechod z předchozích verzí.
Evropská komise zahájila tři vyšetřování týkající se cloudových platforem Amazon Web Services (AWS) a Microsoft Azure. Evropská exekutiva, která plní také funkci unijního antimonopolního orgánu, chce mimo jiné určit, zda jsou americké společnosti Microsoft a Amazon v cloudových službách takzvanými gatekeepery, tedy hráči, kteří významně ovlivňují provoz internetu a musí dle nařízení o digitálních trzích (DMA) na společném trhu
… více »Společnost Meta Platforms vyhrála ostře sledovaný spor o akvizici sítě pro sdílení fotografií Instagram a komunikační aplikace WhatsApp. Podle amerického soudu firma jejich převzetím neporušila antimonopolní zákon, protože si tak nemonopolizovala trh sociálních sítí. Žalobu na Metu podala před pěti lety americká Federální obchodní komise (FTC). FTC argumentovala, že Meta, tehdy známá jako Facebook, koupila tyto dvě společnosti v letech 2012 a 2014 proto, aby s nimi nemusela soutěžit.
Home Assistant včera představil svůj nejnovější oficiální hardware: Home Assistant Connect ZBT-2 pro připojení zařízení na sítích Zigbee nebo Thread.
Byla vydána verze 9.1 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a informačním videu.
Byl aktualizován seznam 500 nejvýkonnějších superpočítačů na světě TOP500. Nejvýkonnějším superpočítačem zůstává El Capitan od HPE (Cray) s výkonem 1,809 exaFLOPS. Druhý Frontier má výkon 1,353 exaFLOPS. Třetí Aurora má výkon 1,012 exaFLOPS. Nejvýkonnější superpočítač v Evropě JUPITER Booster s výkonem 1,000 exaFLOPS je na čtvrtém místě. Nejvýkonnější český superpočítač C24 klesl na 192. místo. Karolina, GPU partition klesla na 224. místo a Karolina, CPU partition na 450. místo. Další přehledy a statistiky na stránkách projektu.
Microsoft představil Azure Cobalt 200, tj. svůj vlastní SoC (System-on-Chip) postavený na ARM a optimalizovaný pro cloud.
Co způsobilo včerejší nejhorší výpadek Cloudflare od roku 2019? Nebyl to kybernetický útok. Vše začalo změnou oprávnění v jednom z databázových systémů a pokračovalo vygenerováním problém způsobujícího konfiguračního souboru a jeho distribucí na všechny počítače Cloudflare. Podrobně v příspěvku na blogu Cloudflare.
Byla vydána (Mastodon, 𝕏) první RC verze GIMPu 3.2. Přehled novinek v oznámení o vydání. Podrobně v souboru NEWS na GitLabu.
aby se kešovaly i sekvenční operace a "read_promote_adjustment" nastavit na něco malého, aby se ti kešovalo skoro všechno, co budeš číst, ale jestli to bude mít nějaký výkonnostní bonus, to těžko říciJá měl za to, že metadata-device udržuje seznam bloků uložených v cache-device, tj. jak těch načtených při čtení tak těch určených k zápisu na origin-device(dirty blocks). Proč by se muselo znova cachovat čtením z origin-device, když úspěšně propsaný dirty block obsahuje shodná data (jako origin-device).
Navíc na to SSD pak budeš i ve velkým zapisovat i jen při samotném čtení, což nebude asi také moc ok.Pokud se budou číst stejná data (scrubbing po timeline), mělo by to na základě existence daných bloků v metadata-device snad pouze přečíst odpovídající bloky z cache-device?
ale jestli to bude mít nějaký výkonnostní bonus, to těžko říciPokud diskové operace v rámci aktivního projektu probíhají na 1TB+ dat z obsahu filesystému mělo by cache-device 2TB být schopno obsahovat prakticky vše k čemu se přistupuje? Prakticky "FIFO", pokud by vše mělo stejnou váhu.
Nemůžeš si udělat workflow dat v rámci userspace?Ano to mám jako náhradní řešení. Aktivní data leží v /NVMe/xyz a je na ně vytvořen symbolický link z /mount_raid5/xyz, který se využívá v rámci projektu (kromě toho leží stejná data ještě v /mount_raid5/xyz.hdd jako redundance). Po ukončení zpracování se link zrusi a přejmenuje xyz.hdd na xyz, cimz je v budoucnu zajisteno zachovani schodne cesty jako te pouzite v rámci referenci na klipy v projektu. Bude to chtit praktický pokus.
read_promote_adjustment: READ io, default 4 write_promote_adjustment: WRITE io, default 8 discard_promote_adjustment: READ/WRITE io to a discarded block, default 1Takže nezajistíš, aby se zapisovaný soubor udržel v cache hned automaticky pro čtení. Aspoň tak mi to dle dokumentace vychází. Každopádně asi si zkusím ve volné chvíli udělat nějaký test, docela mě to zajímá, jak se to reálně umí chovat.
metadata/cache-device dev/nvme0n1: Timing buffered disk reads: 9414 MB in 3.00 seconds = 3137.43 MB/sec origin-device /dev/sdf: Timing buffered disk reads: 1526 MB in 3.00 seconds = 508.19 MB/sec
Zápis prakticky rychlostí SSD (WD500 Blue) time dd if=/dev/zero of=/raid5/bigshit2 bs=1M count=32768 32768+0 records in 32768+0 records out 34359738368 bytes (34 GB, 32 GiB) copied, 117,671 s, 292 MB/s real 1m57,677s user 0m0,020s sys 0m23,641s Prvni cteni (cache na NVMe se dle iostat plni) time cat /raid5/bigshit2 >/dev/null real 2m8,042s user 0m0,110s sys 0m12,518s prvni cteni nacachovanych dat 32GB file time cat /raid5/bigshit2 >/dev/null real 0m33,120s user 0m0,050s sys 0m9,654s druhe cteni nacachovanych dat 32GB file time cat /raid5/bigshit2 >/dev/null real 0m14,718s user 0m0,037s sys 0m6,437s (base) root@xub184:~# time cat /raid5/bigshit2 >/dev/null real 0m28,535s user 0m0,046s sys 0m8,966s (base) root@xub184:~# time cat /raid5/bigshit2 >/dev/null real 0m14,718s user 0m0,037s sys 0m6,437s (base) root@xub184:~# time cat /raid5/bigshit2 >/dev/null real 0m11,885s user 0m0,029s sys 0m6,244s (base) root@xub184:~# time cat /raid5/bigshit2 >/dev/null real 0m13,743s user 0m0,045s sys 0m6,997sdle iostat cteni z NVMe(cache device) spickove presahuje 2GB/s Pozn. RAM je 32GB, takze by se tam 32GB soubor nemel soubor vejit (zkusim radeji soubor 96GB).
zapis na origin storage (limit SATA SSD) time dd if=/dev/zero of=/raid5/bigshit3 bs=1M count=98304 98304+0 records in 98304+0 records out 103079215104 bytes (103 GB, 96 GiB) copied, 375,234 s, 275 MB/s real 6m15,255s user 0m0,041s sys 1m13,642s prvni cteni (plneni cache) time cat /raid5/bigshit3 >/dev/null real 6m14,875s user 0m0,310s sys 0m35,797s prvni cteni s vyuzitim cache prumerne >1,5GB/s time cat /raid5/bigshit3 >/dev/null real 0m58,806s user 0m0,113s sys 0m27,762s druhe cteni s vyuzitim cache time cat /raid5/bigshit3 >/dev/null real 0m51,978s user 0m0,107s sys 0m26,724sVypada to, ze dochazi k aktualizaci metadat (zapisy na NVMe pri cteni), asi pro statistiky cetnosti vyuzivani dat (idealni by bylo kdyby toto slo vypnout, donutit to aby to nedavalo prednost zadnym datum). Potvrdilo se, ze zapsane informace se nepouziji pro read-cache. Znamenalo by to v ramci naplneni cache je po nakopirovani jednorazove vycist do /dev/null. Pokud se to ovsem nebude chovat jako ciste FIFO (proc jinak ty zapisy pri cteni), neni garance ze se s novym projektem nova data dostanou do cache (statistiky vyuzivani dosavadnich dat by mohly prevazit?). V pripade takoveho chovani by se cache by se asi nejspis musela znovu reincializovat, aby se umoznilo naplneni novym obsahem. Pri praci s timeline nemusi byt cten cely soubor (scrubbing jde po datově vzajemne vzdalenych snimcich). Bez prednaplneni cache by se stridaly rychle dostupne (jiz nacachovane snimky) a ty pomale (ktere jeste nebyly nacteny/obsazeny v cache). Vypada to, ze to funguje, ale pro dany ucel mam obavu ze to bude z hlediska cache-hit ratio asi nevypocitatelne. Dana uloha je asi prilis vzdalena cilum tohoto reseni.
. Ostatně to by pak i vysvětlovalo, proč další čtení (v příkladu třetí) jsou o kapánek rychlejší, než to první z cache (v příkladu to druhé čtení).
sudo hdparm -t /dev/nvme1n1 /dev/nvme1n1: Timing buffered disk reads: 4008 MB in 3.00 seconds = 1335.94 MB/secVýdrž má být 182,5TBW, což při velikosti 32GB znamená cca 5840 úplných přepisů. Velikost struktur metadata-device se údajně stanovuje výpočtem 4M + (16 * velikost_cache_device / velikost bloku), což by při 1TB cache-device a 256KB bloku představovalo asi 65MB (0,2% kapacity Optane). Zařízení disponuje dvěma PCIe 3.0 linkami, což ukazuje i lspci.
41:00.0 Non-Volatile memory controller: Intel Corporation Device 2522 (prog-if 02 [NVM Express]) Subsystem: Intel Corporation Device 3806 ... LnkCap: Port #0, Speed 8GT/s, Width x2, ASPM not supported, Exit Latency L0s unlimited, L1 unlimited ClockPM+ Surprise- LLActRep- BwNot- ASPMOptComp+ LnkCtl: ASPM Disabled; RCB 64 bytes Disabled- CommClk+ ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt- LnkSta: Speed 8GT/s, Width x2, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt- DevCap2: Completion Timeout: Range ABCD, TimeoutDis+, LTR+, OBFF Not Supported DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis-, LTR-, OBFF Disabled LnkCtl2: Target Link Speed: 8GT/s, EnterCompliance- SpeedDis- ... Kernel driver in use: nvme
time dd if=/dev/zero of=/raid5/bigshit3 bs=1M count=98304 98304+0 records in 98304+0 records out 103079215104 bytes (103 GB, 96 GiB) copied, 377,044 s, 273 MB/s real 6m17,111s user 0m0,046s sys 1m12,945sPrvní čtení souboru z origin-device a plnění cache-device
time cat /raid5/bigshit3 >/dev/null real 6m8,772s user 0m0,280s sys 0m36,910sDruhé čtení souboru z origin-device (vypada to, že při prvním čtení se nenacacheovala všechna data, čte se i z origin) .. průměrná rychlost 96GB/83s cca 1GB/s+
time cat /raid5/bigshit3 >/dev/null real 1m23,199s user 0m0,123s sys 0m29,300sTřetí čtení souboru z origin device
time cat /raid5/bigshit3 >/dev/null real 1m18,568s user 0m0,140s sys 0m30,340sČtvrté čtení (podíl nacachovaných dat se zvětšuje)
time cat /raid5/bigshit3 >/dev/null real 1m6,874s user 0m0,148s sys 0m30,356sPáté čtení
time cat /raid5/bigshit3 >/dev/null real 0m53,109s user 0m0,114s sys 0m30,113sŠesté čtení
time cat /raid5/bigshit3 >/dev/null real 0m46,084s user 0m0,120s sys 0m29,251sSedmé čtení
time cat /raid5/bigshit3 >/dev/null real 0m42,074s user 0m0,124s sys 0m29,348sSedmé čtení
time cat /raid5/bigshit3 >/dev/null real 0m40,288s user 0m0,104s sys 0m29,255sOsmé čtení (z originu se čtou v průměru pouze jednotky MB/s)
time cat /raid5/bigshit3 >/dev/null real 0m38,916s user 0m0,123s sys 0m29,540sDeváté čtení (z originu se během celého čtení 96GB načetlo odhadem asi 10MB) .. 96GB/40s = 2,4GB/s
time cat /raid5/bigshit3 >/dev/null real 0m38,644s user 0m0,130s sys 0m29,469sAlgoritmus pro cachování má svou hlavu.
Perlička na závěr, mountpoint /raid5 nebyl nejšťastnějším. Právě mi do něj vlezl TimeShift a pokouší se bigshit3 zálohovat.
Tiskni
Sdílej: