Společnost OpenAI oznámila [𝕏], že ukončí aplikaci Sora pro generování krátkých videí pomocí umělé inteligence. Podrobné informace a harmonogram pro aplikaci a API budou brzy zveřejněny.
Evropská směrnice NIS2 přináší nové požadavky v oblasti kybernetické bezpečnosti, které se promítají také do správy doménových jmen. Do českého právního řádu je směrnice implementována prostřednictvím nového zákona o kybernetické bezpečnosti. Jedním z praktických důsledků této legislativní změny je posílení požadavků na dostupnost a správnost kontaktních údajů držitelů domén. Správce registru domény .cz, sdružení CZ.NIC, je v
… více »Jonathan Thomas oznámil vydání nové verze 3.5.0 video editoru OpenShot (Wikipedie). Zdrojové kódy OpenShotu jsou k dispozici na GitHubu. Ke stažení je i balíček ve formátu AppImage. Stačí jej stáhnout, nastavit právo na spouštění a spustit.
Byla vydána (𝕏, Bluesky) nová verze 2026.1 linuxové distribuce navržené pro digitální forenzní analýzu a penetrační testování Kali Linux (Wikipedie). Přehled novinek se seznamem 8 nových nástrojů v oficiálním oznámení na blogu.
Vláda jmenovala novým zmocněncem pro digitalizaci a strategickou bezpečnost prvního náměstka ministra vnitra Lukáše Klučku. Ten ve funkci nahradil poslance Roberta Králíčka poté, co Králíček na tento post vládního zmocněnce rezignoval. Klučka chce do roka digitalizovat všechny státní služby tak, aby vyhověly zákonu o právu na digitální služby, přičemž dosavadní plán Fialovy vlády počítal s dokončením digitalizace až někdy v roce
… více »Byl vydán Mozilla Firefox 149.0. Přehled novinek v poznámkách k vydání a poznámkách k vydání pro vývojáře. Vypíchnout lze bezplatnou vestavěnou VPN s 50 GB přenesených dat měsíčně, zobrazení dvou webových stránek vedle sebe v jednom panelu (split view) nebo možnost přidat poznámky k panelům (Firefox Labs). Řešeny jsou rovněž bezpečnostní chyby. Nový Firefox 149 bude brzy k dispozici také na Flathubu a Snapcraftu.
Byly vydány nové verze 5.3.0 a 6.0.0 svobodného multiplatformního programu pro skicování, malování a úpravu obrázků Krita (Wikipedie). Přehled novinek i s náhledy a videi v poznámkách k vydání. Obě verze vycházejí ze stejného zdrojového kódu – rozdíl je v použitých verzích Qt a KDE Frameworks. Krita 6.0.0 je první vydání postavené na Qt 6 a stále je považovaná za experimentální. Má lepší podporu Waylandu. Přináší podporu protokolu Wayland
… více »Byla vydána nová verze 10.2 z Debianu vycházející linuxové distribuce DietPi pro (nejenom) jednodeskové počítače. Přehled novinek v poznámkách k vydání. Vypíchnout lze nové balíčky Immich, Immich Machine Learning, uv a RustDesk Client.
TypeScript (Wikipedie), tj. JavaScript rozšířený o statické typování a další atributy, byl vydán v nové verzi 6.0. Příští verze 7.0 je kvůli výkonu přepisována do programovacího jazyka Go.
Christian Schaller z Red Hatu na svém blogu popsal své zkušenosti s používáním AI při vývoji open source aplikací pro Linux. Pomocí různých AI aktualizoval nebo vytvořil aplikace Elgato Light GNOME Shell extension, Dell Ultrasharp Webcam 4K, Red Hat Planet, WMDock, XMMS resuscitated (aktualizace z GTK 2 a Esound na GTK 4, GStreamer a PipeWire) a Monkey Bubble. SANE ovladač pro skener Plustek OpticFilm 8200i se mu zatím nepovedl.
aby se kešovaly i sekvenční operace a "read_promote_adjustment" nastavit na něco malého, aby se ti kešovalo skoro všechno, co budeš číst, ale jestli to bude mít nějaký výkonnostní bonus, to těžko říciJá měl za to, že metadata-device udržuje seznam bloků uložených v cache-device, tj. jak těch načtených při čtení tak těch určených k zápisu na origin-device(dirty blocks). Proč by se muselo znova cachovat čtením z origin-device, když úspěšně propsaný dirty block obsahuje shodná data (jako origin-device).
Navíc na to SSD pak budeš i ve velkým zapisovat i jen při samotném čtení, což nebude asi také moc ok.Pokud se budou číst stejná data (scrubbing po timeline), mělo by to na základě existence daných bloků v metadata-device snad pouze přečíst odpovídající bloky z cache-device?
ale jestli to bude mít nějaký výkonnostní bonus, to těžko říciPokud diskové operace v rámci aktivního projektu probíhají na 1TB+ dat z obsahu filesystému mělo by cache-device 2TB být schopno obsahovat prakticky vše k čemu se přistupuje? Prakticky "FIFO", pokud by vše mělo stejnou váhu.
Nemůžeš si udělat workflow dat v rámci userspace?Ano to mám jako náhradní řešení. Aktivní data leží v /NVMe/xyz a je na ně vytvořen symbolický link z /mount_raid5/xyz, který se využívá v rámci projektu (kromě toho leží stejná data ještě v /mount_raid5/xyz.hdd jako redundance). Po ukončení zpracování se link zrusi a přejmenuje xyz.hdd na xyz, cimz je v budoucnu zajisteno zachovani schodne cesty jako te pouzite v rámci referenci na klipy v projektu. Bude to chtit praktický pokus.
read_promote_adjustment: READ io, default 4 write_promote_adjustment: WRITE io, default 8 discard_promote_adjustment: READ/WRITE io to a discarded block, default 1Takže nezajistíš, aby se zapisovaný soubor udržel v cache hned automaticky pro čtení. Aspoň tak mi to dle dokumentace vychází. Každopádně asi si zkusím ve volné chvíli udělat nějaký test, docela mě to zajímá, jak se to reálně umí chovat.
metadata/cache-device dev/nvme0n1: Timing buffered disk reads: 9414 MB in 3.00 seconds = 3137.43 MB/sec origin-device /dev/sdf: Timing buffered disk reads: 1526 MB in 3.00 seconds = 508.19 MB/sec
Zápis prakticky rychlostí SSD (WD500 Blue) time dd if=/dev/zero of=/raid5/bigshit2 bs=1M count=32768 32768+0 records in 32768+0 records out 34359738368 bytes (34 GB, 32 GiB) copied, 117,671 s, 292 MB/s real 1m57,677s user 0m0,020s sys 0m23,641s Prvni cteni (cache na NVMe se dle iostat plni) time cat /raid5/bigshit2 >/dev/null real 2m8,042s user 0m0,110s sys 0m12,518s prvni cteni nacachovanych dat 32GB file time cat /raid5/bigshit2 >/dev/null real 0m33,120s user 0m0,050s sys 0m9,654s druhe cteni nacachovanych dat 32GB file time cat /raid5/bigshit2 >/dev/null real 0m14,718s user 0m0,037s sys 0m6,437s (base) root@xub184:~# time cat /raid5/bigshit2 >/dev/null real 0m28,535s user 0m0,046s sys 0m8,966s (base) root@xub184:~# time cat /raid5/bigshit2 >/dev/null real 0m14,718s user 0m0,037s sys 0m6,437s (base) root@xub184:~# time cat /raid5/bigshit2 >/dev/null real 0m11,885s user 0m0,029s sys 0m6,244s (base) root@xub184:~# time cat /raid5/bigshit2 >/dev/null real 0m13,743s user 0m0,045s sys 0m6,997sdle iostat cteni z NVMe(cache device) spickove presahuje 2GB/s Pozn. RAM je 32GB, takze by se tam 32GB soubor nemel soubor vejit (zkusim radeji soubor 96GB).
zapis na origin storage (limit SATA SSD) time dd if=/dev/zero of=/raid5/bigshit3 bs=1M count=98304 98304+0 records in 98304+0 records out 103079215104 bytes (103 GB, 96 GiB) copied, 375,234 s, 275 MB/s real 6m15,255s user 0m0,041s sys 1m13,642s prvni cteni (plneni cache) time cat /raid5/bigshit3 >/dev/null real 6m14,875s user 0m0,310s sys 0m35,797s prvni cteni s vyuzitim cache prumerne >1,5GB/s time cat /raid5/bigshit3 >/dev/null real 0m58,806s user 0m0,113s sys 0m27,762s druhe cteni s vyuzitim cache time cat /raid5/bigshit3 >/dev/null real 0m51,978s user 0m0,107s sys 0m26,724sVypada to, ze dochazi k aktualizaci metadat (zapisy na NVMe pri cteni), asi pro statistiky cetnosti vyuzivani dat (idealni by bylo kdyby toto slo vypnout, donutit to aby to nedavalo prednost zadnym datum). Potvrdilo se, ze zapsane informace se nepouziji pro read-cache. Znamenalo by to v ramci naplneni cache je po nakopirovani jednorazove vycist do /dev/null. Pokud se to ovsem nebude chovat jako ciste FIFO (proc jinak ty zapisy pri cteni), neni garance ze se s novym projektem nova data dostanou do cache (statistiky vyuzivani dosavadnich dat by mohly prevazit?). V pripade takoveho chovani by se cache by se asi nejspis musela znovu reincializovat, aby se umoznilo naplneni novym obsahem. Pri praci s timeline nemusi byt cten cely soubor (scrubbing jde po datově vzajemne vzdalenych snimcich). Bez prednaplneni cache by se stridaly rychle dostupne (jiz nacachovane snimky) a ty pomale (ktere jeste nebyly nacteny/obsazeny v cache). Vypada to, ze to funguje, ale pro dany ucel mam obavu ze to bude z hlediska cache-hit ratio asi nevypocitatelne. Dana uloha je asi prilis vzdalena cilum tohoto reseni.
. Ostatně to by pak i vysvětlovalo, proč další čtení (v příkladu třetí) jsou o kapánek rychlejší, než to první z cache (v příkladu to druhé čtení).
sudo hdparm -t /dev/nvme1n1 /dev/nvme1n1: Timing buffered disk reads: 4008 MB in 3.00 seconds = 1335.94 MB/secVýdrž má být 182,5TBW, což při velikosti 32GB znamená cca 5840 úplných přepisů. Velikost struktur metadata-device se údajně stanovuje výpočtem 4M + (16 * velikost_cache_device / velikost bloku), což by při 1TB cache-device a 256KB bloku představovalo asi 65MB (0,2% kapacity Optane). Zařízení disponuje dvěma PCIe 3.0 linkami, což ukazuje i lspci.
41:00.0 Non-Volatile memory controller: Intel Corporation Device 2522 (prog-if 02 [NVM Express]) Subsystem: Intel Corporation Device 3806 ... LnkCap: Port #0, Speed 8GT/s, Width x2, ASPM not supported, Exit Latency L0s unlimited, L1 unlimited ClockPM+ Surprise- LLActRep- BwNot- ASPMOptComp+ LnkCtl: ASPM Disabled; RCB 64 bytes Disabled- CommClk+ ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt- LnkSta: Speed 8GT/s, Width x2, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt- DevCap2: Completion Timeout: Range ABCD, TimeoutDis+, LTR+, OBFF Not Supported DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis-, LTR-, OBFF Disabled LnkCtl2: Target Link Speed: 8GT/s, EnterCompliance- SpeedDis- ... Kernel driver in use: nvme
time dd if=/dev/zero of=/raid5/bigshit3 bs=1M count=98304 98304+0 records in 98304+0 records out 103079215104 bytes (103 GB, 96 GiB) copied, 377,044 s, 273 MB/s real 6m17,111s user 0m0,046s sys 1m12,945sPrvní čtení souboru z origin-device a plnění cache-device
time cat /raid5/bigshit3 >/dev/null real 6m8,772s user 0m0,280s sys 0m36,910sDruhé čtení souboru z origin-device (vypada to, že při prvním čtení se nenacacheovala všechna data, čte se i z origin) .. průměrná rychlost 96GB/83s cca 1GB/s+
time cat /raid5/bigshit3 >/dev/null real 1m23,199s user 0m0,123s sys 0m29,300sTřetí čtení souboru z origin device
time cat /raid5/bigshit3 >/dev/null real 1m18,568s user 0m0,140s sys 0m30,340sČtvrté čtení (podíl nacachovaných dat se zvětšuje)
time cat /raid5/bigshit3 >/dev/null real 1m6,874s user 0m0,148s sys 0m30,356sPáté čtení
time cat /raid5/bigshit3 >/dev/null real 0m53,109s user 0m0,114s sys 0m30,113sŠesté čtení
time cat /raid5/bigshit3 >/dev/null real 0m46,084s user 0m0,120s sys 0m29,251sSedmé čtení
time cat /raid5/bigshit3 >/dev/null real 0m42,074s user 0m0,124s sys 0m29,348sSedmé čtení
time cat /raid5/bigshit3 >/dev/null real 0m40,288s user 0m0,104s sys 0m29,255sOsmé čtení (z originu se čtou v průměru pouze jednotky MB/s)
time cat /raid5/bigshit3 >/dev/null real 0m38,916s user 0m0,123s sys 0m29,540sDeváté čtení (z originu se během celého čtení 96GB načetlo odhadem asi 10MB) .. 96GB/40s = 2,4GB/s
time cat /raid5/bigshit3 >/dev/null real 0m38,644s user 0m0,130s sys 0m29,469sAlgoritmus pro cachování má svou hlavu.
Perlička na závěr, mountpoint /raid5 nebyl nejšťastnějším. Právě mi do něj vlezl TimeShift a pokouší se bigshit3 zálohovat.
Tiskni
Sdílej: