Svobodný multiplatformní herní engine Bevy napsaný v Rustu byl vydán ve verzi 0.18. Díky 174 přispěvatelům.
Miliardy korun na digitalizaci služeb státu nestačily. Stát do ní v letech 2020 až 2024 vložil víc než 50 miliard korun, ale původní cíl se nepodařilo splnit. Od loňského února měly být služby státu plně digitalizované a občané měli mít právo komunikovat se státem digitálně. Do tohoto data se povedlo plně digitalizovat 18 procent agendových služeb státu. Dnes to uvedl Nejvyšší kontrolní úřad (NKÚ) v souhrnné zprávě o stavu digitalizace v Česku. Zpráva vychází z výsledků víc než 50 kontrol, které NKÚ v posledních pěti letech v tomto oboru uskutečnil.
Nadace Wikimedia, která je provozovatelem internetové encyklopedie Wikipedia, oznámila u příležitosti 25. výročí vzniku encyklopedie nové licenční dohody s firmami vyvíjejícími umělou inteligenci (AI). Mezi partnery encyklopedie tak nově patří Microsoft, Amazon a Meta Platforms, ale také start-up Perplexity a francouzská společnost Mistral AI. Wikimedia má podobnou dohodu od roku 2022 také se společností Google ze skupiny
… více »D7VK byl vydán ve verzi 1.2. Jedná se o fork DXVK implementující překlad volání Direct3D 5, 6 a 7 na Vulkan. DXVK zvládá Direct3D 8, 9, 10 a 11.
Byla vydána verze 12.0.0 knihovny libvirt (Wikipedie) zastřešující různé virtualizační technologie a vytvářející jednotné rozhraní pro správu virtuálních strojů. Současně byl ve verzi 12.0.0 vydán související modul pro Python libvirt-python. Přehled novinek v poznámkách k vydání.
CreepyLink.com je nový zkracovač URL adres, 'díky kterému budou vaše odkazy vypadat tak podezřele, jak je to jen možné'. Například odkaz na abclinuxu.cz tento zkracovač převádí do podoby 'https://netflix.web-safe.link/logger_8oIlgs_free_money.php'. Dle prohlášení autora je CreepyLink alternativou ke zkracovači ShadyURL (repozitář na githubu), který dnes již bohužel není v provozu.
Na blogu Raspberry Pi byla představena rozšiřující deska Raspberry Pi AI HAT+ 2 s akcelerátorem Hailo-10 a 8 GB RAM. Na rozdíl od předchozí Raspberry Pi AI HAT+ podporuje generativní AI. Cena desky je 130 dolarů.
Wikipedie slaví 25. výročí svého založení. Vznikla 15. ledna 2001 jako doplňkový projekt k dnes již neexistující encyklopedii Nupedia. Doména wikipedia.org byla zaregistrována 12. ledna 2001. Zítra proběhne v Praze Večer svobodné kultury, který pořádá spolek Wikimedia ČR.
Po více než dvou letech od vydání předchozí verze 2.12 byla vydána nová stabilní verze 2.14 systémového zavaděče GNU GRUB (GRand Unified Bootloader, Wikipedie). Přehled novinek v souboru NEWS a v aktualizované dokumentaci.
Google Chrome 144 byl prohlášen za stabilní. Nejnovější stabilní verze 144.0.7559.59 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 10 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře (YouTube).
Z výkonnostního pohledu mě zajímá asi víc čtení, než zápis. Stejně ale nezbyde, než to otestovat na vlastními daty.
rsync --link-dest na zálohovaní pomocí prostého rsync --in-place a BTRFS snapshoty na cílovém disku. Send/receive snapshotu namísto rsync je asi rozumné vylepšení, ale nemám všude BTRFS. Zatím jsem také neřešil mazání starých snapshotů.
Je to tedy v úplně jiném měřítku, než máš ty, ale funguje to stejně dobře. Myslím, že přechod byl bezproblémový a funguje to dostatečně blbuvzdorně, aby se na to dalo spolehnout.
Jediné co, tak budeš muset pořešit snapshotování a sledování velikosti snapshotu. Drobná a naprosto logická nepříjemnost je, že když máš subvolume nad kterým právě doběhl rsync, tak je vidět velikost snapshotu, tedy kolik dat přibylo zálohou. Ale jakmile uděláš snapshot po dokončení zálohování, tak na stejný stav ukazují dva subvolume (subvolume a snapshot) a tudíž by se smazáním neuvolnilo žádné místo a informace o velikosti se tím ztratí. Já to řeším tak, že si tu velikost poznamenám do reportu o doběhnutém zálohování těsně před vytvořením snapshotu. Pokud použiješ send/receive, tak toto odpadá.
FreeNAS tam nemá uvedeno, že by to bylo minimum, ale že je to doporučení. Hodně RAM se hodí i na cache (a to u jakéhokoliv souborového systému), to doporučení IMO nemá nic společného s požadavky ZFS.
Bez duplikace doporučuje Oracle alespoň 1 GB RAM. Opět bez zmínky, že by to záviselo na velikosti pole. Proč by to vůbec mělo záviset na velikosti pole? Všechna data má ZFS na disku, pokud se nevejdou do RAM, může je kdykoliv znovu načíst.
traversing objset 0, 964 objects, 0 blocks so far
traversing objset 21, 17 objects, 0 blocks so far
traversing objset 48, 12 objects, 0 blocks so far
traversing objset 55, 282 objects, 5 blocks so far
traversing objset 63, 2162 objects, 13886490 blocks so far
traversing objset 84, 425 objects, 175125037 blocks so far
traversing objset 96, 25491 objects, 178035147 blocks so far
traversing objset 108, 7 objects, 189724681 blocks so far
traversing objset 239, 27 objects, 189724681 blocks so far
traversing objset 790, 46 objects, 189725115 blocks so far
traversing objset 796, 11713 objects, 189919683 blocks so far
traversing objset 818, 1018960 objects, 190142211 blocks so far
Simulated DDT histogram:
bucket allocated referenced
______ ______________________________ ______________________________
refcnt blocks LSIZE PSIZE DSIZE blocks LSIZE PSIZE DSIZE
------ ------ ----- ----- ----- ------ ----- ----- -----
1 187M 23.4T 22.1T 22.2T 187M 23.4T 22.1T 22.2T
2 2.49M 319G 262G 264G 5.48M 701G 564G 569G
4 477K 59.6G 29.9G 30.7G 2.27M 290G 142G 146G
8 43.0K 5.37G 3.59G 3.62G 362K 45.3G 29.8G 30.1G
16 2.30K 294M 148M 151M 51.2K 6.38G 3.29G 3.37G
32 459 57.3M 18.6M 19.0M 21.2K 2.64G 618M 639M
64 137 17.1M 506K 648K 9.06K 1.13G 34.4M 43.9M
128 9 1.00M 9K 36K 1.57K 180M 1.57M 6.27M
256 3 384K 3K 12K 1.03K 132M 1.03M 4.12M
512 3 384K 9K 12K 2.26K 290M 6.21M 9.05M
32K 2 256K 2K 8K 91.1K 11.4G 91.1M 364M
Total 190M 23.8T 22.4T 22.5T 196M 24.5T 22.8T 22.9T
dedup = 1.02, compress = 1.07, copies = 1.00, dedup * compress / copies = 1.09
Podle výpočtu na stránkách oracle bych pro svůj 24TiB pool potřeboval minimálně 61GiB ram + k tomu ještě standardní režie. Takže jen deduplikace podle Oracle sežere skoro 2,6GiB/1TiB. A to se bavíme jen o deduplikační tabulce. Další ram je např. potřeba na checksumy všech dat v poolu.
. Ale vzhledem k tomu, že nepotřebuju zas tak velkou kapacitu, bych výkon řešil použitím čistě SSD. Třeba 6 ks 400 nebo 480 GB v RAID-Z2/RAID6 mi na nějakou dobu vystačí, zas tolik to nestojí, a výkon je úplně jinde. Trochu problém pro ZFS budu mít v tom, že ten HW, do kterého bych to potřeboval, nepodporuje na diskovém řadiči HDD passthru, moc se mi nelíbí dělat tam N x RAID0.
Nehodí se z principu na mraky malých souborů ..., ani pro big soubory ...Tak to mi príde ako dosť obmedzené použitie, nie? Načo sa to teda vlastne hodí? Mám si dať na to zbierku MP3?
Tiskni
Sdílej: