Na čem aktuálně pracují vývojáři GNOME a KDE? Pravidelný přehled novinek i s náhledy aplikací v Týden v GNOME a Týden v KDE.
Organizace Apache Software Foundation (ASF) vydala verzi 20 integrovaného vývojového prostředí a vývojové platformy napsané v Javě NetBeans (Wikipedie). Přehled novinek na GitHubu. Instalovat lze také ze Snapcraftu a Flathubu.
Desktopové prostředí Cinnamon, vyvíjené primárně pro distribuci Linux Mint, dospělo do verze 6.0. Seznam změn obsahuje především menší opravy a v říjnovém přehledu novinek v Mintu avizovanou experimentální podporu Waylandu.
OpenZFS (Wikipedie), tj. implementace souborového systému ZFS pro Linux a FreeBSD, byl vydán ve verzích 2.2.2 a 2.1.14. Přináší důležitou opravu chyby vedoucí k možnému poškození dat.
V ownCloudu byly nalezeny tři kritické zranitelnosti: CVE-2023-49103, CVE-2023-49104 a CVE-2023-49105 s CVSS 10.0, 8.7 a 9.8. Zranitelnost CVE-2023-49103 je právě využívána útočníky. Nextcloudu se zranitelnosti netýkají.
I letos vychází řada ajťáckých adventních kalendářů. Programátoři se mohou potrápit při řešení úloh z kalendáře Advent of Code 2023. Pro programátory v Perlu je určen Perl Advent Calendar 2023. Zájemci o UX mohou sledovat Lean UXmas 2023. Pro zájemce o kybernetickou bezpečnost je určen Advent of Cyber 2023…
Byla vydána verze 2.12 svobodného video editoru Flowblade (GitHub, Wikipedie). Přehled novinek v poznámkách k vydání. Videoukázky funkcí Flowblade na Vimeu. Instalovat lze také z Flathubu.
Armbian, tj. linuxová distribuce založená na Debianu a Ubuntu optimalizovaná pro jednodeskové počítače na platformě ARM a RISC-V, ke stažení ale také pro Intel a AMD, byl vydán ve verzi 23.11 Topi. Přehled novinek v Changelogu.
Po 4 měsících vývoje byla vydána nová verze 4.2 multiplatformního open source herního enginu Godot (Wikipedie, GitHub). Přehled novinek i s náhledy v příspěvku na blogu a na YouTube.
Byla vydána nová stabilní verze 23.11 linuxové distribuce NixOS (Wikipedie). Její kódové označení je Tapir. Podrobný přehled novinek v poznámkách k vydání. O balíčky se v NixOS stará správce balíčků Nix.
rsync -a
svého zálohovacihp oddílu z daty BackupPC systému. Teď po dokončení všeho jsem se je rozhodnul smazat. Příkaz rm -r *
vpříslušném adresáři /zaloha/BackupPC jede již 45 minut a podle toho co mohu sledovat tak dříve než za hodinu neskončí. a co je nejhorší systém je nepoužitelný. Vše co píšu píšu naslepo a po cca minutě nebo dvou se řádek vysype z bufferu na obrazovku. Proto nemám silu opravovat žádné překlepy a ani čárky. Jsem si celkem vědom, že je to v podstatě ta nejhorší možná kombinace. backuppc vytvářístrom kdy v jedné větvi jsou všechny záléhované soubory zařazené podle hashů. v druhé vetvi jsou jednotlivá PC podnimi přislušné plné nebo inkrementální zálohy a ty jsou na hardlinkované do hashoové větve.(tedy jednotlivé soubory ve větmi pod zálohami jednotlivých pc jsou na hardlinkované na příslušné hashe. Pro mne má hashová větev asi milion souborů a na každý je mezi 5a25 hardlinky. takže i když je souborů cca milion smzatelných objektů ve stromu je cca 10-15 mil.mnohé z nich jsou mrnavé pod 500 bytů. jsou kompresované. a celé to sedí na v podstatě nejhorším možném filesystému, protože na zálohu v tomto objemu jsem neměl jinde místo než na mém multimediálním oddíle s XFS filesystémem. Vím že xfs má s mazáním mnoha malých souborů problémy a je pomalý, ale mne nevadí že je pomalý, ale to že v podstatě mi tohle mazání zastavilo systém. a nemohl jsem skoro nic psát.
Mrkni na aktivni I/O scheduler, i takove CFQ se da tunit. Mozna jeste pomuze rozhazet procesy do patricnych cgroup.
Jinak mas pravdu, XFS je zkratka univerzalni a nezavdeci se vsem pouzitim. Na male soubory mam v produkcnim prostredi osvedceny reiserfs.
test $ cat testfs-files #!/bin/bash MAX=$1 for ((i=0;i<$MAX;i++)); do dd if=./testfile of="./test/F$i" bs=2048 2>/dev/null done test $ test $ ls -l testfile | cut -d ' ' -f 5 2048 test $ test $ test $ time ./testfs-files 1000000 real 12m6.861s user 0m40.989s sys 1m1.892s test $ time sync real 0m0.454s user 0m0.000s sys 0m0.279s test $ time du -sh test 3.9G test real 0m1.142s user 0m0.317s sys 0m0.825s test $ time cd test real 0m0.000s user 0m0.000s sys 0m0.000s test $ time ls -1 | wc -l 1000000 real 0m1.468s user 0m1.409s sys 0m0.068s test $ cd .. test $ time find ./test -type f -delete real 0m49.055s user 0m0.540s sys 0m29.257s test $
To bude spíš tím find
-em (rm -f ./test/*
nelze použít na 1M souborů), ext4
podle mých zkušeností není šťastný s takového množství souboru v jednom adresáři, ale xfs
to nevadí, naopak, jak jsem uvedl, vycházelo mi to lépe, než je zahnízďovat do struktury. Ext4 kdyby to měl ve struktuře, tak to smázne hned a xfs by to zas trvalo déle (si to tedy myslím, fčul jsem to nezkoušel).
2.6.32
(přiznám se, že nevím co tak „kjucí“ backportovali, nijak to nesleduji).
Bavilo jsem se o svém výše (po vláknu) uvedeném testu, kde 1M souborů bylo v jedné složce.
Evidentně find -delete na ext4 z nějakého důvodu trval hnusně dlouho, ještě jsem si to zkusil bez něj a ze strukturou. Struktura je 63-63-252
struct-ext4 struct-xfs one-dir-ext4 one-dir-xfs create 63,63,252 | 1000188 11:19.2 11:55.7 11:38.2 11:48.8 sync 0:00.2 0:01.1 0:00.2 0:00.4 du -sh test 0:01.4 0:00.9 0:02.0 0:01.2 find ./test -type f -name '*22' | wc -l 0:00.6 0:01.2 0:00.9 0:01.4 (sync && \ > echo 3 > /proc/sys/vm/drop_caches && \ > sleep 1 && \ > find ./test -type f -name '*22' \ > | wc -l) 0:20.0 1:29.6 0:38.7 0:37.8 (sync && \ > echo 3 > /proc/sys/vm/drop_caches && \ > sleep 1 && \ > rm -rf ./test/ ) 0:44.2 2:29.6 0:54.9 1:28.0
A potvrdila se má zkušenost, že xfs je šťastnější s mnoha soubory ve složce než ze strukturou a ext4 obráceně. (použil jsem zde rm
na nadřazenou složku aby to bylo rm
a stejně zadané).
#!/bin/bash MAXL1=$1 MAXL2=$2 MAX=$3 for ((d1=0;d1"MAXL1;d1++)); do mkdir "./test/D${d1}" for ((d2=0;d2"MAXL2;d2++)); do mkdir "./test/D${d1}/d${d2}" for ((i=0;i"$MAX;i++)); do dd if=./testfile of="./test/D${d1}/d${d2}/F$i" bs=2048 2>/dev/null done done done
Tiskni
Sdílej: