Byly vyhlášeny výsledky (YouTube) 28. ročníku D.I.C.E. (Design, Innovate, Communicate, Entertain) Awards: Hrou roku 2024 je Astro Bot.
Všem na AbcLinuxu vše nejlepší k Valentýnu aneb Dni lásky ke svobodnému softwaru (I love Free Software Day, Mastodon, 𝕏).
Vývojáři openSUSE Tumbleweed oznámili, že u nových instalací se ve výchozím stavu přechází z AppArmor na SELinux. Uživatelé, kteří chtějí zůstat na AppArmor si mohou AppArmor vybrat v instalátoru.
Hector "marcan" Martin skončil jako vedoucí projektu Asahi Linux aneb Linux na Apple Siliconu. Projekt ale pokračuje dál.
PostgreSQL byl vydán ve verzích 17.3, 16.7, 15.11, 14.16 a 13.19. Řešena je zranitelnost CVE-2025-1094 s CVSS 8.1 a více než 70 chyb.
Dnes je Světový den rádia. Použili jste někdy GNU Radio?
Před 33 lety, ve čtvrtek 13. února 1992, se tehdejší Česká a Slovenská Federativní Republika oficiálně (a slavnostně) připojila k Internetu.
Byla vydána nová verze 9.10 z Debianu vycházející linuxové distribuce DietPi pro (nejenom) jednodeskové počítače. Přehled novinek v poznámkách k vydání.
Český LibreOffice tým vydává překlad příručky LibreOffice Math 24.8. Math je modul editoru vzorců v kancelářském balíku LibreOffice a poskytuje možnosti rozvržení pro zobrazení matematických, chemických, elektrických nebo vědeckých vzorců ve standardní písemné notaci. Příručka je ke stažení na stránce dokumentace.
Společnost Backblaze zveřejnila statistiky spolehlivosti pevných disků používaných ve svých datových centrech za rok 2024. Ke konci roku 2024 vlastnila 305 180 pevných disků. Průměrná AFR (Annualized Failure Rate), tj. pravděpodobnost, že disk během roku selže, byla 1,57 %. V roce 2023 to bylo 1,70 %. V roce 2022 to bylo 1,37 %.
rsync -a
svého zálohovacihp oddílu z daty BackupPC systému. Teď po dokončení všeho jsem se je rozhodnul smazat. Příkaz rm -r *
vpříslušném adresáři /zaloha/BackupPC jede již 45 minut a podle toho co mohu sledovat tak dříve než za hodinu neskončí. a co je nejhorší systém je nepoužitelný. Vše co píšu píšu naslepo a po cca minutě nebo dvou se řádek vysype z bufferu na obrazovku. Proto nemám silu opravovat žádné překlepy a ani čárky. Jsem si celkem vědom, že je to v podstatě ta nejhorší možná kombinace. backuppc vytvářístrom kdy v jedné větvi jsou všechny záléhované soubory zařazené podle hashů. v druhé vetvi jsou jednotlivá PC podnimi přislušné plné nebo inkrementální zálohy a ty jsou na hardlinkované do hashoové větve.(tedy jednotlivé soubory ve větmi pod zálohami jednotlivých pc jsou na hardlinkované na příslušné hashe. Pro mne má hashová větev asi milion souborů a na každý je mezi 5a25 hardlinky. takže i když je souborů cca milion smzatelných objektů ve stromu je cca 10-15 mil.mnohé z nich jsou mrnavé pod 500 bytů. jsou kompresované. a celé to sedí na v podstatě nejhorším možném filesystému, protože na zálohu v tomto objemu jsem neměl jinde místo než na mém multimediálním oddíle s XFS filesystémem. Vím že xfs má s mazáním mnoha malých souborů problémy a je pomalý, ale mne nevadí že je pomalý, ale to že v podstatě mi tohle mazání zastavilo systém. a nemohl jsem skoro nic psát.
Mrkni na aktivni I/O scheduler, i takove CFQ se da tunit. Mozna jeste pomuze rozhazet procesy do patricnych cgroup.
Jinak mas pravdu, XFS je zkratka univerzalni a nezavdeci se vsem pouzitim. Na male soubory mam v produkcnim prostredi osvedceny reiserfs.
test $ cat testfs-files #!/bin/bash MAX=$1 for ((i=0;i<$MAX;i++)); do dd if=./testfile of="./test/F$i" bs=2048 2>/dev/null done test $ test $ ls -l testfile | cut -d ' ' -f 5 2048 test $ test $ test $ time ./testfs-files 1000000 real 12m6.861s user 0m40.989s sys 1m1.892s test $ time sync real 0m0.454s user 0m0.000s sys 0m0.279s test $ time du -sh test 3.9G test real 0m1.142s user 0m0.317s sys 0m0.825s test $ time cd test real 0m0.000s user 0m0.000s sys 0m0.000s test $ time ls -1 | wc -l 1000000 real 0m1.468s user 0m1.409s sys 0m0.068s test $ cd .. test $ time find ./test -type f -delete real 0m49.055s user 0m0.540s sys 0m29.257s test $
To bude spíš tím find
-em (rm -f ./test/*
nelze použít na 1M souborů), ext4
podle mých zkušeností není šťastný s takového množství souboru v jednom adresáři, ale xfs
to nevadí, naopak, jak jsem uvedl, vycházelo mi to lépe, než je zahnízďovat do struktury. Ext4 kdyby to měl ve struktuře, tak to smázne hned a xfs by to zas trvalo déle (si to tedy myslím, fčul jsem to nezkoušel).
2.6.32
(přiznám se, že nevím co tak „kjucí“ backportovali, nijak to nesleduji).
Bavilo jsem se o svém výše (po vláknu) uvedeném testu, kde 1M souborů bylo v jedné složce.
Evidentně find -delete na ext4 z nějakého důvodu trval hnusně dlouho, ještě jsem si to zkusil bez něj a ze strukturou. Struktura je 63-63-252
struct-ext4 struct-xfs one-dir-ext4 one-dir-xfs create 63,63,252 | 1000188 11:19.2 11:55.7 11:38.2 11:48.8 sync 0:00.2 0:01.1 0:00.2 0:00.4 du -sh test 0:01.4 0:00.9 0:02.0 0:01.2 find ./test -type f -name '*22' | wc -l 0:00.6 0:01.2 0:00.9 0:01.4 (sync && \ > echo 3 > /proc/sys/vm/drop_caches && \ > sleep 1 && \ > find ./test -type f -name '*22' \ > | wc -l) 0:20.0 1:29.6 0:38.7 0:37.8 (sync && \ > echo 3 > /proc/sys/vm/drop_caches && \ > sleep 1 && \ > rm -rf ./test/ ) 0:44.2 2:29.6 0:54.9 1:28.0
A potvrdila se má zkušenost, že xfs je šťastnější s mnoha soubory ve složce než ze strukturou a ext4 obráceně. (použil jsem zde rm
na nadřazenou složku aby to bylo rm
a stejně zadané).
#!/bin/bash MAXL1=$1 MAXL2=$2 MAX=$3 for ((d1=0;d1"MAXL1;d1++)); do mkdir "./test/D${d1}" for ((d2=0;d2"MAXL2;d2++)); do mkdir "./test/D${d1}/d${d2}" for ((i=0;i"$MAX;i++)); do dd if=./testfile of="./test/D${d1}/d${d2}/F$i" bs=2048 2>/dev/null done done done
Tiskni
Sdílej: