Byla vydána nová verze 19 integrovaného vývojového prostředí (IDE) Qt Creator. Podrobný přehled novinek v changelogu.
Bitwig Studio (Wikipedie) bylo vydáno ve verzi 6. Jedná se o proprietární multiplatformní (macOS, Windows, Linux) digitální pracovní stanici pro práci s audiem (DAW).
Společnost Igalia představila novou linuxovou distribuci (framework) s názvem Moonforge. Jedná se o distribuci určenou pro vestavěné systémy. Vychází z projektů Yocto a OpenEmbedded.
Google Chrome 146 byl prohlášen za stabilní. Nejnovější stabilní verze 146.0.7680.71 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 29 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře.
D7VK byl vydán ve verzi 1.5. Jedná se o fork DXVK implementující překlad volání Direct3D 3 (novinka), 5, 6 a 7 na Vulkan. DXVK zvládá Direct3D 8, 9, 10 a 11.
Bylo vydáno Eclipse IDE 2026-03 aneb Eclipse 4.39. Představení novinek tohoto integrovaného vývojového prostředí také na YouTube.
Ze systému Slavia pojišťovny uniklo přibližně 150 gigabajtů citlivých dat. Jedná se například o pojistné dokumenty, lékařské záznamy nebo přímou komunikaci s klienty. Za únik může chyba dodavatelské společnosti.
Sněmovna propustila do dalšího kola projednávání vládní návrh zákona o digitální ekonomice, který má přinést bezpečnější on-line prostředí. Reaguje na evropské nařízení DSA o digitálních službách a upravuje třeba pravidla pro on-line tržiště nebo sociální sítě a má i víc chránit děti.
Meta převezme sociální síť pro umělou inteligenci (AI) Moltbook. Tvůrci Moltbooku – Matt Schlicht a Ben Parr – se díky dohodě stanou součástí Meta Superintelligence Labs (MSL). Meta MSL založila s cílem sjednotit své aktivity na poli AI a vyvinout takovou umělou inteligenci, která překoná lidské schopnosti v mnoha oblastech. Fungovat by měla ne jako centralizovaný nástroj, ale jako osobní asistent pro každého uživatele.
Byla vydána betaverze Fedora Linuxu 44 (ChangeSet), tj. poslední zastávka před vydáním finální verze, která je naplánována na úterý 14. dubna.
rsync -a svého zálohovacihp oddílu z daty BackupPC systému. Teď po dokončení všeho jsem se je rozhodnul smazat. Příkaz rm -r * vpříslušném adresáři /zaloha/BackupPC jede již 45 minut a podle toho co mohu sledovat tak dříve než za hodinu neskončí. a co je nejhorší systém je nepoužitelný. Vše co píšu píšu naslepo a po cca minutě nebo dvou se řádek vysype z bufferu na obrazovku. Proto nemám silu opravovat žádné překlepy a ani čárky. Jsem si celkem vědom, že je to v podstatě ta nejhorší možná kombinace. backuppc vytvářístrom kdy v jedné větvi jsou všechny záléhované soubory zařazené podle hashů. v druhé vetvi jsou jednotlivá PC podnimi přislušné plné nebo inkrementální zálohy a ty jsou na hardlinkované do hashoové větve.(tedy jednotlivé soubory ve větmi pod zálohami jednotlivých pc jsou na hardlinkované na příslušné hashe. Pro mne má hashová větev asi milion souborů a na každý je mezi 5a25 hardlinky. takže i když je souborů cca milion smzatelných objektů ve stromu je cca 10-15 mil.mnohé z nich jsou mrnavé pod 500 bytů. jsou kompresované. a celé to sedí na v podstatě nejhorším možném filesystému, protože na zálohu v tomto objemu jsem neměl jinde místo než na mém multimediálním oddíle s XFS filesystémem. Vím že xfs má s mazáním mnoha malých souborů problémy a je pomalý, ale mne nevadí že je pomalý, ale to že v podstatě mi tohle mazání zastavilo systém. a nemohl jsem skoro nic psát.
Mrkni na aktivni I/O scheduler, i takove CFQ se da tunit. Mozna jeste pomuze rozhazet procesy do patricnych cgroup.
Jinak mas pravdu, XFS je zkratka univerzalni a nezavdeci se vsem pouzitim. Na male soubory mam v produkcnim prostredi osvedceny reiserfs.
test $ cat testfs-files #!/bin/bash MAX=$1 for ((i=0;i<$MAX;i++)); do dd if=./testfile of="./test/F$i" bs=2048 2>/dev/null done test $ test $ ls -l testfile | cut -d ' ' -f 5 2048 test $ test $ test $ time ./testfs-files 1000000 real 12m6.861s user 0m40.989s sys 1m1.892s test $ time sync real 0m0.454s user 0m0.000s sys 0m0.279s test $ time du -sh test 3.9G test real 0m1.142s user 0m0.317s sys 0m0.825s test $ time cd test real 0m0.000s user 0m0.000s sys 0m0.000s test $ time ls -1 | wc -l 1000000 real 0m1.468s user 0m1.409s sys 0m0.068s test $ cd .. test $ time find ./test -type f -delete real 0m49.055s user 0m0.540s sys 0m29.257s test $
To bude spíš tím find-em (rm -f ./test/* nelze použít na 1M souborů), ext4 podle mých zkušeností není šťastný s takového množství souboru v jednom adresáři, ale xfs to nevadí, naopak, jak jsem uvedl, vycházelo mi to lépe, než je zahnízďovat do struktury. Ext4 kdyby to měl ve struktuře, tak to smázne hned a xfs by to zas trvalo déle (si to tedy myslím, fčul jsem to nezkoušel).
2.6.32 (přiznám se, že nevím co tak „kjucí“ backportovali, nijak to nesleduji).
Bavilo jsem se o svém výše (po vláknu) uvedeném testu, kde 1M souborů bylo v jedné složce.
Evidentně find -delete na ext4 z nějakého důvodu trval hnusně dlouho, ještě jsem si to zkusil bez něj a ze strukturou. Struktura je 63-63-252
struct-ext4 struct-xfs one-dir-ext4 one-dir-xfs
create 63,63,252 | 1000188 11:19.2 11:55.7 11:38.2 11:48.8
sync 0:00.2 0:01.1 0:00.2 0:00.4
du -sh test 0:01.4 0:00.9 0:02.0 0:01.2
find ./test -type f -name '*22' | wc -l 0:00.6 0:01.2 0:00.9 0:01.4
(sync && \
> echo 3 > /proc/sys/vm/drop_caches && \
> sleep 1 && \
> find ./test -type f -name '*22' \
> | wc -l) 0:20.0 1:29.6 0:38.7 0:37.8
(sync && \
> echo 3 > /proc/sys/vm/drop_caches && \
> sleep 1 && \
> rm -rf ./test/ ) 0:44.2 2:29.6 0:54.9 1:28.0
A potvrdila se má zkušenost, že xfs je šťastnější s mnoha soubory ve složce než ze strukturou a ext4 obráceně. (použil jsem zde rm na nadřazenou složku aby to bylo rm a stejně zadané).
#!/bin/bash
MAXL1=$1
MAXL2=$2
MAX=$3
for ((d1=0;d1"MAXL1;d1++)); do
mkdir "./test/D${d1}"
for ((d2=0;d2"MAXL2;d2++)); do
mkdir "./test/D${d1}/d${d2}"
for ((i=0;i"$MAX;i++)); do
dd if=./testfile of="./test/D${d1}/d${d2}/F$i" bs=2048 2>/dev/null
done
done
done
Tiskni
Sdílej: