Příspěvek na blogu Ubuntu upozorňuje na několik zranitelností v rozšíření Linuxu o mandatorní řízení přístupu AppArmor. Společně jsou označovány jako CrackArmor. Objevila je společnost Qualys (technické detaily). Neprivilegovaný lokální uživatel se může stát rootem. Chyba existuje od roku 2017. Doporučuje se okamžitá aktualizace. Problém se týká Ubuntu, Debianu nebo SUSE. Red Hat nebo Fedora pro mandatorní řízení přístupu používají SELinux.
Byla vydána nová verze 19 integrovaného vývojového prostředí (IDE) Qt Creator. Podrobný přehled novinek v changelogu.
Bitwig Studio (Wikipedie) bylo vydáno ve verzi 6. Jedná se o proprietární multiplatformní (macOS, Windows, Linux) digitální pracovní stanici pro práci s audiem (DAW).
Společnost Igalia představila novou linuxovou distribuci (framework) s názvem Moonforge. Jedná se o distribuci určenou pro vestavěné systémy. Vychází z projektů Yocto a OpenEmbedded.
Google Chrome 146 byl prohlášen za stabilní. Nejnovější stabilní verze 146.0.7680.71 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 29 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře.
D7VK byl vydán ve verzi 1.5. Jedná se o fork DXVK implementující překlad volání Direct3D 3 (novinka), 5, 6 a 7 na Vulkan. DXVK zvládá Direct3D 8, 9, 10 a 11.
Bylo vydáno Eclipse IDE 2026-03 aneb Eclipse 4.39. Představení novinek tohoto integrovaného vývojového prostředí také na YouTube.
Ze systému Slavia pojišťovny uniklo přibližně 150 gigabajtů citlivých dat. Jedná se například o pojistné dokumenty, lékařské záznamy nebo přímou komunikaci s klienty. Za únik může chyba dodavatelské společnosti.
Sněmovna propustila do dalšího kola projednávání vládní návrh zákona o digitální ekonomice, který má přinést bezpečnější on-line prostředí. Reaguje na evropské nařízení DSA o digitálních službách a upravuje třeba pravidla pro on-line tržiště nebo sociální sítě a má i víc chránit děti.
Meta převezme sociální síť pro umělou inteligenci (AI) Moltbook. Tvůrci Moltbooku – Matt Schlicht a Ben Parr – se díky dohodě stanou součástí Meta Superintelligence Labs (MSL). Meta MSL založila s cílem sjednotit své aktivity na poli AI a vyvinout takovou umělou inteligenci, která překoná lidské schopnosti v mnoha oblastech. Fungovat by měla ne jako centralizovaný nástroj, ale jako osobní asistent pro každého uživatele.
du -s
5898952
sync. Rotační HDD má cca 100 IOPS (v notebooku méně). Pro zápis je potřeba minimálně zápis do dvou míst. vlastní data + zápis do inode. Pokud je FS nastaven tak, že syncuje okamžitě, tak zapíše maximálně teoreticky 50 souborů za sekundu, v praxi spíše 20 a méně, nezávisle na tom, jak jsou malé. Z toho plyne že za hodinu to zapíše asi ani ne 50000 souborů, pokud ten počet souborů se pohyboval kolem 500 000 mohlo to jet i těch 13 hodin. pokud jste kopíroval ze stejného disku (jiného oddílu) na stejný disk, tak podobné IO se muselo provést i při čtení takže to bude 5-10 souborů za vteřinu.
No, měl jsem taky říct, že jsem to kopíroval přes Nautila, dělá si nejdříve ověřování místa apod. S cp by to bylo rychlejší.
Teď jsem zkoušel stejnou cestou kopírovat 200MB (50000souborů), do btrfs, ext4, ext3 reiserfs3.6 (časy dost podobné o něco horší s btrfs o něco lepší reiserfs), začné to cca 6MB/s ale po 180MB se snižuje na cca 700KB/s a stále to jde dolů.
Taky jsem zaznamenal a to ikdyž jsem ty soubory smazal z koše (to bylo celkem rychlé). Několikrát to hlásilo, že v adresáři /run došlo místo (Nautilus si to nějak uchovává v paměti) i když už ty soubory jsou smazaný. Byly teda ve schránce ale při prvním pokusu to zaplnění /run nehlásilo až když jsem první pokus smazal do koše a ten hned vysypal a začal pokus dva (s jiným FS).
Vyšlo mi z toho ve zkratce, že EXT4 nemá cenu měnit za btrfs který je přizpůsobený na velké soubory ale ztrácí víc na těch malých. A EXT3, Reiser3.6 má méně vlastností než EXT4. Objektivní výsledek to není ani příliš pro mě.
Tykat!
Díky za odkaz,
.. tohle ní přímo na tebe
Mě by zajímalo jestli nejsem limitovanej tím rošířeným oddílem v kterém mám ty linuxové oddíly. Je tam psáno, že rošířený oddíl je typu NTFS. Jestli by to nějak zvýšilo výkon, kdybych ten rošířený neměl a měl jen primární oddíly?
Nebyl bottleneck spíš na straně čtení z NTFS? Nemůže být disk nějak poškozený? Co třeba obskurní velikost bloku? Jakmile člověk používá zastaralé souborové systémy typu ext4, může se celkem snadno stát, že omylem vytvoří filesystém s velikostí bloku odlišnou od velikosti stránky (4 kB na Intelu, 8 kB na Power7) a pak se nestačí divit. Ale takhle dramaticky špatný výkon by to mít nemělo ani s nevhodnou velikostí bloku.
Tak samozřejmě, že rychlost čtení z NTFS byla omezená ale vždy jsem zkoušel z něj (přímo). Ted jsem našel čtení a skript, a změnil v něm filesize 1024 na 128. Bohužel ale nezjistím reálnou situaci (tu svou), a nevím jestli generovaná data dají výsledek jako kdybych kopíroval ty své (kde každý soubor má jinou velikost a jinou strukturu obsahovou). Bylo by možné poprosit, předělat to na
z C:\User\Data do /run/media/jadd/TEST ?
mke2fs -t ext4 -T small -j -L TEST /dev/sda5
Uvažoval jsem o znovuvytvoření oddílů ale vidím, že by to byla zbytečná práce.
Tiskni
Sdílej: