Příspěvek na blogu Ubuntu upozorňuje na několik zranitelností v rozšíření Linuxu o mandatorní řízení přístupu AppArmor. Společně jsou označovány jako CrackArmor. Objevila je společnost Qualys (technické detaily). Neprivilegovaný lokální uživatel se může stát rootem. Chyba existuje od roku 2017. Doporučuje se okamžitá aktualizace. Problém se týká Ubuntu, Debianu nebo SUSE. Red Hat nebo Fedora používají SELinux.
Byla vydána nová verze 19 integrovaného vývojového prostředí (IDE) Qt Creator. Podrobný přehled novinek v changelogu.
Bitwig Studio (Wikipedie) bylo vydáno ve verzi 6. Jedná se o proprietární multiplatformní (macOS, Windows, Linux) digitální pracovní stanici pro práci s audiem (DAW).
Společnost Igalia představila novou linuxovou distribuci (framework) s názvem Moonforge. Jedná se o distribuci určenou pro vestavěné systémy. Vychází z projektů Yocto a OpenEmbedded.
Google Chrome 146 byl prohlášen za stabilní. Nejnovější stabilní verze 146.0.7680.71 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 29 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře.
D7VK byl vydán ve verzi 1.5. Jedná se o fork DXVK implementující překlad volání Direct3D 3 (novinka), 5, 6 a 7 na Vulkan. DXVK zvládá Direct3D 8, 9, 10 a 11.
Bylo vydáno Eclipse IDE 2026-03 aneb Eclipse 4.39. Představení novinek tohoto integrovaného vývojového prostředí také na YouTube.
Ze systému Slavia pojišťovny uniklo přibližně 150 gigabajtů citlivých dat. Jedná se například o pojistné dokumenty, lékařské záznamy nebo přímou komunikaci s klienty. Za únik může chyba dodavatelské společnosti.
Sněmovna propustila do dalšího kola projednávání vládní návrh zákona o digitální ekonomice, který má přinést bezpečnější on-line prostředí. Reaguje na evropské nařízení DSA o digitálních službách a upravuje třeba pravidla pro on-line tržiště nebo sociální sítě a má i víc chránit děti.
Meta převezme sociální síť pro umělou inteligenci (AI) Moltbook. Tvůrci Moltbooku – Matt Schlicht a Ben Parr – se díky dohodě stanou součástí Meta Superintelligence Labs (MSL). Meta MSL založila s cílem sjednotit své aktivity na poli AI a vyvinout takovou umělou inteligenci, která překoná lidské schopnosti v mnoha oblastech. Fungovat by měla ne jako centralizovaný nástroj, ale jako osobní asistent pro každého uživatele.
potřebuji migrovat pouze data (strukturu tabulek mám vytvořenou). Provedl jsem dump z MySQL v podobě úplných insertů a import do PostgreSQL:
mysqldump database -v -nt --compatible=ansi,postgresql --complete-insert=TRUE --extended-insert=FALSE --compact --default-character-set=UTF8 -u user -p -r pg_database.sql
psql database < pg_database.sql
Zdá se to funkční, ale trápí mě dvě věci:
1) orig. MySQL DB má velikost 800MB, ale kvůli úplným insertům vznikne dumpem 2GB soubor, který po importu vytvoří v PostgreSQL 2.1GB databázi
2) import tohoto 2GB souboru do PostgreSQL trvá cca 36 hodin na 2.6 GHz Xeon / 1GB RAM
, zatim bych vyzkousel obejit implicitni commitovani jednotlivych insertu seskupenim jejich vetsiho mnozstvi (vzdy treba 10000 radku) mezi begin; a commit; .
V pripade, ze pouzivate hodne indexu, nebo foreign keys, tak je mozne tyto pred importem dropnout a vytvorit je az po nem, tim se muze import vetsiho mnozstvi zaznamu take urychlit. Pokud nebudete chtit indexy a foreign keys dropovat, mohlo by pomoct behem importu udelat vacuum analyze, tim se aktualizuji statistiky indexu, ty se zacnou optimalne vyuzivat a zrychli se kontroly vkladanych radku.
Uplne nejrychlejsim zpusobem, jak dostat hodne dat do PostgreSQL, by bylo pravdepodobne pouziti prikazu COPY, to s sebou vsak nese nutnost upravy zdrojoveho datoveho souboru do vhodneho formatu.
To, ze databaze zabira vice mista, nez cekate, muze byt zpusobeno tim, ze neni uvolnen prostor po smazanych zaznamech - na to muzete vyzkouset pouzit vacuum full, pripadne muze byt prostor zabran indexy.
Tomas
ad b) Velikost dumpu mě nepřekvapila, měl jsem na mysli velikost výsledné DB v Postgre, která je i po reindexaci více než dvojnásobná oproti MySQL (MyISAM).
Zajímalo by mě, zda je to dáno formátem PostgreSQL nebo spíše změnou datových typů např. INT na BIGINT?
BEGIN/COMMIT + úprava postgresql.conf (přidělení paměti) urychlily import dumpu z 36 na 2 hodiny 
Tiskni
Sdílej: