Dle analytics.usa.gov je za posledních 90 dnů 6,2 % přístupů k webových stránkám a aplikacím federální vlády Spojených států z Linuxu.
Jak si zobrazit pomocí Chrome a na Chromiu založených webových prohlížečích stránky s neplatným certifikátem? Stačí napsat thisisunsafe.
V repozitáři AUR (Arch User Repository) linuxové distribuce Arch Linux byly nalezeny a odstraněny tři balíčky s malwarem. Jedná se o librewolf-fix-bin, firefox-patch-bin a zen-browser-patched-bin.
Dle plánu by Debian 13 s kódovým názvem Trixie měl vyjít v sobotu 9. srpna.
Vývoj linuxové distribuce Clear Linux (Wikipedie) vyvíjené společností Intel a optimalizováné pro jejich procesory byl oficiálně ukončen.
Byl publikován aktuální přehled vývoje renderovacího jádra webového prohlížeče Servo (Wikipedie).
V programovacím jazyce Go naprogramovaná webová aplikace pro spolupráci na zdrojových kódech pomocí gitu Forgejo byla vydána ve verzi 12.0 (Mastodon). Forgejo je fork Gitei.
Nová čísla časopisů od nakladatelství Raspberry Pi zdarma ke čtení: Raspberry Pi Official Magazine 155 (pdf) a Hello World 27 (pdf).
Hyprland, tj. kompozitor pro Wayland zaměřený na dláždění okny a zároveň grafické efekty, byl vydán ve verzi 0.50.0. Podrobný přehled novinek na GitHubu.
Patrick Volkerding oznámil před dvaatřiceti lety vydání Slackware Linuxu 1.00. Slackware Linux byl tenkrát k dispozici na 3,5 palcových disketách. Základní systém byl na 13 disketách. Kdo chtěl grafiku, potřeboval dalších 11 disket. Slackware Linux 1.00 byl postaven na Linuxu .99pl11 Alpha, libc 4.4.1, g++ 2.4.5 a XFree86 1.3.
potřebuji migrovat pouze data (strukturu tabulek mám vytvořenou). Provedl jsem dump z MySQL v podobě úplných insertů a import do PostgreSQL:
mysqldump database -v -nt --compatible=ansi,postgresql --complete-insert=TRUE --extended-insert=FALSE --compact --default-character-set=UTF8 -u user -p -r pg_database.sql
psql database < pg_database.sql
Zdá se to funkční, ale trápí mě dvě věci:
1) orig. MySQL DB má velikost 800MB, ale kvůli úplným insertům vznikne dumpem 2GB soubor, který po importu vytvoří v PostgreSQL 2.1GB databázi
2) import tohoto 2GB souboru do PostgreSQL trvá cca 36 hodin na 2.6 GHz Xeon / 1GB RAM
begin;
a commit;
.
V pripade, ze pouzivate hodne indexu, nebo foreign keys, tak je mozne tyto pred importem dropnout a vytvorit je az po nem, tim se muze import vetsiho mnozstvi zaznamu take urychlit. Pokud nebudete chtit indexy a foreign keys dropovat, mohlo by pomoct behem importu udelat vacuum analyze
, tim se aktualizuji statistiky indexu, ty se zacnou optimalne vyuzivat a zrychli se kontroly vkladanych radku.
Uplne nejrychlejsim zpusobem, jak dostat hodne dat do PostgreSQL, by bylo pravdepodobne pouziti prikazu COPY
, to s sebou vsak nese nutnost upravy zdrojoveho datoveho souboru do vhodneho formatu.
To, ze databaze zabira vice mista, nez cekate, muze byt zpusobeno tim, ze neni uvolnen prostor po smazanych zaznamech - na to muzete vyzkouset pouzit vacuum full
, pripadne muze byt prostor zabran indexy.
Tomas
ad b) Velikost dumpu mě nepřekvapila, měl jsem na mysli velikost výsledné DB v Postgre, která je i po reindexaci více než dvojnásobná oproti MySQL (MyISAM).
Zajímalo by mě, zda je to dáno formátem PostgreSQL nebo spíše změnou datových typů např. INT na BIGINT?
BEGIN/COMMIT + úprava postgresql.conf (přidělení paměti) urychlily import dumpu z 36 na 2 hodiny
Tiskni
Sdílej: