UBports, nadace a komunita kolem Ubuntu pro telefony a tablety Ubuntu Touch, vydala Ubuntu Touch 24.04-1.3. Současně oznámila, že nadcházející větší vydání 24.04-2.0 bude mít modernější webový prohlížeč.
Ploopy po DIY trackballech či sluchátkách představuje nový externí DIY trackpoint se čtyřmi tlačítky Bean. Obsahuje snímač Texas Instruments TMAG5273, spínače Omron D2LS-21 a řadič RP2040, používá firmware QMK. Schémata jsou na GitHubu; sadu lze předobjednat za 69 kanadských dolarů (bez dopravy a DPH).
Mozilla před dvěma týdny na svém blogu oznámila, že díky Claude Mythos Preview bylo ve Firefoxu nalezeno a opraveno 271 bezpečnostních chyb. Včera vyšel na Mozilla Hacks článek s podrobnějšími informacemi. Z 271 bezpečnostních chyb mělo 180 chyb vysokou závažnost, 80 chyb střední závažnost a 11 chyb nízkou závažnost. Celkově bylo v dubnu ve Firefoxu opraveno 423 bezpečnostních chyb. Čísla CVE nemusí být přiřazována jednotlivým chybám. CVE-2026-6784 například představuje 154 bezpečnostních chyb.
Před týdnem zranitelnost Copy Fail. Dnes zranitelnost Dirty Frag. Běžný uživatel může na Linuxu získat práva roota (lokální eskalaci práv). Na většině linuxových distribucí vydaných od roku 2017. Aktuálně bez oficiální záplaty a CVE čísla [oss-security mailing list].
Ačkoli je papež Lev XIV. hlavou katolické církve a stojí v čele více než miliardy věřících po celém světě, také on někdy řeší všední potíže. A kdo v životě neměl problémy se zákaznickou linkou? Krátce poté, co nastoupil do úřadu, musel papež se svou bankou řešit změnu údajů. Operátorka ale nechtěla uvěřit, s kým mluví, a Svatému otci zavěsila.
Incus, komunitní fork nástroje pro správu kontejnerů LXD, byl vydán ve verzi 7.0 LTS (YouTube). Stejně tak související LXC a LXCFS.
Google Chrome 148 byl prohlášen za stabilní. Nejnovější stabilní verze 148.0.7778.96 přináší řadu novinek z hlediska uživatelů i vývojářů. Vypíchnout lze Prompt API (demo) pro přímý přístup k AI v zařízení. Podrobný přehled v poznámkách k vydání. Opraveno bylo 127 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře.
Richard Hughes oznámil, že po společnostech Red Hat a Framework a organizacích OSFF a Linux Foundation, službu Linux Vendor Firmware Service (LVFS) umožňující aktualizovat firmware zařízení na počítačích s Linuxem, nově sponzorují také společnosti Dell a Lenovo. Do dnešního dne bylo díky LVFS provedeno více než 145 milionů aktualizací firmwarů od více než 100 různých výrobců na milionech linuxových zařízení.
Americké technologické společnosti Microsoft, Google a xAI souhlasily, že vládě Spojených států poskytnou přístup k novým modelům umělé inteligence (AI) před jejich uvedením na trh. Oznámila to americká vláda, která tak bude moci prověřit, zda modely nepředstavují hrozbu pro národní bezpečnost. Oznámení podtrhuje rostoucí obavy Washingtonu z rizik spojených s výkonnými AI systémy. Americké úřady chtějí v rámci předběžného přístupu
… více »Společnost Valve zveřejnila (GitLab) nákresy ovladače Steam Controller a puku. Pro všechny, kdo by jej chtěli hacknout nebo modifikovat, případně pro ně navrhnout nějaké příslušenství. Pod licencí Creative Commons (CC BY-NC-SA 4.0).
Otevřená certifikační autorita Let’s Encrypt v příspěvku na svém blogu představila své nové databázové servery. Hardware: 2U rack server Dell EMC PowerEdge R7525, CPU 2x AMD EPYC 7542, Memory 2TB 3200MT/s, Storage 24x 6.4TB Intel P4610 NVMe SSD. Software: OpenZFS a MariaDB s InnoDB.
Tiskni
Sdílej:
/dev/null vytáhnu hodnotnější informace než z vás :)
A co ti brání najít si benchmarky?
Ale kdepak, ne, takhle svět nefunguje. Ty přicházíš s jakýmsi tvrzením → ty musíš dodat důkazy. Řeči typu „já si budu klidně tvrdit nesmysl a vy ostatní mi dokažte, že se mýlím“, jsou „argumentace“ páťáka.
Mimochodem, vůbec nic nikomu nebrání najít si benchmarky. Nedá se nic dělat, opravdová databáze PostgreSQL je po všech stránkách lepší než dětská hračka MySQL (a deriváty dětské hračky).
Zatím vaše slova nemají ani cenu bitů, kterými jsou přenášeny.
Ja dosť pracujem s PostgreSQL hoc trol predomnou nič konkrétne nenapísal skúsim to napraviť.
PostgreSQL by som si nedovolil hodnotiť ako pomalú, alebo rýchlu (ak sa bavíme o selectoch). Základ PostgreSQL je dosť akademický, takže človek môže pomerne konzistentne očakávať určitý výkon, či pomalosť v určitých prípadoch. Jednoducho tá databáza má základné štastistiky (ak sa vykonalo analyze) a na základe nastaveného času prístupu k náhodnému bloku na disku a ďalších parametrov sa snaží odhadnúť, ktorý spôsob prechádzania / zoadenia dát / použitia indexov bude najvhodnejší. Teoreticky fajn. Prakticky nie vždy. Z mojich skúseností základnú optimalizáciu robí skvele a predvídateľne. Oproti tomu MariaDB robí mnoho optimalizácií, ktoré vedú k drastickej redukcii času selectu. Niekedy. Nie moc predvídateľne. Škoda, že neviem teraz vyhrabať blog, ktorý som na túto tému našiel a ktorý zrovnával pomerne jednoduché selecty, ktoré sa dali na základe statickej analýzy dobre zoptimalizovať. MariaDB to zvládala, PostgreSQL nerobil prakticky žiadne optimalizácie, ale na druhej strane selecty sa dali prepísať iným spôsobom (napr. subselect namiesto left outer joinu podľa unique kľúča) takže sa dosiahol rovnaký výkon.
Písal som komentár dosť narýchlo, nestihol som preto napísať žiaden príklad, takže teraz to skúsim napraviť.
Robím často dosť komplexné selecty s dátami z mnoho tabuliek. Väčšinou sa snažím urobiť čo najjednoduchší select z hlavnej tabuľky a zvyšná časť selectu je navrhnutá tak, aby nemohla zmeniť kardinalitu. Takže urobím select z hlavnej tabuľky s limitom napr. 10 offsetom 1000, výsledný čas pod 10ms. Potom urobím ten istý select s doplnenými buď outer joinmi s unique kľúčom, alebo subselectmi a bum, výsledný select trvá 10s, pretože databáza robí presne to isté, ako keby som od nej chcel prvých 1010 riadkov. V tom istom prípde MariaDB preskakuje načítanie atribútov, ktoré vo výsledku nie sú potrebné.
Mám select. So subselectom / joinom, ktorý nikdy nemení kardinalitu prvých 10 záznamov vráti rýchlo. Bez subselectu, alebo joinu 10 záznamov s offsetom 1000 vráti rýchlo. So subselectom, alebo joinom 10 záznamov s offsetom 1000 vráti v porovnateľnom čase, ako keby som žiadal o 1010 záznamov. T.j. robí zbytočne subseelct aj nad riadkami, ktoré ma nezaujímajú aj keď ho môže pokojne vyodiť.
OFFSET neznamena preskoc n radku, ale zahod n radku
Presne to je ten akademický návrh. Jednoduchý, predídateľný, presne podľa pravidiel relačnej algebry. V situácii keď sa dá 1000 riadkov preskočiť index scanom MySQL to preskočí a PostgreSQL zahadzuje, pričom na každom riadku vykonáva zbytočný subselect (ktorý nemôže ovplyvniť počet vrátených riadkov, pretože nevystupuje vo WHERE klauzule, ale je dosť pomalý).
Pokud pouzijete WHERE a treba PK, tak uz je to neco jineho
To sa dá použiť maximálne na také stránkovanie typu next next next, ale nie keď zákazník chce skočiť povedzme do polovice tabuľky. Teda áno použiť by to šlo, keby v PK neboli medzery. Pre normálne stránkovanie teda zostáva len offset a udržiavať selecty čo najmenšie a robiť selecty z ďalších tabuliek samostatne a urobiť join v kóde namiesto DB.
postgres=# explain analyze select (select oid from pg_class limit 1) from pg_class offset 300 limit 1; ┌──────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────┐ │ QUERY PLAN │ ╞══════════════════════════════════════════════════════════════════════════════════════════════════════════════════════════════╡ │ Limit (cost=13.02..13.06 rows=1 width=4) (actual time=0.271..0.273 rows=1 loops=1) │ │ InitPlan 1 (returns $0) │ │ -> Limit (cost=0.00..0.04 rows=1 width=4) (actual time=0.027..0.029 rows=1 loops=1) │ │ -> Seq Scan on pg_class pg_class_1 (cost=0.00..16.91 rows=391 width=4) (actual time=0.026..0.026 rows=1 loops=1) │ │ -> Seq Scan on pg_class (cost=0.00..16.91 rows=391 width=4) (actual time=0.089..0.211 rows=301 loops=1) │ │ Planning Time: 0.389 ms │ │ Execution Time: 0.349 ms │ └──────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────┘ (7 rows)Všimněte si loops u subselectu (zanořený plán). Je to 1, tj. subselect se vykonal pouze 1x.
Výber primárnej prílohy (primárneho obrázka v galérii) k produktu.
# EXPLAIN ANALYZE SELECT "catalog_product"."id", (SELECT U0."file" FROM "django_attachments_attachment" U0 INNER JOIN "django_attachments_library" U1 ON (U0."id" = U1."primary_attachment_id") WHERE U1."id" = "catalog_product"."gallery_id" ORDER BY U0."rank" ASC LIMIT 1) AS "sq" FROM "catalog_product" LIMIT 10 OFFSET 1000; ┌────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────┐ │ QUERY PLAN │ ├────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────┤ │ Limit (cost=16661.86..16828.47 rows=10 width=222) (actual time=8.214..8.271 rows=10 loops=1) │ │ -> Seq Scan on catalog_product (cost=0.00..179614.80 rows=10780 width=222) (actual time=0.072..8.216 rows=1010 loops=1) │ │ SubPlan 1 │ │ -> Limit (cost=16.62..16.62 rows=1 width=20) (actual time=0.007..0.007 rows=1 loops=1010) │ │ -> Sort (cost=16.62..16.62 rows=1 width=20) (actual time=0.007..0.007 rows=1 loops=1010) │ │ Sort Key: u0.rank │ │ Sort Method: quicksort Memory: 25kB │ │ -> Nested Loop (cost=0.57..16.61 rows=1 width=20) (actual time=0.005..0.005 rows=1 loops=1010) │ │ -> Index Scan using django_attachments_library_pkey on django_attachments_library u1 (cost=0.29..8.30 rows=1 width=4) (actual time=0.002..0.002 rows=1 loops=1010) │ │ Index Cond: (id = catalog_product.gallery_id) │ │ -> Index Scan using django_attachments_attachment_pkey on django_attachments_attachment u0 (cost=0.29..8.30 rows=1 width=24) (actual time=0.002..0.002 rows=1 loops=842) │ │ Index Cond: (id = u1.primary_attachment_id) │
Sorry za humus SQL, vytiahol som to len z ORM-ka, bol som lenivý to teraz písať ručne, preto tie hnusné aliasy U0 a U1.
Ehm asi to nie je moc čitateľné tak ešte raz
SELECT
"catalog_product"."id",
(SELECT
U0."file"
FROM "django_attachments_attachment" U0
INNER JOIN "django_attachments_library" U1
ON (U0."id" = U1."primary_attachment_id")
WHERE U1."id" = "catalog_product"."gallery_id"
ORDER BY U0."rank" ASC
LIMIT 1) AS "sq"
FROM "catalog_product"
LIMIT 10 OFFSET 1000;
SELECT catalog_product.id
FROM catalog_product,
LATERAL (SELECT u0.file
FROM django_attachments_attachment U0
INNER JOIN django_attachments_library U1
ON U0.id = U1.primary_attachment_id
WHERE U1.id = catalog_product.gallery_id
ORDER BY U0.rank ASC
LIMIT 1) sq
LIMIT 10 OFFSET 1000;
Možno by to šlo cez CTE, ten sa tuším na postgrese materializoval, ale zatiaľ som nemal príležitosť sa tomu poriadne venovať. Tieto problémy s výkonom som vyriešil cez ORM, ktoré má možnosť buď to riešiť cez subselecty, joiny, alebo samostatné selecty s WHERE pk in ... takže tretia možnosť ak vyslovene podľa toho poľa nepotrebujem sortovať, alebo filtrovať a moc ma to nepáli. Len som chcel upozorniť, že PostgreSQL nerobí jednoduché optimalizácie, ktoré by sa dali zistiť statickou analýzou.
Tam je pak potreba pouzit osklivy workaround s OFFSET 0Jo, já jsem si říkal, že bych tohle dělal v té aplikaci (i když by to asi pěkně houpalo s pamětí.) Ale je to Rails věc, tj. já ty dotazy nepíšu, takže to je jedna komplikace. Plus to není nijak důležitá aplikace, takže se mi to ani moc nechtělo řešit. Upřímně řečeno bych tu tabulku mohl klidně promazat, ale dělám si na ní benchmark, co PostgreSQL zvládne
A nutno uznat, že zpracování dotazu řádově v desítkách milisekund s tabulkou o 20M záznamech při vyhledávání dle obsahu JSON dat dělá docela dobrý dojem