Google v pátek spustil v Česku Vyhledávání Live. Tato novinka umožňuje lidem vést plynulou konverzaci s vyhledávačem v češtině. A to prostřednictvím hlasu, nebo prostřednictvím toho, na co ukážou svým fotoaparátem či kamerou v mobilu. Rozšíření této multimodální funkce je možné díky nasazení Gemini 3.1 Flash Live, nového hlasového a audio modelu, který je od základu vícejazyčný, takže umožňuje lidem po celém světě mluvit na vyhledávač přirozeně a v jazyce, který je jim nejbližší.
Jsongrep je open-source nástroj, který efektivně prohledává JSON dokumenty (editovat je neumí). Kompiluje regulérní jazyk dotazu do podoby deterministického konečného automatu (DFA), díky čemuž prochází strom JSON dokumentu pouze jednou a je v tom tedy rychlejší než jiné nástroje jako jsou například jq, JMESPath nebo jql. Jsongrep je napsaný v programovacím jazyce Rust, zdrojový kód je dostupný na GitHubu.
O víkendu probíhá v Praze na Karlově náměstí 13 konference Installfest 2026. Na programu je celá řada zajímavých přednášek a workshopů. Vstup na konferenci je zcela zdarma, bez nutnosti registrace. Přednášky lze sledovat i online na YouTube.
Mozilla a společnost Mila oznámily strategické partnerství za účelem rozvoje open source a suverénní AI. Cílem je ukázat, že open source AI může konkurovat uzavřeným systémům. Obě organizace chtějí posílit technologickou suverenitu a snížit závislost na hrstce velkých technologických firem.
Adam Rice předvedl, že pomocí DNS lze distribuovat a spustit kompletní hru DOOM. Rozdělil WAD soubory a binárky do téměř 2000 DNS záznamů v Cloudflare zóně (jeden TXT záznam v DNS může nést okolo 2000 znaků textu). Ty pak stáhl PowerShellem, dekomprimoval a spustil přímo v paměti počítače bez nutnosti zápisu na disk, což prakticky dokazuje, že DNS může sloužit jako distribuované úložiště dat a možný kanál pro načítání kódu. Repozitář projektu je na GitHubu.
Dnes a zítra probíhají Arduino Days 2026. Na programu je řada zajímavých přednášek. Sledovat je lze od 17:00 na YouTube. Zúčastnit se lze i lokálních akcí. Dnes v Poličce v městské knihovně a zítra v Praze na Matfyzu.
Byla vydána beta verze Ubuntu 26.04 LTS s kódovým názvem Resolute Raccoon. Přehled novinek v poznámkách k vydání. Dle plánu by Ubuntu 26.04 LTS mělo vyjít 23. dubna 2026.
Byla vydána aktualizována Příručka pro začínající wikipedisty a wikipedistky (pdf).
Ubuntu plánuje v budoucích verzích nahradit tradiční nástroje pro synchronizaci času (chrony, linuxptp a gpsd) novým, v Rustu napsaným ntpd-rs, který nabídne vyšší bezpečnost a stabilitu.
Byla vydána nová verze 7.6 živé linuxové distribuce Tails (The Amnesic Incognito Live System), jež klade důraz na ochranu soukromí uživatelů a anonymitu. Správce hesel KeePassXC byl nahrazen správcem hesel GNOME Secrets. Bitcoinová peněženka Electrum byla povýšena na verzi 4.7.0. Tor Browser byl povýšen na verzi 15.0.8. Další novinky v příslušném seznamu.
Co používáte, když si chcete nějakou stránku archivovat na disk? Dříve fungovalo dobře MAFF, ale to už v aktuálních verzích Firefoxu není podporované. UnMHT taky ne.
Stránku lze sice uložit přes Ctrl+S, ale to vytvoří i podadresář a hromadu souborů.
Taky jde stránku „vytisknout“ do PDF, ale to většinou naruší vzhled a špatně se s tím pracuje. Funkce „Pořídit snímek stránky“ sice zachová věrně vzhled, ale zase je to bitmapa, takže je to jednak velké a jednak z toho už nejde dostat zpět text (leda přes OCR :-D).
Existuje nějaké hotové řešení, které umožní uložit celou stránku do jednoho souboru nebo si to člověk musí napsat sám?
Mohla by to být třeba HTTP proxy, která by zachytila vše, co přes ni projde (takže i různé AJAXy, videa atd.) a výsledek uložila do souboru (třeba sqlite databáze) a prohlížení by pak probíhalo tak, že by se spustil HTTP server (resp. proxy z pohledu prohlížeče) a ten by přehrával dříve zaznamenanou komunikaci. K tomu by stačil nějaký skript, který nahodí proxy nad daným archivním souborem a spustí prohlížeč v anonymním režimu s parametrem této proxy a adresou dané stránky.
Další možnost by bylo serverové řešení – takový webový archiv (něco jako archive.org) pro jednotlivce nebo skupinu lidí – pamatoval by si zaznamenanou komunikaci a uměl ji přehrávat. Šlo by se tam třeba i vracet v čase. Ve formě User-Agenta, HTTP hlavičky nebo spíš jména/hesla1 k proxy serveru by s tím serverem šlo komunikovat a předat mu parametr, k jakému datu stránku chci. Prohlíželo by se to asi nějakým dedikovaným upraveným prohlížečem s potřebnými doplňky (jako GUI pro stroj času). Na serveru by šla dobře dělat deduplikace. Z tohoto serveru by si pak šlo i uložit jednotlivou stránku do souboru jako sqlite databázi pro osobní použití nebo archivaci na nějaké offline médium mimo dosah proxy serveru.
Na tom proxy serveru by šlo i vyhledávat – a vzhledem k tomu, že by do toho ten jednotlivec nebo lépe skupina lidí nakrmila jen obsah, který je zajímá, tak by to dávalo hodnotné výsledky. Takový server bych rád sdílel např. s uživateli Ábíčka, členy Brmlabu a jiných podobných komunit.
Tak kdyby se někdo nudil, můžete to naprogramovat :-)
(osobně bych se do toho pustil, ale mám už rozdělaných tolik věcí, že musím teď spíš dotáhnout něco z nich než rozjíždět další projekt…)
[1] např. kdybych se k proxy serveru hlásil jako franta.2016-04-08, tak bych dostával stav stránek kolem tohoto data, nebo nejbližší dostupnou verzi – a to jméno by automaticky nastavil doplněk v prohlížeči, já bych jen v GUI zvolil požadované datum
Tiskni
Sdílej:
Existuje nějaké hotové řešení, které umožní uložit celou stránku do jednoho souboru nebo si to člověk musí napsat sám?Jinak se dívám, že na webu MAFF teď doporučují Save Page WE, který se snaží externí data do html souboru buď přímo includovat (např. v případě javascriptu nebo css) a binární data ukládá v javascriptu přes base64. Oproti MAFF je to downgrade, ale nějak to funguje.
Další možnost by bylo serverové řešení – takový webový archiv (něco jako archive.org) pro jednotlivce nebo skupinu lidíZkoušel jsi používat Archiveror? Btw taky umí ukládat lokálně do MHTML souboru, ale nefunguje to ve Firefoxu.
Save Page WE, který se snaží externí data do html souboru buď přímo includovat (např. v případě javascriptu nebo css) a binární data ukládá v javascriptu přes base64. Oproti MAFF je to downgrade, ale nějak to funguje.
Dík, to vypadá dobře, vyzkouším…
Tak jsem zjistil, že v Chromiu jde už pustit tisk i z příkazové řádky a lezou z toho (aspoň v případě Wikipedie) celkem slušné výsledky – např.
chromium-browser --incognito --headless --print-to-pdf="tisk.pdf" https://en.wikipedia.org/wiki/Balanced_audio
A přes exiftool tam jdou přidat metadata. To vypadá dobře. Asi si na to udělám nějaký skript…
Obrázky – schémata, grafy… Někdy by se hodilo plné rozlišení na stránce, ale do PDF se uloží jen náhled – člověk si pak musí velký obrázek uložit ručně bokem. Ty grafy bývají zase někdy generované JavaScripte (grrr) nebo jsou interaktivní – to se do PDF taky neuloží. Na to by byla dobrá ta proxy, která by dokázala zopakovat/nasimulovat tu HTTP komunikaci přesně tak, jaká byla v době ukládání – včetně třeba toho, že sis stáhl plné rozlišení obrázku – v archivu bys na něj pak taky mohl kliknout.
Problém by byly asi jen websockety a záměrná obfuskace ze strany toho webu.
wget s parametry pro stažení všech potřebných souborů. Na normálních stránkách to funguje, na nenormálních stejně většinou žádná podstatná informace k archivaci není. To se potom ukládá deduplikovaně (unikátní soubory) do DB.
Pokud si chci nějakou stránku uložit i včetně vzhledu, tak buď tisk do PDF (ale některé stránky mají zmršený tiskový styl) a jako poslední možnost screenshot.
Když jsem nad tím na počátku přemýšlel, tak jsem měl v plánu to stahovat a ukládat rozumněji, ale potom mě přešla chuť. Byl by to tentýž boj jako s blokováním reklamy. A furt to upravovat pro další a ještě více zmršené stránky se mi prostě nechce. Takže wget, index to stáhne, textová informace tam je a na normálních stránkách to funguje dobře i včetně dalšího obsahu stránky.
O to víc si vážím projektů jako je youtube-dl, bez kterého bych se na některá videa ani nepodíval a jsem rád, že je baví to nestále opravovat při boji s větrnými mlýny v podobě neustálých změn na příslušných stránkách.
Co ti tam chybí? Já používám Hg a obyčejné textové soubory, sem tam nějaký obrázek, PDF, uložená webová stránka atd. Hodně z toho jsou skripty – pak tomu dávám příponu .sh, aby mi editor zvýrazňoval syntaxi a na začátku mám:
#!/bin/bash exit 1;
tzn. je to hromada tématicky souvisejících příkazů, které nejsou určené k sekvenčnímu spouštění, a hlavně komentáře. Časem přidám možná nějaký WYSIWYM editor a možná indexovač/vyhledávač, ale zatím se v tom v pohodě vyznám i bez toho, stačí adresářová struktura a případně grep.
Pokud bych potkal multiplatformní nástroj. Jednoduchý, přehledný, free s kvalitním vyhledáváním a filtry, tak je možné, že verzovací systém + org-mode opustím.
Stránku lze sice uložit přes Ctrl+S, ale to vytvoří i podadresář a hromadu souborů.Tohle používám. Úplně nevidim, v čem je takový problém s více soubory, ale nešlo by to případně zkonvertovat do mht nebo takněčeho?
MHT = MIME Encapsulation of Aggregate HTML Documents tzn. totéž jako např. multipart e-mail s přílohami.
BTW: ještě by bylo zajímavé mít nějakou nezávislou autoritu, která by stránku stáhla, zabalila do jednoho souboru a ten elektronicky podepsala – a tím potvrdila, že v tom čase byl na dané URL daný obsah.
CTRL+s.
Osobně ukládám stránky do webarchive
Škoda, že Webarchiv některé stránky rozbije a udělá z nich nevalidní XHTML, takže se v prohlížeči zobrazí jen chybová hláška…