Při úklidu na Utažské univerzitě se ve skladovacích prostorách náhodou podařilo nalézt magnetickou pásku s kopií Unixu V4. Páska byla zaslána do počítačového muzea, kde se z pásky úspěšně podařilo extrahovat data a Unix spustit. Je to patrně jediný známý dochovaný exemplář tohoto 52 let starého Unixu, prvního vůbec programovaného v jazyce C.
FFmpeg nechal kvůli porušení autorských práv odstranit z GitHubu jeden z repozitářů patřících čínské technologické firmě Rockchip. Důvodem bylo porušení LGPL ze strany Rockchipu. Rockchip byl FFmpegem na porušování LGPL upozorněn již téměř před dvěma roky.
K dispozici je nový CLI nástroj witr sloužící k analýze běžících procesů. Název je zkratkou slov why-is-this-running, 'proč tohle běží'. Klade si za cíl v 'jediném, lidsky čitelném, výstupu vysvětlit odkud daný spuštěný proces pochází, jak byl spuštěn a jaký řetězec systémů je zodpovědný za to, že tento proces právě teď běží'. Witr je napsán v jazyce Go.
Yazi je správce souborů běžící v terminálu. Napsán je v programovacím jazyce Rust. Podporuje asynchronní I/O operace. Vydán byl v nové verzi 25.12.29. Instalovat jej lze také ze Snapcraftu.
Od soboty do úterý probíhá v Hamburku konference 39C3 (Chaos Communication Congress) věnovaná také počítačové bezpečnosti nebo hardwaru. Program (jiná verze) slibuje řadu zajímavých přednášek. Streamy a záznamy budou k dispozici na media.ccc.de.
Byl představen nový Xserver Phoenix, kompletně od nuly vyvíjený v programovacím jazyce Zig. Projekt Phoenix si klade za cíl být moderní alternativou k X.Org serveru.
XLibre Xserver byl 21. prosince vydán ve verzi 25.1.0, 'winter solstice release'. Od založení tohoto forku X.Org serveru se jedná o vůbec první novou minor verzi (inkrementovalo se to druhé číslo v číselném kódu verze).
Wayback byl vydán ve verzi 0.3. Wayback je "tak akorát Waylandu, aby fungoval Xwayland". Jedná se o kompatibilní vrstvu umožňující běh plnohodnotných X11 desktopových prostředí s využitím komponent z Waylandu. Cílem je nakonec nahradit klasický server X.Org, a tím snížit zátěž údržby aplikací X11.
Byla vydána verze 4.0.0 programovacího jazyka Ruby (Wikipedie). S Ruby Box a ZJIT. Ruby lze vyzkoušet na webové stránce TryRuby. U příležitosti 30. narozenin, první veřejná verze Ruby 0.95 byla oznámena 21. prosince 1995, proběhl redesign webových stránek.
Všem čtenářkám a čtenářům AbcLinuxu krásné Vánoce.
Existuje nějaké hotové řešení, které umožní uložit celou stránku do jednoho souboru nebo si to člověk musí napsat sám?Jinak se dívám, že na webu MAFF teď doporučují Save Page WE, který se snaží externí data do html souboru buď přímo includovat (např. v případě javascriptu nebo css) a binární data ukládá v javascriptu přes base64. Oproti MAFF je to downgrade, ale nějak to funguje.
Další možnost by bylo serverové řešení – takový webový archiv (něco jako archive.org) pro jednotlivce nebo skupinu lidíZkoušel jsi používat Archiveror? Btw taky umí ukládat lokálně do MHTML souboru, ale nefunguje to ve Firefoxu.
Save Page WE, který se snaží externí data do html souboru buď přímo includovat (např. v případě javascriptu nebo css) a binární data ukládá v javascriptu přes base64. Oproti MAFF je to downgrade, ale nějak to funguje.
Dík, to vypadá dobře, vyzkouším…
Tak jsem zjistil, že v Chromiu jde už pustit tisk i z příkazové řádky a lezou z toho (aspoň v případě Wikipedie) celkem slušné výsledky – např.
chromium-browser --incognito --headless --print-to-pdf="tisk.pdf" https://en.wikipedia.org/wiki/Balanced_audio
A přes exiftool tam jdou přidat metadata. To vypadá dobře. Asi si na to udělám nějaký skript…
Obrázky – schémata, grafy… Někdy by se hodilo plné rozlišení na stránce, ale do PDF se uloží jen náhled – člověk si pak musí velký obrázek uložit ručně bokem. Ty grafy bývají zase někdy generované JavaScripte (grrr) nebo jsou interaktivní – to se do PDF taky neuloží. Na to by byla dobrá ta proxy, která by dokázala zopakovat/nasimulovat tu HTTP komunikaci přesně tak, jaká byla v době ukládání – včetně třeba toho, že sis stáhl plné rozlišení obrázku – v archivu bys na něj pak taky mohl kliknout.
Problém by byly asi jen websockety a záměrná obfuskace ze strany toho webu.
wget s parametry pro stažení všech potřebných souborů. Na normálních stránkách to funguje, na nenormálních stejně většinou žádná podstatná informace k archivaci není. To se potom ukládá deduplikovaně (unikátní soubory) do DB.
Pokud si chci nějakou stránku uložit i včetně vzhledu, tak buď tisk do PDF (ale některé stránky mají zmršený tiskový styl) a jako poslední možnost screenshot.
Když jsem nad tím na počátku přemýšlel, tak jsem měl v plánu to stahovat a ukládat rozumněji, ale potom mě přešla chuť. Byl by to tentýž boj jako s blokováním reklamy. A furt to upravovat pro další a ještě více zmršené stránky se mi prostě nechce. Takže wget, index to stáhne, textová informace tam je a na normálních stránkách to funguje dobře i včetně dalšího obsahu stránky.
O to víc si vážím projektů jako je youtube-dl, bez kterého bych se na některá videa ani nepodíval a jsem rád, že je baví to nestále opravovat při boji s větrnými mlýny v podobě neustálých změn na příslušných stránkách.
Co ti tam chybí? Já používám Hg a obyčejné textové soubory, sem tam nějaký obrázek, PDF, uložená webová stránka atd. Hodně z toho jsou skripty – pak tomu dávám příponu .sh, aby mi editor zvýrazňoval syntaxi a na začátku mám:
#!/bin/bash exit 1;
tzn. je to hromada tématicky souvisejících příkazů, které nejsou určené k sekvenčnímu spouštění, a hlavně komentáře. Časem přidám možná nějaký WYSIWYM editor a možná indexovač/vyhledávač, ale zatím se v tom v pohodě vyznám i bez toho, stačí adresářová struktura a případně grep.
Pokud bych potkal multiplatformní nástroj. Jednoduchý, přehledný, free s kvalitním vyhledáváním a filtry, tak je možné, že verzovací systém + org-mode opustím.
Stránku lze sice uložit přes Ctrl+S, ale to vytvoří i podadresář a hromadu souborů.Tohle používám. Úplně nevidim, v čem je takový problém s více soubory, ale nešlo by to případně zkonvertovat do mht nebo takněčeho?
MHT = MIME Encapsulation of Aggregate HTML Documents tzn. totéž jako např. multipart e-mail s přílohami.
BTW: ještě by bylo zajímavé mít nějakou nezávislou autoritu, která by stránku stáhla, zabalila do jednoho souboru a ten elektronicky podepsala – a tím potvrdila, že v tom čase byl na dané URL daný obsah.
CTRL+s.
Osobně ukládám stránky do webarchive
Škoda, že Webarchiv některé stránky rozbije a udělá z nich nevalidní XHTML, takže se v prohlížeči zobrazí jen chybová hláška…
Tiskni
Sdílej: