Od soboty do úterý probíhá v Hamburku konference 39C3 (Chaos Communication Congress) věnovaná také počítačové bezpečnosti nebo hardwaru. Program (jiná verze) slibuje řadu zajímavých přednášek. Streamy a záznamy budou k dispozici na media.ccc.de.
Byl představen nový Xserver Phoenix, kompletně od nuly vyvíjený v programovacím jazyce Zig. Projekt Phoenix si klade za cíl být moderní alternativou k X.Org serveru.
XLibre Xserver byl 21. prosince vydán ve verzi 25.1.0, 'winter solstice release'. Od založení tohoto forku X.Org serveru se jedná o vůbec první novou minor verzi (inkrementovalo se to druhé číslo v číselném kódu verze).
Wayback byl vydán ve verzi 0.3. Wayback je "tak akorát Waylandu, aby fungoval Xwayland". Jedná se o kompatibilní vrstvu umožňující běh plnohodnotných X11 desktopových prostředí s využitím komponent z Waylandu. Cílem je nakonec nahradit klasický server X.Org, a tím snížit zátěž údržby aplikací X11.
Byla vydána verze 4.0.0 programovacího jazyka Ruby (Wikipedie). S Ruby Box a ZJIT. Ruby lze vyzkoušet na webové stránce TryRuby. U příležitosti 30. narozenin, první veřejná verze Ruby 0.95 byla oznámena 21. prosince 1995, proběhl redesign webových stránek.
Všem čtenářkám a čtenářům AbcLinuxu krásné Vánoce.
Byla vydána nová verze 7.0 linuxové distribuce Parrot OS (Wikipedie). S kódovým názvem Echo. Jedná se o linuxovou distribuci založenou na Debianu a zaměřenou na penetrační testování, digitální forenzní analýzu, reverzní inženýrství, hacking, anonymitu nebo kryptografii. Přehled novinek v příspěvku na blogu.
Vývojáři postmarketOS vydali verzi 25.12 tohoto před osmi lety představeného operačního systému pro chytré telefony vycházejícího z optimalizovaného a nakonfigurovaného Alpine Linuxu s vlastními balíčky. Přehled novinek v příspěvku na blogu. Na výběr jsou 4 uživatelská rozhraní: GNOME Shell on Mobile, KDE Plasma Mobile, Phosh a Sxmo.
Byla vydána nová verze 0.41.0 multimediálního přehrávače mpv (Wikipedie) vycházejícího z přehrávačů MPlayer a mplayer2. Přehled novinek, změn a oprav na GitHubu. Požadován je FFmpeg 6.1 nebo novější a také libplacebo 6.338.2 nebo novější.
Byla vydána nová verze 5.5 (novinky) skriptovacího jazyka Lua (Wikipedie). Po pěti a půl letech od vydání verze 5.4.
Máme WWW server, běží už dlouho a nevíme, co všecko na něm je. V zásadě HTML stránky, ale taky PHP aplikace, různé věci od různých autorů z různých dob. Jsou toho tisíce souborů. Potřebujeme to nějak zmapovat. Představoval bych si něco jako jako robota, který by začal na jednom URL toho webu, šel by po odkazech a tak by našel množinu vystavených URL a jak se mezi sebou odkazujou. Kdyby byl chytřejší, mohl by třeba i hádat, které URL dohromady dávají jednu prezentaci a které URL je v té prezentaci počáteční. Úplně sám by to jistě nezvládnul, musela by to být interaktivní aplikace. Nevíte o nějakých nástrojích na tohle téma?
find / -iname '*.html' -or -iname '*.php' -or ... najde všechny zajímavé soubory a jejich umístění. Navíc soubory pod jedním adresářem budou velmi pravděpodobně patřit do jedné prezentace.
Současně ale potřebuju získat představu o tom, jak se soubory volají mezi sebou a zejména které nejsou volány vůbec a lze je tedy zrušit. U PHP souborů může tag <A> být generován, takže nějakým grepováním ho nenajdu. Prohledávat HTML soubory poskytované webserverem po síti bude taky trochu práce, ale aspoň víme, že je to HTML. Některé stránky jsou přístupné jenom z intranetu a některé odevšad, takže spuštěním prohledávače z různých míst internetu dostaneme různé mapy webu. Takže proto tak složitě.
Představoval bych si něco jako jako robota, který by začal na jednom URL toho webu, šel by po odkazech a tak by našel množinu vystavených URL a jak se mezi sebou odkazujou.Tohle zvládne i
wget, na to nepotřebujete žádného specializovaného robota.
Pythonský program, který bude volat wget, prohlídne si co dostal, zatřídí si to do asociaticního pole a jde na další. Ano to je jasný. Jenom že nějak tiše doufám, že už je to vyřešeno i s vyzkoušenými heuristikami na shlukování "souborů" do "prezentací", s vykoumaným zobrazením výsledků a tak podobně.
wget, bez Pythonu. Podívejte se na parametry --recursive, --level, --mirror, --accpet, --reject, --domains, --exclude-domains, --span-hosts, --include-directories, --exclude-directories, --no-parent, --page-requisites.
wget mi to stáhne, ale kdo to za mě přečte?
Podíval bych se do konfigurace www serveru (tzn. Apache nebo co tam běží), které virtualhosty tam jsou a kde mají document root, popř. odkud je ještě možnost spouštět další skripty.
Já osobně bych to ale prostě vypnul a sledoval, co komu začne chybět (protože předpokládám, že to je obsah, za který vám nikdo neplatí, neboť jinak byste v tom neměli takový bordel nebo by vám do toho bordelu nic nebylo). Třeba to celé už pár běželo úplně zbytečně
(Stejně tak si lze prohlédnout accesslogy webserveru.)
Jsme akademická instituce, nic na kšeft. Tenhle web tady běží od roku 95, různí lidé na něj něco přidávali, prostě dostali prostor a do něj dali, co si napsali v nějakém editoru. Server zakládali vědci, byl koncipován velmi promyšleně, proto tak dlouho vydržel. Ale teď už je obsah neudržovatelný. Tím není řečeno, že se má zahodit - stránky je nutné zkonvertovat do vhodného nového systému. Analýza obsahu je IMHO nutná.
Ten Metis vypadá zajímavě. Dík, zkusím to. Poslední verze je z roku 03. Asi řešíme teď problém, který byl hromadný na přelomu století.
Tiskni
Sdílej: