Byl vydán Nextcloud Hub 8. Představení novinek tohoto open source cloudového řešení také na YouTube. Vypíchnout lze Nextcloud AI Assistant 2.0.
Vyšlo Pharo 12.0, programovací jazyk a vývojové prostředí s řadou pokročilých vlastností. Krom tradiční nadílky oprav přináší nový systém správy ladících bodů, nový způsob definice tříd, prostor pro objekty, které nemusí procházet GC a mnoho dalšího.
Microsoft zveřejnil na GitHubu zdrojové kódy MS-DOSu 4.0 pod licencí MIT. Ve stejném repozitáři se nacházejí i před lety zveřejněné zdrojové k kódy MS-DOSu 1.25 a 2.0.
Canonical vydal (email, blog, YouTube) Ubuntu 24.04 LTS Noble Numbat. Přehled novinek v poznámkách k vydání a také příspěvcích na blogu: novinky v desktopu a novinky v bezpečnosti. Vydány byly také oficiální deriváty Edubuntu, Kubuntu, Lubuntu, Ubuntu Budgie, Ubuntu Cinnamon, Ubuntu Kylin, Ubuntu MATE, Ubuntu Studio, Ubuntu Unity a Xubuntu. Jedná se o 10. LTS verzi.
Na YouTube je k dispozici videozáznam z včerejšího Czech Open Source Policy Forum 2024.
Fossil (Wikipedie) byl vydán ve verzi 2.24. Jedná se o distribuovaný systém správy verzí propojený se správou chyb, wiki stránek a blogů s integrovaným webovým rozhraním. Vše běží z jednoho jediného spustitelného souboru a uloženo je v SQLite databázi.
Byla vydána nová stabilní verze 6.7 webového prohlížeče Vivaldi (Wikipedie). Postavena je na Chromiu 124. Přehled novinek i s náhledy v příspěvku na blogu. Vypíchnout lze Spořič paměti (Memory Saver) automaticky hibernující karty, které nebyly nějakou dobu používány nebo vylepšené Odběry (Feed Reader).
OpenJS Foundation, oficiální projekt konsorcia Linux Foundation, oznámila vydání verze 22 otevřeného multiplatformního prostředí pro vývoj a běh síťových aplikací napsaných v JavaScriptu Node.js (Wikipedie). V říjnu se verze 22 stane novou aktivní LTS verzí. Podpora je plánována do dubna 2027.
Byla vydána verze 8.2 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a v informačním videu. Zdůrazněn je průvodce migrací hostů z VMware ESXi do Proxmoxu.
R (Wikipedie), programovací jazyk a prostředí určené pro statistickou analýzu dat a jejich grafické zobrazení, bylo vydáno ve verzi 4.4.0. Její kódové jméno je Puppy Cup.
Máme WWW server, běží už dlouho a nevíme, co všecko na něm je. V zásadě HTML stránky, ale taky PHP aplikace, různé věci od různých autorů z různých dob. Jsou toho tisíce souborů. Potřebujeme to nějak zmapovat. Představoval bych si něco jako jako robota, který by začal na jednom URL toho webu, šel by po odkazech a tak by našel množinu vystavených URL a jak se mezi sebou odkazujou. Kdyby byl chytřejší, mohl by třeba i hádat, které URL dohromady dávají jednu prezentaci a které URL je v té prezentaci počáteční. Úplně sám by to jistě nezvládnul, musela by to být interaktivní aplikace. Nevíte o nějakých nástrojích na tohle téma?
find / -iname '*.html' -or -iname '*.php' -or ...
najde všechny zajímavé soubory a jejich umístění. Navíc soubory pod jedním adresářem budou velmi pravděpodobně patřit do jedné prezentace.
Současně ale potřebuju získat představu o tom, jak se soubory volají mezi sebou a zejména které nejsou volány vůbec a lze je tedy zrušit. U PHP souborů může tag <A> být generován, takže nějakým grepováním ho nenajdu. Prohledávat HTML soubory poskytované webserverem po síti bude taky trochu práce, ale aspoň víme, že je to HTML. Některé stránky jsou přístupné jenom z intranetu a některé odevšad, takže spuštěním prohledávače z různých míst internetu dostaneme různé mapy webu. Takže proto tak složitě.
Představoval bych si něco jako jako robota, který by začal na jednom URL toho webu, šel by po odkazech a tak by našel množinu vystavených URL a jak se mezi sebou odkazujou.Tohle zvládne i
wget
, na to nepotřebujete žádného specializovaného robota.
Pythonský program, který bude volat wget, prohlídne si co dostal, zatřídí si to do asociaticního pole a jde na další. Ano to je jasný. Jenom že nějak tiše doufám, že už je to vyřešeno i s vyzkoušenými heuristikami na shlukování "souborů" do "prezentací", s vykoumaným zobrazením výsledků a tak podobně.
wget
, bez Pythonu. Podívejte se na parametry --recursive, --level, --mirror, --accpet, --reject, --domains, --exclude-domains, --span-hosts, --include-directories, --exclude-directories, --no-parent, --page-requisites
.
wget mi to stáhne, ale kdo to za mě přečte?
Jsme akademická instituce, nic na kšeft. Tenhle web tady běží od roku 95, různí lidé na něj něco přidávali, prostě dostali prostor a do něj dali, co si napsali v nějakém editoru. Server zakládali vědci, byl koncipován velmi promyšleně, proto tak dlouho vydržel. Ale teď už je obsah neudržovatelný. Tím není řečeno, že se má zahodit - stránky je nutné zkonvertovat do vhodného nového systému. Analýza obsahu je IMHO nutná.
Ten Metis vypadá zajímavě. Dík, zkusím to. Poslední verze je z roku 03. Asi řešíme teď problém, který byl hromadný na přelomu století.
Tiskni Sdílej: