Protože je už po aprílu, můžou strahováci opět zveřejnit program další Virtuální Bastlírny, aniž by připravená témata působila dojmem, že jde o žert. Vězte tedy, že již v úterý 7. dubna od 20:00 proběhne VB, kde se setkají bastlíři, technici, učitelé i nadšenci do techniky a kde i vy se můžete zapojit do družného hovoru, jako by všichni seděli u pomyslného piva. Co mají bastlíři tento měsíc na srdci? Pravděpodobně by nás musel zasáhnout meteorit
… více »Byla vydána verze 26.1 aneb čtvrtletní aktualizace open source počítačového planetária Stellarium (Wikipedie, GitHub). Vyzkoušet lze webovou verzi Stellaria na Stellarium Web.
VOID (Video Object and Interaction Deletion) je nový open-source VLM model pro editaci videa, který dokáže z videí odstraňovat objekty včetně všech jejich fyzikálních interakcí v rámci scény (pády, kolize, stíny...) pomocí quadmaskingu (čtyřhodnotová maska, která člení pixely scény do čtyř kategorií: objekt určený k odstranění, překrývající se oblasti, objektem ovlivněné oblasti a pozadí scény) a dvoufázového inpaintingu. Za projektem stojí výzkumníci ze společnosti Netflix.
Design (GitHub) je 2D CAD pro GNOME. Instalovat lze i z Flathubu. Běží také ve webovém prohlížeči.
Příspěvek na blogu herního enginu Godot představuje aplikaci Xogot přinášející Godot na iPad a iPhone. Instalovat lze z App Storu. Za Xogotem stojí Miguel de Icaza (GitHub) a společnost Xibbon.
Na čem pracují vývojáři webového prohlížeče Ladybird (GitHub)? Byl publikován přehled vývoje za březen (YouTube).
ESP-IDF (Espressif IoT Development Framework), tj. oficiální vývojový framework pro vývoj aplikací na mikrokontrolérech řady ESP32, byl vydán v nové verzi 6.0. Detaily na portálu pro vývojáře.
DeepMind (Alphabet) představila novou verzi svého multimodálního modelu, Gemma 4. Modely jsou volně k dispozici (Ollama, Hugging Face a další) ve velikostech 5-31 miliard parametrů, s kontextovým oknem 128k až 256k a v dense i MoE variantách. Modely zvládají text, obrázky a u menších verzí i audio. Modely jsou optimalizované pro běh na desktopových GPU i mobilních zařízeních, váhy všech těchto modelů jsou uvolněny pod licencí Apache 2.0. Návod na spuštění je už i na Unsloth.
Cursor (Wikipedie) od společnosti Anysphere byl vydán ve verzi 3. Jedná se o multiplatformní proprietární editor kódů s podporou AI (vibe coding).
Průkopnická firma FingerWorks kolem roku 2000 vyvinula vícedotykové trackpady s gesty a klávesnice jako TouchStream LP. V roce 2005 ji koupil Apple, výrobu těchto produktů ukončil a dotykové technologie využil při vývoji iPhone. Multiplatformní projekt Apple Magic TouchstreamLP nyní implementuje funkcionalitu TouchStream LP na současném Apple Magic Trackpad, resp. jejich dvojici. Diskuze k vydání probíhá na Redditu.
Máme WWW server, běží už dlouho a nevíme, co všecko na něm je. V zásadě HTML stránky, ale taky PHP aplikace, různé věci od různých autorů z různých dob. Jsou toho tisíce souborů. Potřebujeme to nějak zmapovat. Představoval bych si něco jako jako robota, který by začal na jednom URL toho webu, šel by po odkazech a tak by našel množinu vystavených URL a jak se mezi sebou odkazujou. Kdyby byl chytřejší, mohl by třeba i hádat, které URL dohromady dávají jednu prezentaci a které URL je v té prezentaci počáteční. Úplně sám by to jistě nezvládnul, musela by to být interaktivní aplikace. Nevíte o nějakých nástrojích na tohle téma?
find / -iname '*.html' -or -iname '*.php' -or ... najde všechny zajímavé soubory a jejich umístění. Navíc soubory pod jedním adresářem budou velmi pravděpodobně patřit do jedné prezentace.
Současně ale potřebuju získat představu o tom, jak se soubory volají mezi sebou a zejména které nejsou volány vůbec a lze je tedy zrušit. U PHP souborů může tag <A> být generován, takže nějakým grepováním ho nenajdu. Prohledávat HTML soubory poskytované webserverem po síti bude taky trochu práce, ale aspoň víme, že je to HTML. Některé stránky jsou přístupné jenom z intranetu a některé odevšad, takže spuštěním prohledávače z různých míst internetu dostaneme různé mapy webu. Takže proto tak složitě.
Představoval bych si něco jako jako robota, který by začal na jednom URL toho webu, šel by po odkazech a tak by našel množinu vystavených URL a jak se mezi sebou odkazujou.Tohle zvládne i
wget, na to nepotřebujete žádného specializovaného robota.
Pythonský program, který bude volat wget, prohlídne si co dostal, zatřídí si to do asociaticního pole a jde na další. Ano to je jasný. Jenom že nějak tiše doufám, že už je to vyřešeno i s vyzkoušenými heuristikami na shlukování "souborů" do "prezentací", s vykoumaným zobrazením výsledků a tak podobně.
wget, bez Pythonu. Podívejte se na parametry --recursive, --level, --mirror, --accpet, --reject, --domains, --exclude-domains, --span-hosts, --include-directories, --exclude-directories, --no-parent, --page-requisites.
wget mi to stáhne, ale kdo to za mě přečte?
Podíval bych se do konfigurace www serveru (tzn. Apache nebo co tam běží), které virtualhosty tam jsou a kde mají document root, popř. odkud je ještě možnost spouštět další skripty.
Já osobně bych to ale prostě vypnul a sledoval, co komu začne chybět (protože předpokládám, že to je obsah, za který vám nikdo neplatí, neboť jinak byste v tom neměli takový bordel nebo by vám do toho bordelu nic nebylo). Třeba to celé už pár běželo úplně zbytečně
(Stejně tak si lze prohlédnout accesslogy webserveru.)
Jsme akademická instituce, nic na kšeft. Tenhle web tady běží od roku 95, různí lidé na něj něco přidávali, prostě dostali prostor a do něj dali, co si napsali v nějakém editoru. Server zakládali vědci, byl koncipován velmi promyšleně, proto tak dlouho vydržel. Ale teď už je obsah neudržovatelný. Tím není řečeno, že se má zahodit - stránky je nutné zkonvertovat do vhodného nového systému. Analýza obsahu je IMHO nutná.
Ten Metis vypadá zajímavě. Dík, zkusím to. Poslední verze je z roku 03. Asi řešíme teď problém, který byl hromadný na přelomu století.
Tiskni
Sdílej: