Open source webový aplikační framework Django slaví 20. narozeniny.
V Brestu dnes začala konference vývojářů a uživatelů linuxové distribuce Debian DebConf25. Na programu je řada zajímavých přednášek. Sledovat je lze online.
Před 30 lety, tj. 14. července 1995, se začala používat přípona .mp3 pro soubory s hudbou komprimovanou pomocí MPEG-2 Audio Layer 3.
Výroba 8bitových domácích počítačů Commodore 64 byla ukončena v dubnu 1994. Po více než 30 letech byl představen nový oficiální Commodore 64 Ultimate (YouTube). S deskou postavenou na FPGA. Ve 3 edicích v ceně od 299 dolarů a plánovaným dodáním v říjnu a listopadu letošního roku.
Společnost Hugging Face ve spolupráci se společností Pollen Robotics představila open source robota Reachy Mini (YouTube). Předobjednat lze lite verzi za 299 dolarů a wireless verzi s Raspberry Pi 5 za 449 dolarů.
Dnes v 17:30 bude oficiálně vydána open source počítačová hra DOGWALK vytvořena v 3D softwaru Blender a herním enginu Godot. Release party proběhne na YouTube od 17:00.
McDonald's se spojil se společností Paradox a pracovníky nabírá také pomocí AI řešení s virtuální asistentkou Olivii běžící na webu McHire. Ian Carroll a Sam Curry se na toto AI řešení blíže podívali a opravdu je překvapilo, že se mohli přihlásit pomocí jména 123456 a hesla 123456 a získat přístup k údajům o 64 milionech uchazečů o práci.
Byla vydána (𝕏) červnová aktualizace aneb nová verze 1.102 editoru zdrojových kódů Visual Studio Code (Wikipedie). Přehled novinek i s náhledy a videi v poznámkách k vydání. Ve verzi 1.102 vyjde také VSCodium, tj. komunitní sestavení Visual Studia Code bez telemetrie a licenčních podmínek Microsoftu.
Byla vydána nová verze 2.4.64 svobodného multiplatformního webového serveru Apache (httpd). Řešeno je mimo jiné 8 bezpečnostních chyb.
Společnost xAI na síti 𝕏 představila Grok 4, tj. novou verzi svého AI LLM modelu Grok.
predstava: offline prehliadatelny, s obrazkami, s jednym korenovym adresarom.
--page-requisites
ale drzal by sa iba v urovni http://office.microsoft.com/cs-cz/excel
--no-parent
A pochopitelně spustit rekurzivně a asi i s --convert-links
nejako sa to brani. vytvoril mi robots.txt a stiahol iba jeden subor - default.aspx. skusil som sa zamaskovat pomocou navodu z wikipedie, ale stale stiahne iba jeden subor. pridavam parametre wgetu a log. robots.txt prikladam v prilohe, ak to pomoze.
wget -r -t 7 -w 5 --waitretry=14 --random-wait --pa ge-requisites --no-parent --convert-links --user-agent="Mozilla/5.0(Win dows; U; Windows NT 5.1; en-US; rv:1.8.0.1.) Gecko/20060111 Firefox/1.5 .0.1" -m -k -K -e robots=off http://office.microsoft.com/cs-cz/excel --18:35:53-- http://office.microsoft.com/cs-cz/excel => `office.microsoft.com/cs-cz/excel.1' Resolving office.microsoft.com... 64.4.52.30 Connecting to office.microsoft.com|64.4.52.30|:80... connected. HTTP request sent, awaiting response... 302 Found Location: http://office.microsoft.com/cs-cz/excel/default.aspx [followi ng] --18:35:57-- http://office.microsoft.com/cs-cz/excel/default.aspx => `office.microsoft.com/cs-cz/excel/default.aspx' Reusing existing connection to office.microsoft.com:80. HTTP request sent, awaiting response... 200 OK Length: 3,874 (3.8K) [text/html] Last-modified header missing -- time-stamps turned off. --18:36:04-- http://office.microsoft.com/cs-cz/excel/default.aspx => `office.microsoft.com/cs-cz/excel/default.aspx' Reusing existing connection to office.microsoft.com:80. HTTP request sent, awaiting response... 200 OK Length: 3,872 (3.8K) [text/html] 100%[===========================>] 3,872 --.--K/s 18:36:04 (194.55 KB/s) - `office.microsoft.com/cs-cz/excel/default.aspx ' saved [3872/3872] FINISHED --18:36:04-- Downloaded: 3,872 bytes in 1 files Converting office.microsoft.com/cs-cz/excel/default.aspx... 0-1 Converted 1 files in 0.000 seconds.>
Tak to vzdávám - díval jsem se na zdrojáky té stažené stránky (default.aspx
) a vypadá to, že je tam nějaký JavaScript, který přesměrovává stránku jinam - a to wget
nezvládne.
Myslím, že rekurzivní stahovaní umožňovalo i nějaké rozšíření pro Firefox (ale nevím, kde jsem ho viděl).
V pripade robots.txt by mohl pomoct parametr "-e robots=off" nebo ekvivalent ve forme zapisu radku "robots=offů do ~/.wgetrc
V pripade robots.txt by mohl pomoct parametr "-e robots=off" nebo ekvivalent ve forme zapisu radku "robots=off" do ~/.wgetrc
Tiskni
Sdílej: