Všem na AbcLinuxu vše nejlepší k Valentýnu aneb Dni lásky ke svobodnému softwaru (I love Free Software Day, Mastodon, 𝕏).
Vývojáři openSUSE Tumbleweed oznámili, že u nových instalací se ve výchozím stavu přechází z AppArmor na SELinux. Uživatelé, kteří chtějí zůstat na AppArmor si mohou AppArmor vybrat v instalátoru.
Hector "marcan" Martin skončil jako vedoucí projektu Asahi Linux aneb Linux na Apple Siliconu. Projekt ale pokračuje dál.
PostgreSQL byl vydán ve verzích 17.3, 16.7, 15.11, 14.16 a 13.19. Řešena je zranitelnost CVE-2025-1094 s CVSS 8.1 a více než 70 chyb.
Dnes je Světový den rádia. Použili jste někdy GNU Radio?
Před 33 lety, ve čtvrtek 13. února 1992, se tehdejší Česká a Slovenská Federativní Republika oficiálně (a slavnostně) připojila k Internetu.
Byla vydána nová verze 9.10 z Debianu vycházející linuxové distribuce DietPi pro (nejenom) jednodeskové počítače. Přehled novinek v poznámkách k vydání.
Český LibreOffice tým vydává překlad příručky LibreOffice Math 24.8. Math je modul editoru vzorců v kancelářském balíku LibreOffice a poskytuje možnosti rozvržení pro zobrazení matematických, chemických, elektrických nebo vědeckých vzorců ve standardní písemné notaci. Příručka je ke stažení na stránce dokumentace.
Společnost Backblaze zveřejnila statistiky spolehlivosti pevných disků používaných ve svých datových centrech za rok 2024. Ke konci roku 2024 vlastnila 305 180 pevných disků. Průměrná AFR (Annualized Failure Rate), tj. pravděpodobnost, že disk během roku selže, byla 1,57 %. V roce 2023 to bylo 1,70 %. V roce 2022 to bylo 1,37 %.
Intel vydal 34 upozornění na bezpečnostní chyby ve svých produktech. Současně vydal verzi 20250211 mikrokódů pro své procesory řešící 5 bezpečnostních chyb.
predstava: offline prehliadatelny, s obrazkami, s jednym korenovym adresarom.
--page-requisites
ale drzal by sa iba v urovni http://office.microsoft.com/cs-cz/excel
--no-parent
A pochopitelně spustit rekurzivně a asi i s --convert-links
nejako sa to brani. vytvoril mi robots.txt a stiahol iba jeden subor - default.aspx. skusil som sa zamaskovat pomocou navodu z wikipedie, ale stale stiahne iba jeden subor. pridavam parametre wgetu a log. robots.txt prikladam v prilohe, ak to pomoze.
wget -r -t 7 -w 5 --waitretry=14 --random-wait --pa ge-requisites --no-parent --convert-links --user-agent="Mozilla/5.0(Win dows; U; Windows NT 5.1; en-US; rv:1.8.0.1.) Gecko/20060111 Firefox/1.5 .0.1" -m -k -K -e robots=off http://office.microsoft.com/cs-cz/excel --18:35:53-- http://office.microsoft.com/cs-cz/excel => `office.microsoft.com/cs-cz/excel.1' Resolving office.microsoft.com... 64.4.52.30 Connecting to office.microsoft.com|64.4.52.30|:80... connected. HTTP request sent, awaiting response... 302 Found Location: http://office.microsoft.com/cs-cz/excel/default.aspx [followi ng] --18:35:57-- http://office.microsoft.com/cs-cz/excel/default.aspx => `office.microsoft.com/cs-cz/excel/default.aspx' Reusing existing connection to office.microsoft.com:80. HTTP request sent, awaiting response... 200 OK Length: 3,874 (3.8K) [text/html] Last-modified header missing -- time-stamps turned off. --18:36:04-- http://office.microsoft.com/cs-cz/excel/default.aspx => `office.microsoft.com/cs-cz/excel/default.aspx' Reusing existing connection to office.microsoft.com:80. HTTP request sent, awaiting response... 200 OK Length: 3,872 (3.8K) [text/html] 100%[===========================>] 3,872 --.--K/s 18:36:04 (194.55 KB/s) - `office.microsoft.com/cs-cz/excel/default.aspx ' saved [3872/3872] FINISHED --18:36:04-- Downloaded: 3,872 bytes in 1 files Converting office.microsoft.com/cs-cz/excel/default.aspx... 0-1 Converted 1 files in 0.000 seconds.>
Tak to vzdávám - díval jsem se na zdrojáky té stažené stránky (default.aspx
) a vypadá to, že je tam nějaký JavaScript, který přesměrovává stránku jinam - a to wget
nezvládne.
Myslím, že rekurzivní stahovaní umožňovalo i nějaké rozšíření pro Firefox (ale nevím, kde jsem ho viděl).
V pripade robots.txt by mohl pomoct parametr "-e robots=off" nebo ekvivalent ve forme zapisu radku "robots=offů do ~/.wgetrc
V pripade robots.txt by mohl pomoct parametr "-e robots=off" nebo ekvivalent ve forme zapisu radku "robots=off" do ~/.wgetrc
Tiskni
Sdílej: