abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
    dnes 04:44 | Nová verze

    Nová čísla časopisů od nakladatelství Raspberry Pi: MagPi 140 (pdf) a HackSpace 77 (pdf).

    Ladislav Hagara | Komentářů: 0
    dnes 01:00 | Nová verze

    ESPHome, tj. open source systém umožňující nastavovat zařízení s čipy ESP (i dalšími) pomocí konfiguračních souborů a připojit je do domácí automatizace, například do Home Assistantu, byl vydán ve verzi 2024.4.0.

    Ladislav Hagara | Komentářů: 0
    včera 22:11 | IT novinky Ladislav Hagara | Komentářů: 0
    včera 20:55 | Nová verze

    Neziskové průmyslové konsorcium Khronos Group vydalo verzi 1.1 specifikace OpenXR (Wikipedie), tj. standardu specifikujícího přístup k platformám a zařízením pro XR, tj. platformám a zařízením pro AR (rozšířenou realitu) a VR (virtuální realitu). Do základu se z rozšíření dostalo XR_EXT_local_floor. Společnost Collabora implementuje novou verzi specifikace do platformy Monado, tj. open source implementace OpenXR.

    Ladislav Hagara | Komentářů: 2
    včera 17:22 | Nová verze

    Byla vydána nová verze 0.38.0 multimediálního přehrávače mpv (Wikipedie) vycházejícího z přehrávačů MPlayer a mplayer2. Přehled novinek, změn a oprav na GitHubu. Požadován je FFmpeg 4.4 nebo novější a také libplacebo 6.338.2 nebo novější.

    Ladislav Hagara | Komentářů: 1
    včera 17:11 | Nová verze

    ClamAV (Wikipedie), tj. multiplatformní antivirový engine s otevřeným zdrojovým kódem pro detekci trojských koní, virů, malwaru a dalších škodlivých hrozeb, byl vydán ve verzích 1.3.1, 1.2.3 a 1.0.6. Ve verzi 1.3.1 je mimo jiné řešena bezpečnostní chyba CVE-2024-20380.

    Ladislav Hagara | Komentářů: 1
    včera 12:11 | IT novinky

    Digitální a informační agentura (DIA) oznámila (PDF, X a Facebook), že mobilní aplikace Portál občana je ode dneška oficiálně venku.

    Ladislav Hagara | Komentářů: 7
    včera 05:11 | Komunita

    #HACKUJBRNO 2024, byly zveřejněny výsledky a výstupy hackathonu města Brna nad otevřenými městskými daty, který se konal 13. a 14. dubna 2024.

    Ladislav Hagara | Komentářů: 2
    17.4. 17:55 | IT novinky

    Společnost Volla Systeme stojící za telefony Volla spustila na Kickstarteru kampaň na podporu tabletu Volla Tablet s Volla OS nebo Ubuntu Touch.

    Ladislav Hagara | Komentářů: 3
    17.4. 17:44 | IT novinky

    Společnost Boston Dynamics oznámila, že humanoidní hydraulický robot HD Atlas šel do důchodu (YouTube). Nastupuje nová vylepšená elektrická varianta (YouTube).

    Ladislav Hagara | Komentářů: 1
    KDE Plasma 6
     (68%)
     (10%)
     (2%)
     (19%)
    Celkem 556 hlasů
     Komentářů: 4, poslední 6.4. 15:51
    Rozcestník

    Dotaz: stáhnutí celého webu přes wget

    15.6.2013 14:29 typicky linuxak
    stáhnutí celého webu přes wget
    Přečteno: 1295×
    Zdravím, předpokládám, že se neubráním narážkám v komentářích ohledně zvoleného nicku a webu, který chci stáhnout, ale doufám, že mi někdo i poradí.

    Snažím se stáhnout www.qark.net pomocí wget jako celého webu (mirror). Pokud stáhnu web takto, nebo i jinak (rekurzivně se zvolenou možností převodu linků) apod., vždy se mi stáhne web bez grafické formy (zkoušel jsem hodněkrát na spoustu způsobů a nebyl jsem zatím úspěšný...).

    Poraďte mi prosím příkaz, který stáhne web tak, že pak půjde otevřít z disku a bude vypadat jako ten na webu. Nemusí to být wget, stáhnu to čímkoliv. Je to pro vlastní potřebu, bojím se, že ten web jednou zmizí :)

    Děkuji :) podle zvoleného nicku jistě chápete, že tento web potřebuji...

    Odpovědi

    15.6.2013 14:33 typicky linuxak
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    no, tou poslední větou jsem to možná zabil...
    15.6.2013 14:56 michi
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    …touhle už úplně :-)
    15.6.2013 14:59 Suso
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    skus vyskusat httrack funguje aj v console spusti webovy port na ktorom si naklikas stranku hlbku a kopu dalsieho a mozno ho najdes aj v balickoch

    apt-get install webhttrack

    http://www.httrack.com/
    15.6.2013 22:38 typicky linuxak
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    mno, tohle je zatím největší úspěch, vypadá to skoro jak má, linky jsou přeložené, chybí akorát nějaké obrázky, ale s tím se myslím dá žít...
    15.6.2013 18:44 Petr | skóre: 29
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    wget -m? pokud tedy chapu zadani...
    15.6.2013 18:48 typicky linuxak
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    wget -m jsem zkusil jako prvni, tvarilo se to, ze to stahlo cely web, ale pri otevreni webu v prohlizeci byl videt jen zvlastne formatovany text, grafika tam vubec nebyla.
    15.6.2013 18:48 MadCatX
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    wget -r -l inf --domains qark.net -k -p -nc -T 3 -w 1 -t 1 www.qark.net 
    
    15.6.2013 22:32 typicky linuxak
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    tohle mi nepřevedlo část odkazů na lokalní adresy, míří stále na původní web. Konkrétně jednotlivé články na hlavní stránce. Lišta menu umístěná nahoře je v pořádku.

    Grafika je už ok, jdu luštit jednotlivé parametry příkazu, abych pochopil, proč :)
    16.6.2013 00:57 MadCatX
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    Ty linky se nepřevedou IMHO proto, že jsou napsány jako http://www.qark.net/clanek/... a s tím si wget neporadí. Možné řešení je utilizovat sed a ty odkazy převést ručně, např. tímto nechutným hackem:
    #!/bin/sh
    
    for f in $(find ./ -maxdepth 1 -not -name "pdf.php?*" -not -name "*.pdf" -not -name "*.png" -not -name "*.jpg" -not -name "*.ico")
    do
      echo "Processing ${f}"
      sed -i 's/href="http:\/\/www.qark.net\//href="/g' ${f}
    done
    
    for dir in clanek kategorie
    do
      for f in $(find ./${dir} -maxdepth 1 -not -name "pdf.php?*" -not -name "*.pdf" -not -name "*.png" -not -name "*.jpg" -not -name "*.ico")
      do
        echo "Processing ${f}"
        sed -i 's/href="http:\/\/www.qark.net\//href="..\//g' ${f}
      done
    done
    
    Než to budete zkoušet, udělejte si kopii toho staženého webu!

    Jinak část těch parametrů wgetu, co jsem navrhoval měly pouze urychlovací charakter. Ten web očividně linkuje kde co a část těch odkazů je mrtvých.

    15.6.2013 22:15 moudry linuxak
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    napadlo tě někdy, že bys byl pro ženy atraktivnější, když by sis ho nehonil?

    jinak samozřejmě stačí nebýt líný, a vydělávat hodně peněz. uvidíš, že se pak ženy přetrhnou o to, která tě může obrat o tvé těžce vydělané peníze. dotlačí tě k svatbě, následně rozvod, a dělení tvého těžce vydělaného majetku + výživné. jenom se usměje, a začneš tancovat jako pejsek na vodítku. bude tě ovládat pohybem obočí. to jenom abys věděl, do čeho jdeš.

    nemysli si, že tě znalost linuxu zachrání.
    15.6.2013 22:36 typicky linuxak
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    :)

    když jsem se rozhodl zeptat se na způsob stáhnutí toho webu tady, na abclinuxu, docela se nabízelo to napsat trošku ironicky a v nadsázce...

    Ale díky za shrnutí :)
    15.6.2013 22:55 Ash | skóre: 53
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    Správně, a za svou osobu prosím neúspěšné zkrachovalce, aby už neradili ;), protože bod číslo jedna na cestě k úspěchu je, zbavit se jich.

    Založit nové vláknoNahoru

    Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.