abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
AbcLinuxu hledá autory!
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
    dnes 05:22 | IT novinky

    Společnost OpenAI rozšířila své API o nové audio modely. Nový model pro převod textu na řeč (text-to-speech model) lze bez přihlašování vyzkoušet na stránce OpenAI.fm.

    Ladislav Hagara | Komentářů: 0
    včera 21:33 | Zajímavý článek

    Příspěvek Bezpečnost paměti pro webové fonty na blogu Chrome pro vývojáře rozebírá, proč se pro zpracování webových fontů v Chrome místo FreeType nově používá v Rustu napsaná Skrifa z Fontations.

    Ladislav Hagara | Komentářů: 0
    včera 15:22 | Komunita

    V pátek 21. a v sobotu 22. března proběhnou Arduino Days 2025, tj. každoroční „narozeninová oslava“ platformy Arduino. Na programu je řada zajímavých přednášek. Sledovat je bude možné na YouTube. Zúčastnit se lze i lokálních akcí. V sobotu v Praze na Matfyzu.

    Ladislav Hagara | Komentářů: 0
    včera 11:00 | Pozvánky

    Komunitná konferencia Bratislava OpenCamp, ktorá sa uskutoční už o tri týždne 5. 4. 2025 na FIIT STU pozná svoj program – návštevníkom ponúkne 3 paralelné behy prednášok a workshopov na rôzne témy týkajúce sa otvoreného softvéru či otvorených technológií.

    Ladislav Hagara | Komentářů: 0
    včera 05:11 | Zajímavý článek

    Časopis MagPi od nakladatelství Raspberry Pi se s číslem 151 přejmenoval na Raspberry Pi Official Magazine. I pod novým názvem zůstává nadále ve formátu pdf zdarma ke čtení.

    Ladislav Hagara | Komentářů: 0
    včera 01:55 | IT novinky

    Japonská SoftBank Group kupuje firmu Ampere Computing za 6,5 miliardy dolarů. Ampere Computing vyrábí 32-128jádrové procesory Ampere Altra a 192jádrové procesory AmpereOne.

    Ladislav Hagara | Komentářů: 10
    včera 01:11 | Nová verze

    Byla vydána (𝕏) nová verze 2025.1a linuxové distribuce navržené pro digitální forenzní analýzu a penetrační testování Kali Linux (Wikipedie). Přehled novinek v oficiálním oznámení na blogu.

    Ladislav Hagara | Komentářů: 0
    19.3. 20:55 | Nová verze

    Po půl roce vývoje od vydání verze 47 bylo vydáno GNOME 48 s kódovým názvem Bengaluru. Přehled novinek i s náhledy v poznámkách k vydání a v novinkách pro vývojáře. Vypíchnout lze počáteční podporu HDR, nová výchozí písma Adwaita Sans a Adwaita Mono, přehrávač zvukových souborů Decibely, Pohodu v Nastavení (Digital Wellbeing), …

    Ladislav Hagara | Komentářů: 7
    19.3. 17:33 | Pozvánky

    Engineering Open House v Red Hatu v Brně proběhne v pondělí 31. března [Facebook].

    Ladislav Hagara | Komentářů: 0
    19.3. 13:00 | Nová verze

    Byla vydána nová stabilní verze 7.2 webového prohlížeče Vivaldi (Wikipedie). Postavena je na Chromiu 134. Přehled novinek i s náhledy v příspěvku na blogu.

    Ladislav Hagara | Komentářů: 0
    Jaké je vaše preferované prostředí?
     (27%)
     (1%)
     (1%)
     (2%)
     (1%)
     (2%)
     (64%)
     (2%)
    Celkem 183 hlasů
     Komentářů: 5, poslední 13.3. 11:45
    Rozcestník

    Dotaz: stáhnutí celého webu přes wget

    15.6.2013 14:29 typicky linuxak
    stáhnutí celého webu přes wget
    Přečteno: 1313×
    Zdravím, předpokládám, že se neubráním narážkám v komentářích ohledně zvoleného nicku a webu, který chci stáhnout, ale doufám, že mi někdo i poradí.

    Snažím se stáhnout www.qark.net pomocí wget jako celého webu (mirror). Pokud stáhnu web takto, nebo i jinak (rekurzivně se zvolenou možností převodu linků) apod., vždy se mi stáhne web bez grafické formy (zkoušel jsem hodněkrát na spoustu způsobů a nebyl jsem zatím úspěšný...).

    Poraďte mi prosím příkaz, který stáhne web tak, že pak půjde otevřít z disku a bude vypadat jako ten na webu. Nemusí to být wget, stáhnu to čímkoliv. Je to pro vlastní potřebu, bojím se, že ten web jednou zmizí :)

    Děkuji :) podle zvoleného nicku jistě chápete, že tento web potřebuji...

    Odpovědi

    15.6.2013 14:33 typicky linuxak
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    no, tou poslední větou jsem to možná zabil...
    15.6.2013 14:56 michi
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    …touhle už úplně :-)
    15.6.2013 14:59 Suso
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    skus vyskusat httrack funguje aj v console spusti webovy port na ktorom si naklikas stranku hlbku a kopu dalsieho a mozno ho najdes aj v balickoch

    apt-get install webhttrack

    http://www.httrack.com/
    15.6.2013 22:38 typicky linuxak
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    mno, tohle je zatím největší úspěch, vypadá to skoro jak má, linky jsou přeložené, chybí akorát nějaké obrázky, ale s tím se myslím dá žít...
    15.6.2013 18:44 Petr | skóre: 29
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    wget -m? pokud tedy chapu zadani...
    15.6.2013 18:48 typicky linuxak
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    wget -m jsem zkusil jako prvni, tvarilo se to, ze to stahlo cely web, ale pri otevreni webu v prohlizeci byl videt jen zvlastne formatovany text, grafika tam vubec nebyla.
    15.6.2013 18:48 MadCatX
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    wget -r -l inf --domains qark.net -k -p -nc -T 3 -w 1 -t 1 www.qark.net 
    
    15.6.2013 22:32 typicky linuxak
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    tohle mi nepřevedlo část odkazů na lokalní adresy, míří stále na původní web. Konkrétně jednotlivé články na hlavní stránce. Lišta menu umístěná nahoře je v pořádku.

    Grafika je už ok, jdu luštit jednotlivé parametry příkazu, abych pochopil, proč :)
    16.6.2013 00:57 MadCatX
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    Ty linky se nepřevedou IMHO proto, že jsou napsány jako http://www.qark.net/clanek/... a s tím si wget neporadí. Možné řešení je utilizovat sed a ty odkazy převést ručně, např. tímto nechutným hackem:
    #!/bin/sh
    
    for f in $(find ./ -maxdepth 1 -not -name "pdf.php?*" -not -name "*.pdf" -not -name "*.png" -not -name "*.jpg" -not -name "*.ico")
    do
      echo "Processing ${f}"
      sed -i 's/href="http:\/\/www.qark.net\//href="/g' ${f}
    done
    
    for dir in clanek kategorie
    do
      for f in $(find ./${dir} -maxdepth 1 -not -name "pdf.php?*" -not -name "*.pdf" -not -name "*.png" -not -name "*.jpg" -not -name "*.ico")
      do
        echo "Processing ${f}"
        sed -i 's/href="http:\/\/www.qark.net\//href="..\//g' ${f}
      done
    done
    
    Než to budete zkoušet, udělejte si kopii toho staženého webu!

    Jinak část těch parametrů wgetu, co jsem navrhoval měly pouze urychlovací charakter. Ten web očividně linkuje kde co a část těch odkazů je mrtvých.

    15.6.2013 22:15 moudry linuxak
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    napadlo tě někdy, že bys byl pro ženy atraktivnější, když by sis ho nehonil?

    jinak samozřejmě stačí nebýt líný, a vydělávat hodně peněz. uvidíš, že se pak ženy přetrhnou o to, která tě může obrat o tvé těžce vydělané peníze. dotlačí tě k svatbě, následně rozvod, a dělení tvého těžce vydělaného majetku + výživné. jenom se usměje, a začneš tancovat jako pejsek na vodítku. bude tě ovládat pohybem obočí. to jenom abys věděl, do čeho jdeš.

    nemysli si, že tě znalost linuxu zachrání.
    15.6.2013 22:36 typicky linuxak
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    :)

    když jsem se rozhodl zeptat se na způsob stáhnutí toho webu tady, na abclinuxu, docela se nabízelo to napsat trošku ironicky a v nadsázce...

    Ale díky za shrnutí :)
    15.6.2013 22:55 Ash | skóre: 53
    Rozbalit Rozbalit vše Re: stáhnutí celého webu přes wget
    Správně, a za svou osobu prosím neúspěšné zkrachovalce, aby už neradili ;), protože bod číslo jedna na cestě k úspěchu je, zbavit se jich.

    Založit nové vláknoNahoru

    Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.