abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
AbcLinuxu hledá autory!
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
    včera 15:22 | IT novinky

    Eric Lengyel dobrovolně uvolnil jako volné dílo svůj patentovaný algoritmus Slug. Algoritmus vykresluje text a vektorovou grafiku na GPU přímo z dat Bézierových křivek, aniž by využíval texturové mapy obsahující jakékoli předem vypočítané nebo uložené obrázky a počítá přesné pokrytí pro ostré a škálovatelné zobrazení písma, referenční ukázka implementace v HLSL shaderech je na GitHubu. Slug je volným dílem od 17. března letošního

    … více »
    NUKE GAZA! 🎆 | Komentářů: 0
    včera 15:11 | Zajímavý projekt

    Sashiko (GitHub) je open source automatizovaný systém pro revizi kódu linuxového jádra. Monitoruje veřejné mailing listy a hodnotí navrhované změny pomocí umělé inteligence. Výpočetní zdroje a LLM tokeny poskytuje Google.

    Ladislav Hagara | Komentářů: 5
    včera 04:44 | Zajímavý software

    Cambalache, tj. RAD (rapid application development) nástroj pro GTK 4 a GTK 3, dospěl po pěti letech vývoje do verze 1.0. Instalovat jej lze i z Flathubu.

    Ladislav Hagara | Komentářů: 0
    20.3. 14:55 | Nová verze

    KiCad (Wikipedie), sada svobodných softwarových nástrojů pro počítačový návrh elektronických zařízení (EDA), byl vydán v nové major verzi 10.0.0 (𝕏). Přehled novinek v příspěvku na blogu.

    Ladislav Hagara | Komentářů: 0
    20.3. 13:22 | IT novinky

    Letošní Turingovou cenu (2025 ACM A.M. Turing Award, Nobelova cena informatiky) získali Charles H. Bennett a Gilles Brassard za základní přínosy do oboru kvantové informatiky, které převrátily pojetí bezpečné neprolomitelné komunikace a výpočetní techniky. Jejich protokol BB84 z roku 1984 umožnil fyzikálně zaručený bezpečný přenos šifrovacích klíčů, zatímco jejich práce o kvantové teleportaci položila teoretické základy pro budoucí kvantový internet. Jejich práce spojila fyziku s informatikou a ovlivnila celou generaci vědců.

    Ladislav Hagara | Komentářů: 7
    20.3. 04:44 | Zajímavý článek

    Firefox 149 dostupný od 24. března přinese bezplatnou vestavěnou VPN s 50 GB přenesených dat měsíčně (s CZ a SK se zatím nepočítá) a zobrazení dvou webových stránek vedle sebe v jednom panelu (split view). Firefox Labs 149 umožní přidat poznámky k panelům (tab notes, videoukázka).

    Ladislav Hagara | Komentářů: 2
    20.3. 00:33 | Nová verze

    Byla vydána nová stabilní verze 7.9 webového prohlížeče Vivaldi (Wikipedie). Postavena je na Chromiu 146. Přehled novinek i s náhledy v příspěvku na blogu.

    Ladislav Hagara | Komentářů: 0
    20.3. 00:11 | Zajímavý software

    Dle plánu byla vydána Opera GX pro Linux. Ke stažení je .deb i .rpm. V plánu je flatpak. Opera GX je webový prohlížeč zaměřený na hráče počítačových her.

    Ladislav Hagara | Komentářů: 7
    19.3. 19:22 | Nová verze

    GNUnet (Wikipedie) byl vydán v nové major verzi 0.27.0. Jedná se o framework pro decentralizované peer-to-peer síťování, na kterém je postavena řada aplikací.

    Ladislav Hagara | Komentářů: 0
    19.3. 04:00 | Bezpečnostní upozornění

    Byly publikovány informace (technické detaily) o bezpečnostním problému Snapu. Jedná se o CVE-2026-3888. Neprivilegovaný lokální uživatel může s využitím snap-confine a systemd-tmpfiles získat práva roota.

    Ladislav Hagara | Komentářů: 4
    Které desktopové prostředí na Linuxu používáte?
     (15%)
     (7%)
     (1%)
     (12%)
     (29%)
     (2%)
     (5%)
     (1%)
     (13%)
     (24%)
    Celkem 1126 hlasů
     Komentářů: 27, poslední 17.3. 19:26
    Rozcestník

    Dotaz: Zaloha webhostingu pres FTP

    6.3.2006 19:26 Zaloha webhostingu pres FTP
    Zaloha webhostingu pres FTP
    Přečteno: 377×
    Ahoj.

    Mam pristup na webhosting, kde jsou WWW pouze pres FTP. Potrebuji, aby se mi na jednom serveru spoustel - treba skriptem nejaky neco, ktery se pripoji k serveru poskytovatele v urcitou hodinu, vedel co ma stahnout a az to stahne ke mne na muj server, tak to pripadne dal do ZIPu. Viteo nejakym jednoduchem skriptu? Je toho kupy od profi SW az po home made.

    Seznam je tu, ale to bych taky mohl zkouset do aleluja. Nema nekdo s necim podobnym zkusenost?

    http://www.linuxsoft.cz/sw_list.php?id_kategory=89

    ( + osetrene pokracovani stahovani z FTP, kdyz spadne pripojeni, atd)

    Dekuji Vam.

    Odpovědi

    6.3.2006 20:14 Pmx
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Proč si nenapsat skript vlastní? Stáhnout by se ty data daly např. klientem lftp a hodit je do zipu je hračka. Naplánovalo by se to cronem nebo přes at nebo tak nějak.
    7.3.2006 07:13 Zaloha webhostingu pres FTP
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Ano to mate pravdu.

    Aleo programovani se nezajimam, tudiz to je pro mne neefektovni na nejakou dobu "zabrednout" do psani skriptu...

    Tudiz jsem se chtel optat, jestli jiz nema nekdo nejaky "postup" vcetne skriptu.

    Ano, tak nejak jsem nad tim tez premyslel. Dekuji Vam za reakci :)
    7.3.2006 10:21 Goffix | skóre: 25 | blog: Powered by ArchLinux | Hradec Králové
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Když tak nad tím přemýšlím, tak by na to stačili pouhé dva řádky skriptu :-) Na tom opravdu moc "programování" není.
    7.3.2006 12:20 Zaloha webhostingu pres FTP
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Ja nepatrim mezi ty "stastlivce", kteri toto dokazi... :-) Proto jsem polozil dotaz :-) A ve foru BSD, nebot to bude pro BSD (obecne je to jedno).

    Pokud byste mel dlouhou chvili, urcite bych Vase reseni uvital i s kratkym popisem.

    Pekny den :-)
    Cubic avatar 7.3.2006 12:42 Cubic | skóre: 24 | blog: obcasne_vyplody | Essex
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    no jsem na to s psanim skriptu o malinko lepe nez vy takze jsem pro svoupotrebu zalohy hostingu napsal toto:
    #!/usr/local/bin/bash
    cd /cesta/kam/zalohuju
    
    #parametry wget si nastavte ja potrebujete
    /usr/local/bin/wget -o wget_log.txt -t 10 -c -r -l 15  --user=uzivatel --password=heslo URL
    
    #nasledujici pojmenuje pripadnou zalohu podle casu a data
    jmenozalohy=zaloha$(date +%d.%m.%y_%H:%M).zip
    
    #zabaleni stazeneho spolecne s logem o stazeni
    /usr/local/bin/zip -r $jmenozalohy stazeny_adresar wget_log.txt
    
    rm -rf stazeny_adresar wget_log.txt
    
    exit
    
    asi muj 3. skript zivota takze to urcite neni idealni ale pro me ucely to funguje, prvozuju s to bashem(jak napasno na zacatku) v freebsd
    Cubic avatar 7.3.2006 12:44 Cubic | skóre: 24 | blog: obcasne_vyplody | Essex
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    mimochodem...pokud v tom nekdo najde nejakou botu tak budu rad kdyz me na ni upozorni, dik
    7.3.2006 12:57 Zaloha webhostingu pres FTP
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Dekuji Vam mnohokrate :-)

    Kdyby chtel nekdo neco dodat, piste, prosim :-)
    7.3.2006 14:40 Goffix | skóre: 25 | blog: Powered by ArchLinux | Hradec Králové
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Jojo, takhle presne jsem to myslel ;-) Akorat jsi to rozsiril o tri radky :-D
    8.3.2006 08:40 Zaloha webhostingu pres FTP
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Kamarad dal neco jeste do kupy, tak posilam, aby treba ostatni mohli pripadne "nacerpat":

    Ahoj,

    takze jsem vcera/dneska testoval ten ftp klient lftp a chova se vytecne. Konfigurak je v /etc/lftp.conf, kde jsem nechal vse original, pouze jsem pridal posledni radek

    set net:timeout 5

    ktery rika, aby se pri problemech s komunikaci necekalo plnych 180 sekund, ale pouze 5. Drasticky ty zvysilo aktivitu, paklize se neco seklo a to se stalo dostkrat na SH.

    Co se tyce zaloh, tak v adresari /var/zalohy je pripojen oddil disku, ktery slouzi jen pro prubezne zalohy systemu. V tomto adreasi je vytvoren podaresar webs, kde nasleduje adresar STRANKY pro ukladani zkomprimovaneho obsahu vzdaleneho FTP serveru stranky.cz a pod nim jeste adresar mirror, kde se kopiruje nekomprimovany obsah FTP.

    Primitivni davka, ktera to ridi je /usr/local/websdump/websdump

    # generovani zaloh webu

    #--- ecoteam.cz --------------------------------------------------------------------------------

    rm -rdf /var/zaloha/webs/stranky/mirror/* wget -q www.stranky.cz/_mysqldump_/mysqldump.php -O /dev/null lftp -c 'open -e "mirror / /var/zaloha/webs/stranky/mirror" ftp://user:pass@ftp.stranky.cz' rm -rf /var/zaloha/webs/stranky/stranky_day_`date +%w`.zip zip -r /var/zaloha/webs/stranky/stranky_day_`date +%w`.zip /var/zaloha/webs/stranky/mirror/ rm -rdf /var/zaloha/webs/stranky/mirror/*

    #-----------------------------------------------------------------------------------------------

    1.radek: kompletne smaze obsah adresare mirror 2.radek: to je moje specialita na dump obsahu databaze a ulozi do souboru na ftp serveru, u tebe nema vyznam 3.radek: provede stazeni celeho obsahu ftp serveru od adresare / hloubeji. Da se nastavit, aby to stahovalo jen nejaky podadresar umisteny na danem ftp, "stranky" chci stahovat cely, mam tam proto jen /. Soubory se kopiruji prave do adresare mirror. 4.radek: smaze stary zip soubor, ktery nese stejne jmeno, jako bude mit ten novy. 5.radek: zkomprimuje obsah adresare mirror do zipu s nazvem stranky_day_n.zip 6.radek: kompletne smaze obsah adresare mirror

    Hodnota n z 5.radku je obsahuje aktualni den v tydnu (day of week). Je to proto, ze chci vytvaret zalohy s tydenni rotaci a to takovym zpusobem, abych se o to nemusel starat. Cron pusti zalohovaci davku pravidelne kazdou nedeli v 3:30, kde plati, ze n=0, cili bude vytvarena zaloha s nazvem stranky_day_0.zip. Ta puvodni se diky radku 4 smaze a nahradi se aktualni zalohou. Paklize by byla nutnost vytvaret zalohy kazdy den, mohl by se cron nastavit tak, aby provadel zalohy kazdy den, vytvarelo by se 7 archivu, s tim, ze by bylo vzdy a za kazdych okolnosti dostupnych 6 poslednich zaloh zpetne a s postupujicimi dny by se archivy postupne kruhove premazavaly aktualnimi. Interval rotace se da zvysit nahrazenim dne v tydnu nejakou jinou inkrementalni, ale opakujici se hodnotou, napriklad den v mesici (drobne anomalie s 28,29,30,31 dny v mesici by nevadily), kde by se uchovavalo poslednich 30 zaloh, paklize by se zalohovalo kazdy den nebo dnem v roce. To mi vsak pripada uz trochu zbytecne, vzhledem k tem webum, co se maji zalohovat. Dale je mozne trebas jednou mesicne aktualni zalohu zkopirovat jinam a delat si jeste mesicni referencni zalohy, ale to uz se dostavam do zcela zbytecne roviny.

    Tak jestli chces, tak si do toho souboru pripis tvoje servery, nezapomen na vytvoreni adresaru v /var/zaloha/webs/....
    8.3.2006 09:16 Dejv | skóre: 37 | blog: Jak ten blog nazvat ... ? | Ostrava
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Nic proti, ale takhle je ten skript dost necitelny. Pro tyhle pripady tu je tag <pre>.

    Dejv
    Pevně věřím, že zkušenější uživatelé mě s mými nápady usměrní a pošlou tam, kam tyto nápady patří...
    8.3.2006 11:44 Zaloha webhostingu pres FTP
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Uz by to melo byti citelnejsi. --

    Kamarad dal neco jeste do kupy, tak posilam, aby treba ostatni mohli pripadne "nacerpat":

    Ahoj,

    takze jsem vcera/dneska testoval ten ftp klient lftp a chova se vytecne. Konfigurak je v /etc/lftp.conf, kde jsem nechal vse original, pouze jsem pridal posledni radek

    set net:timeout 5

    ktery rika, aby se pri problemech s komunikaci necekalo plnych 180 sekund, ale pouze 5. Drasticky ty zvysilo aktivitu, paklize se neco seklo a to se stalo dostkrat na SH.

    Co se tyce zaloh, tak v adresari /var/zalohy je pripojen oddil disku, ktery slouzi jen pro prubezne zalohy systemu. V tomto adreasi je vytvoren podaresar webs, kde nasleduje adresar STRANKY pro ukladani zkomprimovaneho obsahu vzdaleneho FTP serveru stranky.cz a pod nim jeste adresar mirror, kde se kopiruje nekomprimovany obsah FTP.

    Primitivni davka, ktera to ridi je /usr/local/websdump/websdump
    # generovani zaloh webu
    
    #--- ecoteam.cz --------------------------------------------------------------------------------
    
    rm -rdf /var/zaloha/webs/stranky/mirror/* 
    wget -q www.stranky.cz/_mysqldump_/mysqldump.php -O /dev/null
    lftp -c 'open -e "mirror / /var/zaloha/webs/stranky/mirror" ftp://user:pass@ftp.stranky.cz'
    
    rm -rf /var/zaloha/webs/stranky/stranky_day_`date +%w`.zip
    zip -r /var/zaloha/webs/stranky/stranky_day_`date +%w`.zip /var/zaloha/webs/stranky/mirror/
    rm -rdf /var/zaloha/webs/stranky/mirror/*
    
    #-----------------------------------------------------------------------------------------------
    
    1. radek: kompletne smaze obsah adresare mirror
    2. radek: to je moje specialita na dump obsahu databaze a ulozi do souboru
    na ftp serveru, u tebe nema vyznam 
    3. radek: provede stazeni celeho obsahu ftp serveru od adresare / hloubeji.
    Da se nastavit, aby to stahovalo jen nejaky podadresar umisteny na
    danem ftp, "stranky" chci stahovat cely, mam tam proto jen /.
    Soubory se kopiruji prave do adresare mirror.
    
    4. radek: smaze stary zip soubor, ktery nese stejne jmeno, jako bude mit ten novy.
    5. radek: zkomprimuje obsah adresare mirror do zipu s
    nazvem stranky_day_n.zip 
    6. radek: kompletne smaze obsah adresare mirror
    Hodnota n z 5.radku je obsahuje aktualni den v tydnu (day of week). Je to proto, ze chci vytvaret zalohy s tydenni rotaci a to takovym zpusobem, abych se o to nemusel starat. Cron pusti zalohovaci davku pravidelne kazdou nedeli v 3:30, kde plati, ze n=0, cili bude vytvarena zaloha s nazvem stranky_day_0.zip. Ta puvodni se diky radku 4 smaze a nahradi se aktualni zalohou. Paklize by byla nutnost vytvaret zalohy kazdy den, mohl by se cron nastavit tak, aby provadel zalohy kazdy den, vytvarelo by se 7 archivu, s tim, ze by bylo vzdy a za kazdych okolnosti dostupnych 6 poslednich zaloh zpetne a s postupujicimi dny by se archivy postupne kruhove premazavaly aktualnimi. Interval rotace se da zvysit nahrazenim dne v tydnu nejakou jinou inkrementalni, ale opakujici se hodnotou, napriklad den v mesici (drobne anomalie s 28,29,30,31 dny v mesici by nevadily), kde by se uchovavalo poslednich 30 zaloh, paklize by se zalohovalo kazdy den nebo dnem v roce. To mi vsak pripada uz trochu zbytecne, vzhledem k tem webum, co se maji zalohovat. Dale je mozne trebas jednou mesicne aktualni zalohu zkopirovat jinam a delat si jeste mesicni referencni zalohy, ale to uz se dostavam do zcela zbytecne roviny.

    Tak jestli chces, tak si do toho souboru pripis tvoje servery, nezapomen na vytvoreni adresaru v /var/zaloha/webs/....
    8.3.2006 12:02 Michal Vyskočil | skóre: 60 | blog: miblog | Praha
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Kolega myslel dát do tagu pre skript a ne ten pokec :-). Už jsem to opravil, doufám, že dobře, protože ten skript byl dost nečitelný. Jinak doporučuji si dát cesty do proměnných, jinak to celé můžeš psát znovu, pokud se ti něco změní a taky to bude přehlednější.
    When your hammer is C++, everything begins to look like a thumb.
    8.3.2006 12:10 Zaloha webhostingu pres FTP
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Dekuji za opravu a upozorneni :-)

    Založit nové vláknoNahoru

    Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.