abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
AbcLinuxu hledá autory!
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×

dnes 07:22 | Komunita

Od 26. do 29. října proběhla v Bochumi European Coreboot Conference 2017 (ECC'17). Na programu této konference vývojářů a uživatelů corebootu, tj. svobodné náhrady proprietárních BIOSů, byla řada zajímavých přednášek. Jejich videozáznamy jsou postupně uvolňovány na YouTube.

Ladislav Hagara | Komentářů: 0
včera 19:22 | Nová verze

Ondřej Filip, výkonný ředitel sdružení CZ.NIC, oznámil vydání verze 2.0.0 open source routovacího démona BIRD (Wikipedie). Přehled novinek v diskusním listu a v aktualizované dokumentaci.

Ladislav Hagara | Komentářů: 0
včera 09:22 | Pozvánky

V Praze dnes probíhá Konference e-infrastruktury CESNET. Na programu je řada zajímavých přednášek. Sledovat je lze i online na stránce konference.

Ladislav Hagara | Komentářů: 1
9.12. 20:11 | Nová verze

Byl vydán Debian 9.3, tj. třetí opravná verze Debianu 9 s kódovým názvem Stretch a Debian 8.10, tj. desátá opravná verze Debianu 8 s kódovým názvem Jessie. Řešeny jsou především bezpečnostní problémy, ale také několik vážných chyb. Instalační média Debianu 9 a Debianu 8 lze samozřejmě nadále k instalaci používat. Po instalaci stačí systém aktualizovat.

Ladislav Hagara | Komentářů: 0
9.12. 00:44 | Nová verze

Po 6 měsících vývoje od vydání verze 0.13.0 byla vydána verze 0.14.0 správce balíčků GNU Guix a na něm postavené systémové distribuce GuixSD (Guix System Distribution). Na vývoji se podílelo 88 vývojářů. Přibylo 1 211 nových balíčků. Jejich aktuální počet je 6 668. Aktualizována byla také dokumentace.

Ladislav Hagara | Komentářů: 4
8.12. 21:33 | Nová verze

Po půl roce vývoje od vydání verze 5.9 byla vydána nová stabilní verze 5.10 toolkitu Qt. Přehled novinek na wiki stránce. Současně byla vydána nová verze 4.5.0 integrovaného vývojového prostředí (IDE) Qt Creator nebo verze 1.10 nástroje pro překlad a sestavení programů ze zdrojových kódů Qbs.

Ladislav Hagara | Komentářů: 0
7.12. 11:11 | Komunita

Naprostá většina příjmů Mozilly pochází od výchozích webových vyhledávačů ve Firefoxu. Do konce listopadu 2014 měla Mozilla globální smlouvu se společností Google. Následně bylo místo jedné globální smlouvy uzavřeno několik smluv s konkrétními vyhledávači pro jednotlivé země. V USA byla podepsána pětiletá smlouva s vyhledávačem Yahoo. Dle příspěvku na blogu Mozilly podala společnost Yahoo na Mozillu žalobu ohledně porušení této

… více »
Ladislav Hagara | Komentářů: 0
7.12. 05:55 | Zajímavý článek

V Londýně probíhá konference věnovaná počítačové bezpečnosti Black Hat Europe 2017. Průběžně jsou zveřejňovány prezentace. Videozáznamy budou na YouTube zveřejněny o několik měsíců. Zveřejněna byla například prezentace (pdf) k přednášce "Jak se nabourat do vypnutého počítače, a nebo jak v Intel Management Engine spustit vlastní nepodepsaný kód". Dle oznámení na Twitteru, aktualizace vydaná společností Intel nevylučuje možnost útoku.

Ladislav Hagara | Komentářů: 5
7.12. 04:44 | Komunita

Virtualizační nástroj GNOME Boxy ve Fedoře 27 umožňuje jednoduše stáhnout a nainstalovat Red Hat Enterprise Linux, který je pro vývojáře zdarma. Vývojová verze GNOME Boxy již umožňuje jednoduše stáhnout a nainstalovat další linuxové distribuce. Ukázka na YouTube. Seznam distribucí a jejich verze, nastavení a cesty k ISO obrazům je udržován v knihovně a databázi libosinfo (GitLab).

Ladislav Hagara | Komentářů: 0
7.12. 03:33 | Nová verze

Google Chrome 63 byl prohlášen za stabilní (YouTube). Nejnovější stabilní verze 63.0.3239.84 tohoto webového prohlížeče přináší řadu oprav a vylepšení. Vylepšeny byly také nástroje pro vývojáře. Opraveno bylo 37 bezpečnostních chyb.

Ladislav Hagara | Komentářů: 12
Jak se vás potenciálně dotkne trend odstraňování analogového audio konektoru typu 3,5mm jack z „chytrých telefonů“?
 (8%)
 (1%)
 (1%)
 (1%)
 (75%)
 (14%)
Celkem 953 hlasů
 Komentářů: 45, poslední 1.12. 19:00
    Rozcestník

    Dotaz: Zaloha webhostingu pres FTP

    6.3.2006 19:26 Zaloha webhostingu pres FTP
    Zaloha webhostingu pres FTP
    Přečteno: 314×
    Ahoj.

    Mam pristup na webhosting, kde jsou WWW pouze pres FTP. Potrebuji, aby se mi na jednom serveru spoustel - treba skriptem nejaky neco, ktery se pripoji k serveru poskytovatele v urcitou hodinu, vedel co ma stahnout a az to stahne ke mne na muj server, tak to pripadne dal do ZIPu. Viteo nejakym jednoduchem skriptu? Je toho kupy od profi SW az po home made.

    Seznam je tu, ale to bych taky mohl zkouset do aleluja. Nema nekdo s necim podobnym zkusenost?

    http://www.linuxsoft.cz/sw_list.php?id_kategory=89

    ( + osetrene pokracovani stahovani z FTP, kdyz spadne pripojeni, atd)

    Dekuji Vam.

    Odpovědi

    6.3.2006 20:14 Pmx
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Proč si nenapsat skript vlastní? Stáhnout by se ty data daly např. klientem lftp a hodit je do zipu je hračka. Naplánovalo by se to cronem nebo přes at nebo tak nějak.
    7.3.2006 07:13 Zaloha webhostingu pres FTP
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Ano to mate pravdu.

    Aleo programovani se nezajimam, tudiz to je pro mne neefektovni na nejakou dobu "zabrednout" do psani skriptu...

    Tudiz jsem se chtel optat, jestli jiz nema nekdo nejaky "postup" vcetne skriptu.

    Ano, tak nejak jsem nad tim tez premyslel. Dekuji Vam za reakci :)
    7.3.2006 10:21 Goffix | skóre: 25 | blog: Powered by ArchLinux | Hradec Králové
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Když tak nad tím přemýšlím, tak by na to stačili pouhé dva řádky skriptu :-) Na tom opravdu moc "programování" není.
    7.3.2006 12:20 Zaloha webhostingu pres FTP
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Ja nepatrim mezi ty "stastlivce", kteri toto dokazi... :-) Proto jsem polozil dotaz :-) A ve foru BSD, nebot to bude pro BSD (obecne je to jedno).

    Pokud byste mel dlouhou chvili, urcite bych Vase reseni uvital i s kratkym popisem.

    Pekny den :-)
    Cubic avatar 7.3.2006 12:42 Cubic | skóre: 24 | blog: obcasne_vyplody | Essex
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    no jsem na to s psanim skriptu o malinko lepe nez vy takze jsem pro svoupotrebu zalohy hostingu napsal toto:
    #!/usr/local/bin/bash
    cd /cesta/kam/zalohuju
    
    #parametry wget si nastavte ja potrebujete
    /usr/local/bin/wget -o wget_log.txt -t 10 -c -r -l 15  --user=uzivatel --password=heslo URL
    
    #nasledujici pojmenuje pripadnou zalohu podle casu a data
    jmenozalohy=zaloha$(date +%d.%m.%y_%H:%M).zip
    
    #zabaleni stazeneho spolecne s logem o stazeni
    /usr/local/bin/zip -r $jmenozalohy stazeny_adresar wget_log.txt
    
    rm -rf stazeny_adresar wget_log.txt
    
    exit
    
    asi muj 3. skript zivota takze to urcite neni idealni ale pro me ucely to funguje, prvozuju s to bashem(jak napasno na zacatku) v freebsd
    Cubic avatar 7.3.2006 12:44 Cubic | skóre: 24 | blog: obcasne_vyplody | Essex
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    mimochodem...pokud v tom nekdo najde nejakou botu tak budu rad kdyz me na ni upozorni, dik
    7.3.2006 12:57 Zaloha webhostingu pres FTP
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Dekuji Vam mnohokrate :-)

    Kdyby chtel nekdo neco dodat, piste, prosim :-)
    7.3.2006 14:40 Goffix | skóre: 25 | blog: Powered by ArchLinux | Hradec Králové
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Jojo, takhle presne jsem to myslel ;-) Akorat jsi to rozsiril o tri radky :-D
    8.3.2006 08:40 Zaloha webhostingu pres FTP
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Kamarad dal neco jeste do kupy, tak posilam, aby treba ostatni mohli pripadne "nacerpat":

    Ahoj,

    takze jsem vcera/dneska testoval ten ftp klient lftp a chova se vytecne. Konfigurak je v /etc/lftp.conf, kde jsem nechal vse original, pouze jsem pridal posledni radek

    set net:timeout 5

    ktery rika, aby se pri problemech s komunikaci necekalo plnych 180 sekund, ale pouze 5. Drasticky ty zvysilo aktivitu, paklize se neco seklo a to se stalo dostkrat na SH.

    Co se tyce zaloh, tak v adresari /var/zalohy je pripojen oddil disku, ktery slouzi jen pro prubezne zalohy systemu. V tomto adreasi je vytvoren podaresar webs, kde nasleduje adresar STRANKY pro ukladani zkomprimovaneho obsahu vzdaleneho FTP serveru stranky.cz a pod nim jeste adresar mirror, kde se kopiruje nekomprimovany obsah FTP.

    Primitivni davka, ktera to ridi je /usr/local/websdump/websdump

    # generovani zaloh webu

    #--- ecoteam.cz --------------------------------------------------------------------------------

    rm -rdf /var/zaloha/webs/stranky/mirror/* wget -q www.stranky.cz/_mysqldump_/mysqldump.php -O /dev/null lftp -c 'open -e "mirror / /var/zaloha/webs/stranky/mirror" ftp://user:pass@ftp.stranky.cz' rm -rf /var/zaloha/webs/stranky/stranky_day_`date +%w`.zip zip -r /var/zaloha/webs/stranky/stranky_day_`date +%w`.zip /var/zaloha/webs/stranky/mirror/ rm -rdf /var/zaloha/webs/stranky/mirror/*

    #-----------------------------------------------------------------------------------------------

    1.radek: kompletne smaze obsah adresare mirror 2.radek: to je moje specialita na dump obsahu databaze a ulozi do souboru na ftp serveru, u tebe nema vyznam 3.radek: provede stazeni celeho obsahu ftp serveru od adresare / hloubeji. Da se nastavit, aby to stahovalo jen nejaky podadresar umisteny na danem ftp, "stranky" chci stahovat cely, mam tam proto jen /. Soubory se kopiruji prave do adresare mirror. 4.radek: smaze stary zip soubor, ktery nese stejne jmeno, jako bude mit ten novy. 5.radek: zkomprimuje obsah adresare mirror do zipu s nazvem stranky_day_n.zip 6.radek: kompletne smaze obsah adresare mirror

    Hodnota n z 5.radku je obsahuje aktualni den v tydnu (day of week). Je to proto, ze chci vytvaret zalohy s tydenni rotaci a to takovym zpusobem, abych se o to nemusel starat. Cron pusti zalohovaci davku pravidelne kazdou nedeli v 3:30, kde plati, ze n=0, cili bude vytvarena zaloha s nazvem stranky_day_0.zip. Ta puvodni se diky radku 4 smaze a nahradi se aktualni zalohou. Paklize by byla nutnost vytvaret zalohy kazdy den, mohl by se cron nastavit tak, aby provadel zalohy kazdy den, vytvarelo by se 7 archivu, s tim, ze by bylo vzdy a za kazdych okolnosti dostupnych 6 poslednich zaloh zpetne a s postupujicimi dny by se archivy postupne kruhove premazavaly aktualnimi. Interval rotace se da zvysit nahrazenim dne v tydnu nejakou jinou inkrementalni, ale opakujici se hodnotou, napriklad den v mesici (drobne anomalie s 28,29,30,31 dny v mesici by nevadily), kde by se uchovavalo poslednich 30 zaloh, paklize by se zalohovalo kazdy den nebo dnem v roce. To mi vsak pripada uz trochu zbytecne, vzhledem k tem webum, co se maji zalohovat. Dale je mozne trebas jednou mesicne aktualni zalohu zkopirovat jinam a delat si jeste mesicni referencni zalohy, ale to uz se dostavam do zcela zbytecne roviny.

    Tak jestli chces, tak si do toho souboru pripis tvoje servery, nezapomen na vytvoreni adresaru v /var/zaloha/webs/....
    8.3.2006 09:16 Dejv | skóre: 37 | blog: Jak ten blog nazvat ... ? | Ostrava
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Nic proti, ale takhle je ten skript dost necitelny. Pro tyhle pripady tu je tag <pre>.

    Dejv
    Pevne verim, ze zkusenejsi uzivatele me s mymi napady usmerni a poslou tam, kam tyto napady patri...
    8.3.2006 11:44 Zaloha webhostingu pres FTP
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Uz by to melo byti citelnejsi. --

    Kamarad dal neco jeste do kupy, tak posilam, aby treba ostatni mohli pripadne "nacerpat":

    Ahoj,

    takze jsem vcera/dneska testoval ten ftp klient lftp a chova se vytecne. Konfigurak je v /etc/lftp.conf, kde jsem nechal vse original, pouze jsem pridal posledni radek

    set net:timeout 5

    ktery rika, aby se pri problemech s komunikaci necekalo plnych 180 sekund, ale pouze 5. Drasticky ty zvysilo aktivitu, paklize se neco seklo a to se stalo dostkrat na SH.

    Co se tyce zaloh, tak v adresari /var/zalohy je pripojen oddil disku, ktery slouzi jen pro prubezne zalohy systemu. V tomto adreasi je vytvoren podaresar webs, kde nasleduje adresar STRANKY pro ukladani zkomprimovaneho obsahu vzdaleneho FTP serveru stranky.cz a pod nim jeste adresar mirror, kde se kopiruje nekomprimovany obsah FTP.

    Primitivni davka, ktera to ridi je /usr/local/websdump/websdump
    # generovani zaloh webu
    
    #--- ecoteam.cz --------------------------------------------------------------------------------
    
    rm -rdf /var/zaloha/webs/stranky/mirror/* 
    wget -q www.stranky.cz/_mysqldump_/mysqldump.php -O /dev/null
    lftp -c 'open -e "mirror / /var/zaloha/webs/stranky/mirror" ftp://user:pass@ftp.stranky.cz'
    
    rm -rf /var/zaloha/webs/stranky/stranky_day_`date +%w`.zip
    zip -r /var/zaloha/webs/stranky/stranky_day_`date +%w`.zip /var/zaloha/webs/stranky/mirror/
    rm -rdf /var/zaloha/webs/stranky/mirror/*
    
    #-----------------------------------------------------------------------------------------------
    
    1. radek: kompletne smaze obsah adresare mirror
    2. radek: to je moje specialita na dump obsahu databaze a ulozi do souboru
    na ftp serveru, u tebe nema vyznam 
    3. radek: provede stazeni celeho obsahu ftp serveru od adresare / hloubeji.
    Da se nastavit, aby to stahovalo jen nejaky podadresar umisteny na
    danem ftp, "stranky" chci stahovat cely, mam tam proto jen /.
    Soubory se kopiruji prave do adresare mirror.
    
    4. radek: smaze stary zip soubor, ktery nese stejne jmeno, jako bude mit ten novy.
    5. radek: zkomprimuje obsah adresare mirror do zipu s
    nazvem stranky_day_n.zip 
    6. radek: kompletne smaze obsah adresare mirror
    Hodnota n z 5.radku je obsahuje aktualni den v tydnu (day of week). Je to proto, ze chci vytvaret zalohy s tydenni rotaci a to takovym zpusobem, abych se o to nemusel starat. Cron pusti zalohovaci davku pravidelne kazdou nedeli v 3:30, kde plati, ze n=0, cili bude vytvarena zaloha s nazvem stranky_day_0.zip. Ta puvodni se diky radku 4 smaze a nahradi se aktualni zalohou. Paklize by byla nutnost vytvaret zalohy kazdy den, mohl by se cron nastavit tak, aby provadel zalohy kazdy den, vytvarelo by se 7 archivu, s tim, ze by bylo vzdy a za kazdych okolnosti dostupnych 6 poslednich zaloh zpetne a s postupujicimi dny by se archivy postupne kruhove premazavaly aktualnimi. Interval rotace se da zvysit nahrazenim dne v tydnu nejakou jinou inkrementalni, ale opakujici se hodnotou, napriklad den v mesici (drobne anomalie s 28,29,30,31 dny v mesici by nevadily), kde by se uchovavalo poslednich 30 zaloh, paklize by se zalohovalo kazdy den nebo dnem v roce. To mi vsak pripada uz trochu zbytecne, vzhledem k tem webum, co se maji zalohovat. Dale je mozne trebas jednou mesicne aktualni zalohu zkopirovat jinam a delat si jeste mesicni referencni zalohy, ale to uz se dostavam do zcela zbytecne roviny.

    Tak jestli chces, tak si do toho souboru pripis tvoje servery, nezapomen na vytvoreni adresaru v /var/zaloha/webs/....
    8.3.2006 12:02 Michal Vyskočil | skóre: 60 | blog: miblog | Praha
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Kolega myslel dát do tagu pre skript a ne ten pokec :-). Už jsem to opravil, doufám, že dobře, protože ten skript byl dost nečitelný. Jinak doporučuji si dát cesty do proměnných, jinak to celé můžeš psát znovu, pokud se ti něco změní a taky to bude přehlednější.
    When your hammer is C++, everything begins to look like a thumb.
    8.3.2006 12:10 Zaloha webhostingu pres FTP
    Rozbalit Rozbalit vše Re: Zaloha webhostingu pres FTP
    Dekuji za opravu a upozorneni :-)

    Založit nové vláknoNahoru

    Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.