Portál AbcLinuxu, 7. května 2025 07:27
while : do sleep 10 curl -s -o "http://nieco.htm" if grep -wE nieco > /dev/null 2>&1 then curl -s "http://nieco.ine" >> /dev/null echo "zapis_do" >> /path/abc.log fiOtazka je: niekto tvrdi, ze ten skript funguje aj bez cronu. Neviem ci to zabezpecuje podmienka while, alebo ako to presne funguje. A aj tak ten skript musi niekto spustit, alebo kde ho umiestnit aby sa spustil po starte systemu.
#!/bin/sh url1="http://abclinuxu.cz" url2="http://microsoft.com" log="/tmp/$(basename "$0" .sh).log" keyword="Microsoft" # toto zabrání vícenásobnému spuštění if [ $(pgrep -fc "$") -gt 1 ]; then echo "$0 run0ning!" exit 1 fi while sleep 10; do t=$(date '+%Y-%m-%d %H:%M:%S') if curl -sL "$url1" | grep -qs "$keyword"; then echo -n "$t "$keyword" detected, God save us!" | tee -a "$log" curl -sL "$url2" > /dev/null \ && echo " ... $url2 OK" | tee -a "$log" \ || echo " ... $url2 failed!" | tee -a "$log" else echo "$t "$keyword" not found!" | tee -a "$log" fi doneJe to samá roura
Potom bych vytvořil soubor systemd službu /etc/systemd/system/sluzba.service
[Unit] After=network-online.target [Install] WantedBy=multi-user.target [Service] User=jejda Type=simple ExecStart=/bin/sh /home/jejda/ptakoviny/mujskript.sh LogLevelMax=warning StandardOutput=append:/tmp/mujskript.log
Potom spustit
systemctl daemon-reload systemctl start sluzba.servicePokud by se to mělo spouštět automaticky při startu systému tak ještě
systemctl enable sluzba.serviceA mělo by to běžet. No v praxi se ale může objevit pár problémů. Některé servery (třeba seznam.cz) posílají data s kompresí, tak to nejde prohledávat grepem ale musí se to první prohnat přes zcat. Další věc je, jak ověřit data co se stáhnou v té druhé fázi. S přesměrováním http/https si curl poradí když má přepínač -L ale co když server v případě že soubor nemá tak místo aby vrátil chybu 404, tak nás přesměruje někam jinam? To se taky běžně stává. Curl tak stáhne něco jinačího než co po něm chceme. Tu v tomto konkrétním případě je to fuk když se to stahuje do /dev/null ale co když bysme stahovali něco důležitýho a chtěli mít jistotu že se místo našeho dokumentu nestáhla nějaká hovadina kterou nechcem? Toto netuším jak řešit.
if [ $(pgrep -fc "$") -gt 1 ]; then echo "$0 run0ning!" exit 1 fiale mělo to být:
if [ $(pgrep -fc "$0") -gt 1 ]; then echo "$0 running!" exit 1 fi
while true; do sleep ${INTERVALL} curl --silent --output ${OUTPUT} --digest --user "${USER}:${PASS}" "http://${IP}:${PORT}/nieco_zisti=status" if grep --silent -wE ${ERROR} ${OUTPUT}; then curl --silent --digest --user "${USER}:${PASS}" "http://${IP}:${PORT}/nieco_vykonaj=${LABEL}" > /dev/null TIMESTAMP=$(date +"%d.%m.%Y %H:%M:%S") echo "${TIMESTAMP} Reader ${LABEL} sa_vykonal" >> ${LOGFILE} fi doneSkript na zaklade nastaveneho casu v premennej INTERVAL stiahne pomocou curl obsah z isteho webu. Grep tento obsah webu prejde a vyhlada ci sa tam nachadza retazec, ktory je ulozeny v premennej ERROR. Ak sa najdeny retazec shoduje s retazcom ulozenym v premennej ERROR, tak znova cez curl prejde na http a vykona sa nejaka poziadavka (dajme tomu, ze sa niekde nieco odosle). Nasledne sa to zapise do logu s datumom a casom. A tento proces sa opakuje podla hodnoty ulozenej v premennej INTERVAL
Co se ale stane když to pustíš, párkrát ten cyklus úspěšně proběhne a potom ten server třeba spadne nebo nebude dostupný? nebo spadne síť? Zkus to pustit a odpojit kabel. Grep bude parsovat starý ${OUTPUT} a všecko se bude tvářit v pohodě. Podle logu nic nepoznáš, ten ti bude lhat, že se akce vykonala. Toto bys měl nějak ošetřit.
Nejjednodušší by asi bylo při tom prvním stahování přesměrovat výstup.curl --silent --digest --user "${USER}:${PASS}" "http://${IP}:${PORT}/nieco_zisti=status" > ${OUTPUT}To zajistí že se ${OUTPUT} přepíše aji když curl nic nestáhne.
rm $OUTPUT
Tiskni
Sdílej:
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.