Před rokem převzala Digitální a informační agentura (DIA) vlastnictví a provoz jednotné státní domény gov.cz. Nyní spustila samoobslužný portál, který umožňuje orgánům veřejné moci snadno registrovat nové domény státní správy pod doménu gov.cz nebo spravovat ty stávající. Proces nové registrace, který dříve trval 30 dní, se nyní zkrátil na několik minut.
IBM kupuje za 11 miliard USD (229,1 miliardy Kč) firmu Confluent zabývající se datovou infrastrukturou. Posílí tak svoji nabídku cloudových služeb a využije růstu poptávky po těchto službách, který je poháněný umělou inteligencí.
Nejvyšší správní soud (NSS) podruhé zrušil pokutu za únik zákaznických údajů z e-shopu Mall.cz. Incidentem se musí znovu zabývat Úřad pro ochranu osobních údajů (ÚOOÚ). Samotný únik ještě neznamená, že správce dat porušil svou povinnost zajistit jejich bezpečnost, plyne z rozsudku dočasně zpřístupněného na úřední desce. Úřad musí vždy posoudit, zda byla přijatá opatření přiměřená povaze rizik, stavu techniky a nákladům.
Organizace Free Software Foundation Europe (FSFE) zrušila svůj účet na 𝕏 (Twitter) s odůvodněním: "To, co mělo být původně místem pro dialog a výměnu informací, se proměnilo v centralizovanou arénu nepřátelství, dezinformací a ziskem motivovaného řízení, což je daleko od ideálů svobody, za nimiž stojíme". FSFE je aktivní na Mastodonu.
Paramount nabízí za celý Warner Bros. Discovery 30 USD na akcii, tj. celkově o 18 miliard USD více než nabízí Netflix. V hotovosti.
Nájemný botnet Aisuru prolomil další "rekord". DDoS útok na Cloudflare dosáhl 29,7 Tbps. Aisuru je tvořený až čtyřmi miliony kompromitovaných zařízení.
Iced, tj. multiplatformní GUI knihovna pro Rust, byla vydána ve verzi 0.14.0.
FEX, tj. open source emulátor umožňující spouštět aplikace pro x86 a x86_64 na architektuře ARM64, byl vydán ve verzi 2512. Před pár dny FEX oslavil sedmé narozeniny. Hlavní vývojář FEXu Ryan Houdek v oznámení poděkoval společnosti Valve za podporu. Pierre-Loup Griffais z Valve, jeden z architektů stojících za SteamOS a Steam Deckem, v rozhovoru pro The Verge potvrdil, že FEX je od svého vzniku sponzorován společností Valve.
Byla vydána nová verze 2.24 svobodného video editoru Flowblade (GitHub, Wikipedie). Přehled novinek v poznámkách k vydání. Videoukázky funkcí Flowblade na Vimeu. Instalovat lze také z Flathubu.
Společnost Proton AG stojící za Proton Mailem a dalšími službami přidala do svého portfolia online tabulky Proton Sheets v Proton Drive.
while :
do
sleep 10
curl -s -o "http://nieco.htm"
if grep -wE nieco > /dev/null 2>&1
then
curl -s "http://nieco.ine" >> /dev/null
echo "zapis_do" >> /path/abc.log
fi
Otazka je: niekto tvrdi, ze ten skript funguje aj bez cronu. Neviem ci to zabezpecuje podmienka while, alebo ako to presne funguje. A aj tak ten skript musi niekto spustit, alebo kde ho umiestnit aby sa spustil po starte systemu.
#!/bin/sh url1="http://abclinuxu.cz" url2="http://microsoft.com" log="/tmp/$(basename "$0" .sh).log" keyword="Microsoft" # toto zabrání vícenásobnému spuštění if [ $(pgrep -fc "$") -gt 1 ]; then echo "$0 run0ning!" exit 1 fi while sleep 10; do t=$(date '+%Y-%m-%d %H:%M:%S') if curl -sL "$url1" | grep -qs "$keyword"; then echo -n "$t "$keyword" detected, God save us!" | tee -a "$log" curl -sL "$url2" > /dev/null \ && echo " ... $url2 OK" | tee -a "$log" \ || echo " ... $url2 failed!" | tee -a "$log" else echo "$t "$keyword" not found!" | tee -a "$log" fi doneJe to samá roura
ale tee zajistí že se bude logovat i když se skript pustí samostatně bez systemd.
Potom bych vytvořil soubor systemd službu /etc/systemd/system/sluzba.service
[Unit] After=network-online.target [Install] WantedBy=multi-user.target [Service] User=jejda Type=simple ExecStart=/bin/sh /home/jejda/ptakoviny/mujskript.sh LogLevelMax=warning StandardOutput=append:/tmp/mujskript.log
Potom spustit
systemctl daemon-reload systemctl start sluzba.servicePokud by se to mělo spouštět automaticky při startu systému tak ještě
systemctl enable sluzba.serviceA mělo by to běžet. No v praxi se ale může objevit pár problémů. Některé servery (třeba seznam.cz) posílají data s kompresí, tak to nejde prohledávat grepem ale musí se to první prohnat přes zcat. Další věc je, jak ověřit data co se stáhnou v té druhé fázi. S přesměrováním http/https si curl poradí když má přepínač -L ale co když server v případě že soubor nemá tak místo aby vrátil chybu 404, tak nás přesměruje někam jinam? To se taky běžně stává. Curl tak stáhne něco jinačího než co po něm chceme. Tu v tomto konkrétním případě je to fuk když se to stahuje do /dev/null ale co když bysme stahovali něco důležitýho a chtěli mít jistotu že se místo našeho dokumentu nestáhla nějaká hovadina kterou nechcem? Toto netuším jak řešit.
if [ $(pgrep -fc "$") -gt 1 ]; then echo "$0 run0ning!" exit 1 fiale mělo to být:
if [ $(pgrep -fc "$0") -gt 1 ]; then echo "$0 running!" exit 1 fi
while true; do
sleep ${INTERVALL}
curl --silent --output ${OUTPUT} --digest --user "${USER}:${PASS}" "http://${IP}:${PORT}/nieco_zisti=status"
if grep --silent -wE ${ERROR} ${OUTPUT}; then
curl --silent --digest --user "${USER}:${PASS}" "http://${IP}:${PORT}/nieco_vykonaj=${LABEL}" > /dev/null
TIMESTAMP=$(date +"%d.%m.%Y %H:%M:%S")
echo "${TIMESTAMP} Reader ${LABEL} sa_vykonal" >> ${LOGFILE}
fi
done
Skript na zaklade nastaveneho casu v premennej INTERVAL stiahne pomocou curl obsah z isteho webu. Grep tento obsah webu prejde a vyhlada ci sa tam nachadza retazec, ktory je ulozeny v premennej ERROR. Ak sa najdeny retazec shoduje s retazcom ulozenym v premennej ERROR, tak znova cez curl prejde na http a vykona sa nejaka poziadavka (dajme tomu, ze sa niekde nieco odosle). Nasledne sa to zapise do logu s datumom a casom. A tento proces sa opakuje podla hodnoty ulozenej v premennej INTERVAL
Co se ale stane když to pustíš, párkrát ten cyklus úspěšně proběhne a potom ten server třeba spadne nebo nebude dostupný? nebo spadne síť? Zkus to pustit a odpojit kabel. Grep bude parsovat starý ${OUTPUT} a všecko se bude tvářit v pohodě. Podle logu nic nepoznáš, ten ti bude lhat, že se akce vykonala. Toto bys měl nějak ošetřit.
Nejjednodušší by asi bylo při tom prvním stahování přesměrovat výstup.curl --silent --digest --user "${USER}:${PASS}" "http://${IP}:${PORT}/nieco_zisti=status" > ${OUTPUT}
To zajistí že se ${OUTPUT} přepíše aji když curl nic nestáhne.
rm $OUTPUT
Tiskni
Sdílej: