QStudio, tj. nástroj pro práci s SQL podporující více než 30 databází (MySQL, PostgreSQL, DuckDB, QuestDB, kdb+, …), se stal s vydáním verze 5.0 open source. Zdrojové kódy jsou k dispozici na GitHubu pod licencí Apache 2.0.
Byla vydána nová verze 259 správce systému a služeb systemd (Wikipedie, GitHub).
Cloudflare Radar poskytuje aktuální informace o globálním internetovém provozu, útocích nebo trendech. Publikován byl celkový přehled za rok 2025. Globální internetový provoz vzrostl v roce 2025 o 19 %.
Správní rada americké mediální skupiny Warner Bros. Discovery (WBD) podle očekávání odmítla nepřátelskou nabídku na převzetí od firmy Paramount Skydance za 108,4 miliardy dolarů (2,25 bilionu Kč). Paramount podle ní neposkytl dostatečné finanční záruky. Akcionářům proto doporučuje nabídku od Netflixu.
Na WhatsAppu se šíří nový podvod, který ovšem vůbec nevypadá jako hackerský útok. Žádná krádež hesla. Žádné narušení zabezpečení. Žádné zjevné varovné signály. Místo toho jsou lidé trikem donuceni, aby útočníkům sami poskytli přístup, a to pouhým provedením toho, co vypadá jako běžný ověřovací krok. Bezpečnostní experti Avastu tento nový typ útoku nazývají ghostpairing, protože útočníci si při něm tiše vytvářejí „zařízení duchů“, které žije uvnitř vašeho účtu.
Český LibreOffice tým vydává aktualizaci překladu příručky LibreOffice Draw 25.8. Tato kniha se zabývá hlavními funkcemi programu Draw, vektorové grafické komponenty systému LibreOffice. Pomocí Draw lze vytvářet širokou škálu grafických obrázků. Příručka je ke stažení na stránce dokumentace a tým hledá dobrovolníky pro další překlady.
Anthony Enzor-DeMeo je novým CEO Mozilla Corporation. Mozillu převzal po dočasné CEO Lauře Chambers. Vybudovat chce nejdůvěryhodnější softwarovou společnost na světě. Firefox by se měl vyvinout v moderní AI prohlížeč.
Byla vydána nová verze 9.20 z Debianu vycházející linuxové distribuce DietPi pro (nejenom) jednodeskové počítače. Přehled novinek v poznámkách k vydání. Vypíchnout lze například nový balíček RustDesk Server pro vzdálený přístup.
Jonathan Thomas oznámil vydání nové verze 3.4.0 video editoru OpenShot (Wikipedie). Představení novinek také na YouTube. Zdrojové kódy OpenShotu jsou k dispozici na GitHubu. Ke stažení je i balíček ve formátu AppImage. Stačí jej stáhnout, nastavit právo na spouštění a spustit.
Byla vydána nová verze 1.6 otevřeného, licenčními poplatky nezatíženého, univerzálního ztrátového formátu komprese zvuku Opus (Wikipedie) a jeho referenční implementace libopus. Podrobnosti na demo stránce.
while :
do
sleep 10
curl -s -o "http://nieco.htm"
if grep -wE nieco > /dev/null 2>&1
then
curl -s "http://nieco.ine" >> /dev/null
echo "zapis_do" >> /path/abc.log
fi
Otazka je: niekto tvrdi, ze ten skript funguje aj bez cronu. Neviem ci to zabezpecuje podmienka while, alebo ako to presne funguje. A aj tak ten skript musi niekto spustit, alebo kde ho umiestnit aby sa spustil po starte systemu.
#!/bin/sh url1="http://abclinuxu.cz" url2="http://microsoft.com" log="/tmp/$(basename "$0" .sh).log" keyword="Microsoft" # toto zabrání vícenásobnému spuštění if [ $(pgrep -fc "$") -gt 1 ]; then echo "$0 run0ning!" exit 1 fi while sleep 10; do t=$(date '+%Y-%m-%d %H:%M:%S') if curl -sL "$url1" | grep -qs "$keyword"; then echo -n "$t "$keyword" detected, God save us!" | tee -a "$log" curl -sL "$url2" > /dev/null \ && echo " ... $url2 OK" | tee -a "$log" \ || echo " ... $url2 failed!" | tee -a "$log" else echo "$t "$keyword" not found!" | tee -a "$log" fi doneJe to samá roura
ale tee zajistí že se bude logovat i když se skript pustí samostatně bez systemd.
Potom bych vytvořil soubor systemd službu /etc/systemd/system/sluzba.service
[Unit] After=network-online.target [Install] WantedBy=multi-user.target [Service] User=jejda Type=simple ExecStart=/bin/sh /home/jejda/ptakoviny/mujskript.sh LogLevelMax=warning StandardOutput=append:/tmp/mujskript.log
Potom spustit
systemctl daemon-reload systemctl start sluzba.servicePokud by se to mělo spouštět automaticky při startu systému tak ještě
systemctl enable sluzba.serviceA mělo by to běžet. No v praxi se ale může objevit pár problémů. Některé servery (třeba seznam.cz) posílají data s kompresí, tak to nejde prohledávat grepem ale musí se to první prohnat přes zcat. Další věc je, jak ověřit data co se stáhnou v té druhé fázi. S přesměrováním http/https si curl poradí když má přepínač -L ale co když server v případě že soubor nemá tak místo aby vrátil chybu 404, tak nás přesměruje někam jinam? To se taky běžně stává. Curl tak stáhne něco jinačího než co po něm chceme. Tu v tomto konkrétním případě je to fuk když se to stahuje do /dev/null ale co když bysme stahovali něco důležitýho a chtěli mít jistotu že se místo našeho dokumentu nestáhla nějaká hovadina kterou nechcem? Toto netuším jak řešit.
if [ $(pgrep -fc "$") -gt 1 ]; then echo "$0 run0ning!" exit 1 fiale mělo to být:
if [ $(pgrep -fc "$0") -gt 1 ]; then echo "$0 running!" exit 1 fi
while true; do
sleep ${INTERVALL}
curl --silent --output ${OUTPUT} --digest --user "${USER}:${PASS}" "http://${IP}:${PORT}/nieco_zisti=status"
if grep --silent -wE ${ERROR} ${OUTPUT}; then
curl --silent --digest --user "${USER}:${PASS}" "http://${IP}:${PORT}/nieco_vykonaj=${LABEL}" > /dev/null
TIMESTAMP=$(date +"%d.%m.%Y %H:%M:%S")
echo "${TIMESTAMP} Reader ${LABEL} sa_vykonal" >> ${LOGFILE}
fi
done
Skript na zaklade nastaveneho casu v premennej INTERVAL stiahne pomocou curl obsah z isteho webu. Grep tento obsah webu prejde a vyhlada ci sa tam nachadza retazec, ktory je ulozeny v premennej ERROR. Ak sa najdeny retazec shoduje s retazcom ulozenym v premennej ERROR, tak znova cez curl prejde na http a vykona sa nejaka poziadavka (dajme tomu, ze sa niekde nieco odosle). Nasledne sa to zapise do logu s datumom a casom. A tento proces sa opakuje podla hodnoty ulozenej v premennej INTERVAL
Co se ale stane když to pustíš, párkrát ten cyklus úspěšně proběhne a potom ten server třeba spadne nebo nebude dostupný? nebo spadne síť? Zkus to pustit a odpojit kabel. Grep bude parsovat starý ${OUTPUT} a všecko se bude tvářit v pohodě. Podle logu nic nepoznáš, ten ti bude lhat, že se akce vykonala. Toto bys měl nějak ošetřit.
Nejjednodušší by asi bylo při tom prvním stahování přesměrovat výstup.curl --silent --digest --user "${USER}:${PASS}" "http://${IP}:${PORT}/nieco_zisti=status" > ${OUTPUT}
To zajistí že se ${OUTPUT} přepíše aji když curl nic nestáhne.
rm $OUTPUT
Tiskni
Sdílej: