Open source modální textový editor Helix, inspirovaný editory Vim, Neovim či Kakoune, byl vydán ve verzi 25.07. Přehled novinek se záznamy terminálových sezení v asciinema v oznámení na webu. Detailně v CHANGELOGu na GitHubu.
Americký výrobce čipů Nvidia získal od vlády prezidenta Donalda Trumpa souhlas s prodejem svých pokročilých počítačových čipů používaných k vývoji umělé inteligence (AI) H20 do Číny. Prodej těchto čipů speciálně upravených pro čínský trh by tak mohl být brzy obnoven, uvedla firma na svém blogu. Americká vláda zakázala prodej v dubnu, v době eskalace obchodního sporu mezi oběma zeměmi. Tehdy to zdůvodnila obavami, že by čipy mohla využívat čínská armáda.
3D software Blender byl vydán ve verzi 4.5 s prodlouženou podporou. Podrobnosti v poznámkách k vydání. Videopředstavení na YouTube.
Open source webový aplikační framework Django slaví 20. narozeniny.
V Brestu dnes začala konference vývojářů a uživatelů linuxové distribuce Debian DebConf25. Na programu je řada zajímavých přednášek. Sledovat je lze online.
Před 30 lety, tj. 14. července 1995, se začala používat přípona .mp3 pro soubory s hudbou komprimovanou pomocí MPEG-2 Audio Layer 3.
Výroba 8bitových domácích počítačů Commodore 64 byla ukončena v dubnu 1994. Po více než 30 letech byl představen nový oficiální Commodore 64 Ultimate (YouTube). S deskou postavenou na FPGA. Ve 3 edicích v ceně od 299 dolarů a plánovaným dodáním v říjnu a listopadu letošního roku.
Společnost Hugging Face ve spolupráci se společností Pollen Robotics představila open source robota Reachy Mini (YouTube). Předobjednat lze lite verzi za 299 dolarů a wireless verzi s Raspberry Pi 5 za 449 dolarů.
Dnes v 17:30 bude oficiálně vydána open source počítačová hra DOGWALK vytvořena v 3D softwaru Blender a herním enginu Godot. Release party proběhne na YouTube od 17:00.
McDonald's se spojil se společností Paradox a pracovníky nabírá také pomocí AI řešení s virtuální asistentkou Olivii běžící na webu McHire. Ian Carroll a Sam Curry se na toto AI řešení blíže podívali a opravdu je překvapilo, že se mohli přihlásit pomocí jména 123456 a hesla 123456 a získat přístup k údajům o 64 milionech uchazečů o práci.
while : do sleep 10 curl -s -o "http://nieco.htm" if grep -wE nieco > /dev/null 2>&1 then curl -s "http://nieco.ine" >> /dev/null echo "zapis_do" >> /path/abc.log fiOtazka je: niekto tvrdi, ze ten skript funguje aj bez cronu. Neviem ci to zabezpecuje podmienka while, alebo ako to presne funguje. A aj tak ten skript musi niekto spustit, alebo kde ho umiestnit aby sa spustil po starte systemu.
#!/bin/sh url1="http://abclinuxu.cz" url2="http://microsoft.com" log="/tmp/$(basename "$0" .sh).log" keyword="Microsoft" # toto zabrání vícenásobnému spuštění if [ $(pgrep -fc "$") -gt 1 ]; then echo "$0 run0ning!" exit 1 fi while sleep 10; do t=$(date '+%Y-%m-%d %H:%M:%S') if curl -sL "$url1" | grep -qs "$keyword"; then echo -n "$t "$keyword" detected, God save us!" | tee -a "$log" curl -sL "$url2" > /dev/null \ && echo " ... $url2 OK" | tee -a "$log" \ || echo " ... $url2 failed!" | tee -a "$log" else echo "$t "$keyword" not found!" | tee -a "$log" fi doneJe to samá roura
Potom bych vytvořil soubor systemd službu /etc/systemd/system/sluzba.service
[Unit] After=network-online.target [Install] WantedBy=multi-user.target [Service] User=jejda Type=simple ExecStart=/bin/sh /home/jejda/ptakoviny/mujskript.sh LogLevelMax=warning StandardOutput=append:/tmp/mujskript.log
Potom spustit
systemctl daemon-reload systemctl start sluzba.servicePokud by se to mělo spouštět automaticky při startu systému tak ještě
systemctl enable sluzba.serviceA mělo by to běžet. No v praxi se ale může objevit pár problémů. Některé servery (třeba seznam.cz) posílají data s kompresí, tak to nejde prohledávat grepem ale musí se to první prohnat přes zcat. Další věc je, jak ověřit data co se stáhnou v té druhé fázi. S přesměrováním http/https si curl poradí když má přepínač -L ale co když server v případě že soubor nemá tak místo aby vrátil chybu 404, tak nás přesměruje někam jinam? To se taky běžně stává. Curl tak stáhne něco jinačího než co po něm chceme. Tu v tomto konkrétním případě je to fuk když se to stahuje do /dev/null ale co když bysme stahovali něco důležitýho a chtěli mít jistotu že se místo našeho dokumentu nestáhla nějaká hovadina kterou nechcem? Toto netuším jak řešit.
if [ $(pgrep -fc "$") -gt 1 ]; then echo "$0 run0ning!" exit 1 fiale mělo to být:
if [ $(pgrep -fc "$0") -gt 1 ]; then echo "$0 running!" exit 1 fi
while true; do sleep ${INTERVALL} curl --silent --output ${OUTPUT} --digest --user "${USER}:${PASS}" "http://${IP}:${PORT}/nieco_zisti=status" if grep --silent -wE ${ERROR} ${OUTPUT}; then curl --silent --digest --user "${USER}:${PASS}" "http://${IP}:${PORT}/nieco_vykonaj=${LABEL}" > /dev/null TIMESTAMP=$(date +"%d.%m.%Y %H:%M:%S") echo "${TIMESTAMP} Reader ${LABEL} sa_vykonal" >> ${LOGFILE} fi doneSkript na zaklade nastaveneho casu v premennej INTERVAL stiahne pomocou curl obsah z isteho webu. Grep tento obsah webu prejde a vyhlada ci sa tam nachadza retazec, ktory je ulozeny v premennej ERROR. Ak sa najdeny retazec shoduje s retazcom ulozenym v premennej ERROR, tak znova cez curl prejde na http a vykona sa nejaka poziadavka (dajme tomu, ze sa niekde nieco odosle). Nasledne sa to zapise do logu s datumom a casom. A tento proces sa opakuje podla hodnoty ulozenej v premennej INTERVAL
Co se ale stane když to pustíš, párkrát ten cyklus úspěšně proběhne a potom ten server třeba spadne nebo nebude dostupný? nebo spadne síť? Zkus to pustit a odpojit kabel. Grep bude parsovat starý ${OUTPUT} a všecko se bude tvářit v pohodě. Podle logu nic nepoznáš, ten ti bude lhat, že se akce vykonala. Toto bys měl nějak ošetřit.
Nejjednodušší by asi bylo při tom prvním stahování přesměrovat výstup.curl --silent --digest --user "${USER}:${PASS}" "http://${IP}:${PORT}/nieco_zisti=status" > ${OUTPUT}To zajistí že se ${OUTPUT} přepíše aji když curl nic nestáhne.
rm $OUTPUT
Tiskni
Sdílej: