Byla vydána nová verze 0.4.15 (𝕏) svobodného operačního systému ReactOS (Wikipedie), jehož cílem je kompletní binární kompatibilita s aplikacemi a ovladači pro Windows. Přehled novinek i s náhledy v oznámení o vydání.
Byl představen rpi-image-gen, tj. oficiální nástroj pro vytváření vlastních softwarových obrazů pro zařízení Raspberry Pi.
Byla vydána nová major verze 8.0, aktuálně 8.0.1, softwaru pro správu elektronických knih Calibre (Wikipedie). Přehled novinek v poznámkách k vydání. Vypíchnuta je lepší podpora Kobo KEPUB formátu nebo integrovaný lokálně běžící engine Piper pro převod textu na řeč používaný pro čtení nahlas (již od verze 7.18).
Společnost OpenAI rozšířila své API o nové audio modely. Nový model pro převod textu na řeč (text-to-speech model) lze bez přihlašování vyzkoušet na stránce OpenAI.fm.
Příspěvek Bezpečnost paměti pro webové fonty na blogu Chrome pro vývojáře rozebírá, proč se pro zpracování webových fontů v Chrome místo FreeType nově používá v Rustu napsaná Skrifa z Fontations.
V pátek 21. a v sobotu 22. března proběhnou Arduino Days 2025, tj. každoroční „narozeninová oslava“ platformy Arduino. Na programu je řada zajímavých přednášek. Sledovat je bude možné na YouTube. Zúčastnit se lze i lokálních akcí. V sobotu v Praze na Matfyzu.
Komunitná konferencia Bratislava OpenCamp, ktorá sa uskutoční už o tri týždne 5. 4. 2025 na FIIT STU pozná svoj program – návštevníkom ponúkne 3 paralelné behy prednášok a workshopov na rôzne témy týkajúce sa otvoreného softvéru či otvorených technológií.
Časopis MagPi od nakladatelství Raspberry Pi se s číslem 151 přejmenoval na Raspberry Pi Official Magazine. I pod novým názvem zůstává nadále ve formátu pdf zdarma ke čtení.
Japonská SoftBank Group kupuje firmu Ampere Computing za 6,5 miliardy dolarů. Ampere Computing vyrábí 32-128jádrové procesory Ampere Altra a 192jádrové procesory AmpereOne.
Byla vydána (𝕏) nová verze 2025.1a linuxové distribuce navržené pro digitální forenzní analýzu a penetrační testování Kali Linux (Wikipedie). Přehled novinek v oficiálním oznámení na blogu.
lftp
a hodit je do zipu je hračka. Naplánovalo by se to cronem nebo přes at nebo tak nějak.
#!/usr/local/bin/bash cd /cesta/kam/zalohuju #parametry wget si nastavte ja potrebujete /usr/local/bin/wget -o wget_log.txt -t 10 -c -r -l 15 --user=uzivatel --password=heslo URL #nasledujici pojmenuje pripadnou zalohu podle casu a data jmenozalohy=zaloha$(date +%d.%m.%y_%H:%M).zip #zabaleni stazeneho spolecne s logem o stazeni /usr/local/bin/zip -r $jmenozalohy stazeny_adresar wget_log.txt rm -rf stazeny_adresar wget_log.txt exitasi muj 3. skript zivota takze to urcite neni idealni ale pro me ucely to funguje, prvozuju s to bashem(jak napasno na zacatku) v freebsd
<pre>
./usr/local/websdump/websdump
# generovani zaloh webu #--- ecoteam.cz -------------------------------------------------------------------------------- rm -rdf /var/zaloha/webs/stranky/mirror/* wget -q www.stranky.cz/_mysqldump_/mysqldump.php -O /dev/null lftp -c 'open -e "mirror / /var/zaloha/webs/stranky/mirror" ftp://user:pass@ftp.stranky.cz' rm -rf /var/zaloha/webs/stranky/stranky_day_`date +%w`.zip zip -r /var/zaloha/webs/stranky/stranky_day_`date +%w`.zip /var/zaloha/webs/stranky/mirror/ rm -rdf /var/zaloha/webs/stranky/mirror/* #-----------------------------------------------------------------------------------------------
1. radek: kompletne smaze obsah adresare mirror
2. radek: to je moje specialita na dump obsahu databaze a ulozi do souboru na ftp serveru, u tebe nema vyznam
3. radek: provede stazeni celeho obsahu ftp serveru od adresare / hloubeji. Da se nastavit, aby to stahovalo jen nejaky podadresar umisteny na danem ftp, "stranky" chci stahovat cely, mam tam proto jen /. Soubory se kopiruji prave do adresare mirror.
4. radek: smaze stary zip soubor, ktery nese stejne jmeno, jako bude mit ten novy.
5. radek: zkomprimuje obsah adresare mirror do zipu s nazvem stranky_day_n.zip
6. radek: kompletne smaze obsah adresare mirrorHodnota n z 5.radku je obsahuje aktualni den v tydnu (day of week). Je to proto, ze chci vytvaret zalohy s tydenni rotaci a to takovym zpusobem, abych se o to nemusel starat. Cron pusti zalohovaci davku pravidelne kazdou nedeli v 3:30, kde plati, ze n=0, cili bude vytvarena zaloha s nazvem stranky_day_0.zip. Ta puvodni se diky radku 4 smaze a nahradi se aktualni zalohou. Paklize by byla nutnost vytvaret zalohy kazdy den, mohl by se cron nastavit tak, aby provadel zalohy kazdy den, vytvarelo by se 7 archivu, s tim, ze by bylo vzdy a za kazdych okolnosti dostupnych 6 poslednich zaloh zpetne a s postupujicimi dny by se archivy postupne kruhove premazavaly aktualnimi. Interval rotace se da zvysit nahrazenim dne v tydnu nejakou jinou inkrementalni, ale opakujici se hodnotou, napriklad den v mesici (drobne anomalie s 28,29,30,31 dny v mesici by nevadily), kde by se uchovavalo poslednich 30 zaloh, paklize by se zalohovalo kazdy den nebo dnem v roce. To mi vsak pripada uz trochu zbytecne, vzhledem k tem webum, co se maji zalohovat. Dale je mozne trebas jednou mesicne aktualni zalohu zkopirovat jinam a delat si jeste mesicni referencni zalohy, ale to uz se dostavam do zcela zbytecne roviny. Tak jestli chces, tak si do toho souboru pripis tvoje servery, nezapomen na vytvoreni adresaru v /var/zaloha/webs/....
Tiskni
Sdílej: