Richard Hughes oznámil, že po společnostech Red Hat a Framework a organizacích OSFF a Linux Foundation, službu Linux Vendor Firmware Service (LVFS) umožňující aktualizovat firmware zařízení na počítačích s Linuxem, nově sponzorují také společnosti Dell a Lenovo. Do dnešního dne bylo díky LVFS provedeno více než 145 milionů aktualizací firmwarů od více než 100 různých výrobců na milionech linuxových zařízení.
Americké technologické společnosti Microsoft, Google a xAI souhlasily, že vládě Spojených států poskytnou přístup k novým modelům umělé inteligence (AI) před jejich uvedením na trh. Oznámila to americká vláda, která tak bude moci prověřit, zda modely nepředstavují hrozbu pro národní bezpečnost. Oznámení podtrhuje rostoucí obavy Washingtonu z rizik spojených s výkonnými AI systémy. Americké úřady chtějí v rámci předběžného přístupu
… více »Společnost Valve zveřejnila (GitLab) nákresy ovladače Steam Controller a puku. Pro všechny, kdo by jej chtěli hacknout nebo modifikovat, případně pro ně navrhnout nějaké příslušenství. Pod licencí Creative Commons (CC BY-NC-SA 4.0).
PHP bylo dlouho distribuováno pod vlastní licencí – s výjimkou částí spadajících pod licenci Zend Engine. Po několikaleté práci se povedlo PHP přelicencovat na 3bodovou licenci BSD.
Na čem pracují vývojáři webového prohlížeče Ladybird (GitHub)? Byl publikován přehled vývoje za duben (YouTube). Na Linuxu je vedle Qt frontendu nově k dispozici také GTK4 / libadwaita frontend.
Neziskové průmyslové konsorcium Khronos Group vydalo verzi 3.1 specifikace OpenCL (Open Computing Language). OpenCL je průmyslový standard pro paralelní programování heterogenních počítačových systémů.
Homebridge pro integraci chytrých domácích zařízení byl vydán ve verzi 2.0.0. Nově vedle protokolu HomeKit Accessory Protocol (HAP) podporuje standard chytré domácnosti Matter.
Omarchy je linuxová distribuce s dlaždicovým správcem oken Hyprland. Založena je na Arch Linuxu. Vydána byla v nové verzi 3.7.0 - The Gaming Edition. Z novinek lze vypíchnout příkaz omarchy a celou řadu herních možností.
CyberChef byl vydán v nové major verzi 11. Přehled novinek v Changelogu. CyberChef je webová aplikace pro analýzu dat a jejich kódování a dekódování, šifrování a dešifrování, kompresi a dekompresi, atd. Často je využívaná při kybernetických cvičeních a CTF (Capture the Flag).
Byla vydána nová verze 2.4.67 svobodného multiplatformního webového serveru Apache (httpd). Řešeno je mimo jiné 11 zranitelností.
Rád se podělím o jednu epizodu z práce adminstrátorské, protože obsahuje pár technických zvrat(k)ů a možná i obecné životní poučení :)
Kolega se snažil zkopírovat jednu instanci databáze do druhé. Jenže se mu to pořád nedařilo. Řešili to na poradách už asi tři týdny a pořád žádný výsledek. Už od začátku jsem v hlavě tušil, že bych hravě zvládnul, ale sám toho mám hodně a vůbec, tenhle projekt není moje starost. Jenže to porady pořád natahovalo a už to začínal být opruz i pro mě. Tak jsem se do toho vložil a dobrovolně se nabídl, že vyřeším.
Jedná se o jednu Percona 5.6, čistě InnoDB databázi, ve které začalo konstantně leakovat místo na disku:
Projekt trochu znám a tušil jsem, že tam bude hodně databází a tabulek. Řešení za mě je komplet předumpování do nové čisté instance. Kolega zkoušel všelijak binárně a pomocí replikace bez výpadku, ale nikam se nedostal. A vůbec, dump je grunt, jak říkal můj dědeček administrátor. Navíc jsem se cítil silný v kramflecích, už jsem toto v menším měřítku párkrát dělal.
SELECT
concat(table_schema, '.', table_name) tbl,
engine,
concat(round(table_rows/1000000,2),'M') rows,
concat(round(data_length/(1024*1024*1024),2),'G') DATA,
concat(round(index_length/(1024*1024*1024),2),'G') idx,
concat(round((data_length+index_length)/
(1024*1024*1024),2),'G') total_size,
round(index_length/data_length,2) idxfrac
FROM information_schema.TABLES
WHERE table_schema not in
('mysql', 'performance_schema', 'information_schema')
ORDER BY data_length+index_length DESC;
BTW toto SQL běželo půl hodiny.
while read -r db tabulka; do
(( i++ ))
echo "(${i} / ${tabulky_pocet}) ${db}.${tabulka}"
while (( $(jobs -p | wc -l) >= $POCET_PARALELNICH )); do
sleep 0.1
done
predumpuj "$db" "$tabulka" &
done <<< "$tabulky"
wait
echo "Done"
Mysqldump sype data rourou rovnou do nové DB.
echo "$tables" | awk '{ i++; printf("%s %s %s\n", i, $1, $2) }' | xargs -n 3 -P "$POCET_PARALELNICH" ./predumpuj-worker.bash
výstup workeru loguji takto přímo v něm:
flock /root/predumpuj_worker.log echo "${1} ${2} ${3} ${ret}" >> /root/predumpuj_worker.log
Díky tomuto logu a příkazu pv mám i jednoduchý progress i s ETA:
tail -n0 -f /root/predumpuj_worker.log | pv -l -s 550000 > /dev/nullTakto už šlape plnou rychlostí po celou dobu a plánuji ostré překlopení na druhou ráno. Čas celého dumpu: cca 70 minut. Skript je takto i mnohem kratší a elegantnější.
Tiskni
Sdílej: