Spolek OpenAlt zve příznivce otevřených řešení a přístupu na 209. brněnský sraz, který proběhne tento pátek 16. května od 18:00 ve studentském klubu U Kachničky na Fakultě informačních technologií Vysokého učení technického na adrese Božetěchova 2/1. Jelikož se Brno stalo jedním z hlavních míst, kde se vyvíjí open source knihovna OpenSSL, tentokrát se OpenAlt komunita potká s komunitou OpenSSL. V rámci srazu Anton Arapov z OpenSSL
… více »GNOME Foundation má nového výkonného ředitele. Po deseti měsících skončil dočasný výkonný ředitel Richard Littauer. Vedení nadace převzal Steven Deobald.
Byl publikován přehled vývoje renderovacího jádra webového prohlížeče Servo (Wikipedie) za uplynulé dva měsíce. Servo zvládne už i Gmail. Zakázány jsou příspěvky generované pomocí AI.
Raspberry Pi Connect, tj. oficiální služba Raspberry Pi pro vzdálený přístup k jednodeskovým počítačům Raspberry Pi z webového prohlížeče, byla vydána v nové verzi 2.5. Nejedná se už o beta verzi.
Google zveřejnil seznam 1272 projektů (vývojářů) od 185 organizací přijatých do letošního, již jednadvacátého, Google Summer of Code. Plánovaným vylepšením v grafických a multimediálních aplikacích se věnuje článek na Libre Arts.
Byla vydána (𝕏) dubnová aktualizace aneb nová verze 1.100 editoru zdrojových kódů Visual Studio Code (Wikipedie). Přehled novinek i s náhledy a videi v poznámkách k vydání. Ve verzi 1.100 vyjde také VSCodium, tj. komunitní sestavení Visual Studia Code bez telemetrie a licenčních podmínek Microsoftu.
Open source platforma Home Assistant (Demo, GitHub, Wikipedie) pro monitorování a řízení inteligentní domácnosti byla vydána v nové verzi 2025.5.
OpenSearch (Wikipedie) byl vydán ve verzi 3.0. Podrobnosti v poznámkách k vydání. Jedná se o fork projektů Elasticsearch a Kibana.
PyXL je koncept procesora, ktorý dokáže priamo spúštat Python kód bez nutnosti prekladu ci Micropythonu. Podľa testov autora je pri 100 MHz približne 30x rýchlejší pri riadeni GPIO nez Micropython na Pyboard taktovanej na 168 MHz.
Grafana (Wikipedie), tj. open source nástroj pro vizualizaci různých metrik a s ní související dotazování, upozorňování a lepší porozumění, byla vydána ve verzi 12.0. Přehled novinek v aktualizované dokumentaci.
for N in {1..1000}; do A=$(bc -l <<< "scale=9; s(3.14159/$N)") B=$(bc -l <<< "scale=9; c(3.14159/$N)") printf "$A;$B" doneJe to teda dost zjednodušený, aby se v tom dalo vyznat.
Řešení dotazu:
#!/bin/bash # test1.sh for N in {1..5000}; do A=$(bc -l <<< "scale=9; s(3.14159/$N)" &) B=$(bc -l <<< "scale=9; c(3.14159/$N)" &) wait printf "$A;$B\n" donePokud máš více jak 2 jádra, je asi lepší paralelizovat iterace:
#!/bin/bash # test2.sh function wait_for_threads() { while [ $(jobs -rp | wc -l) -ge $threads ]; do sleep $check_interval_secs; done } threads=$(grep processor /proc/cpuinfo | wc -l) check_interval_secs=0.01 for N in {1..5000}; do wait_for_threads ( A=$(bc -l <<< "scale=9; s(3.14159/$N)") B=$(bc -l <<< "scale=9; c(3.14159/$N)") printf "$N $A;$B\n" ) & done | sort -n | cut -d' ' -f2-Režie bude ale obrovská, vzhledem k rychlosti k výpočtu v bc. Takže by to chtělo rozdělit iterace do clusterů, které by byli prováděny paralelně:
#!/bin/bash # test3.sh iters=5000 threads=$(grep processor /proc/cpuinfo | wc -l) cluster_size=$((iters/threads)) last_cluster_size=$((iters-cluster_size*(threads-1))) temp=$(mktemp -d) for C in $(seq $threads); do first_iter=$(( (C-1) * cluster_size + 1 )) if [ $C -lt $threads ]; then last_iter=$(( first_iter + cluster_size -1 )) else last_iter=$(( first_iter + last_cluster_size -1 )) fi ( for N in $(seq $first_iter $last_iter); do A=$(bc -l <<< "scale=9; s(3.14159/$N)") B=$(bc -l <<< "scale=9; c(3.14159/$N)") printf "$A;$B\n" done ) > $temp/$C.list & done wait for C in $(seq $threads); do cat $temp/$C.list rm $temp/$C.list done rmdir $tempBenchmark na i5 (4 core):
$ time ./test0.sh > test0.output # original bez paralelizace real 0m15.776s user 0m0.928s sys 0m1.628s $ time ./test1.sh > test1.output real 0m12.012s user 0m0.608s sys 0m1.588s $ time ./test2.sh > test2.output real 0m11.803s user 0m1.300s sys 0m1.288s $ time ./test3.sh > test3.output real 0m3.278s user 0m0.388s sys 0m0.808s $ for i in 1 2 3; do cmp test0.output test$i.output; echo $?; done 0 0 0
CPU=$(grep processor /proc/cpuinfo | wc -l) for S in $(seq 1 $CPU); do sleep .00$((S-1)) for N in $(seq $S $CPU 1000); do A=$(bc -l <<< "scale=9; s(3.14159/$N)") B=$(bc -l <<< "scale=9; c(3.14159/$N)") printf "$A;$B" done & done wait
/bin/dash
, který by měl být upraven pro dávkové zpracování.
/bin/dash
hodně zjednodušený, aby běhal co nejrychleji a dělal jen to nezbytné, co shell musí umět. Pro daný případ se tedy nehodí.
bc
, Pythonu, Perlu, AWK, Haskellu nebo čemkoli jiném, co je výkonnější než Bash? Přeskakovat při každém průchodu cyklem do bc a zpátky není vůbec efektivní. Navíc se Bash na zpracování čísel vůbec nehodí.
#!/bin/bash bc -l <<EOT scale = 9 for (n = 1; n <= 1000; n++) { print s(3.14159/n), ";", c(3.14159/n), "\n"; } quit EOT
#!/bin/bash bc_call() { bc -l <<EOT scale = 9 for (n = 1; n <= 1000; n++) { print s(3.14159/n), " ", c(3.14159/n), "\n"; } EOT } bc_call | while read A B; do printf "\e[${B};${A}H\e[48;5;161m \e[0m" done
Tiskni
Sdílej: