Open source modální textový editor Helix, inspirovaný editory Vim, Neovim či Kakoune, byl vydán ve verzi 25.07. Přehled novinek se záznamy terminálových sezení v asciinema v oznámení na webu. Detailně v CHANGELOGu na GitHubu.
Americký výrobce čipů Nvidia získal od vlády prezidenta Donalda Trumpa souhlas s prodejem svých pokročilých počítačových čipů používaných k vývoji umělé inteligence (AI) H20 do Číny. Prodej těchto čipů speciálně upravených pro čínský trh by tak mohl být brzy obnoven, uvedla firma na svém blogu. Americká vláda zakázala prodej v dubnu, v době eskalace obchodního sporu mezi oběma zeměmi. Tehdy to zdůvodnila obavami, že by čipy mohla využívat čínská armáda.
3D software Blender byl vydán ve verzi 4.5 s prodlouženou podporou. Podrobnosti v poznámkách k vydání. Videopředstavení na YouTube.
Open source webový aplikační framework Django slaví 20. narozeniny.
V Brestu dnes začala konference vývojářů a uživatelů linuxové distribuce Debian DebConf25. Na programu je řada zajímavých přednášek. Sledovat je lze online.
Před 30 lety, tj. 14. července 1995, se začala používat přípona .mp3 pro soubory s hudbou komprimovanou pomocí MPEG-2 Audio Layer 3.
Výroba 8bitových domácích počítačů Commodore 64 byla ukončena v dubnu 1994. Po více než 30 letech byl představen nový oficiální Commodore 64 Ultimate (YouTube). S deskou postavenou na FPGA. Ve 3 edicích v ceně od 299 dolarů a plánovaným dodáním v říjnu a listopadu letošního roku.
Společnost Hugging Face ve spolupráci se společností Pollen Robotics představila open source robota Reachy Mini (YouTube). Předobjednat lze lite verzi za 299 dolarů a wireless verzi s Raspberry Pi 5 za 449 dolarů.
Dnes v 17:30 bude oficiálně vydána open source počítačová hra DOGWALK vytvořena v 3D softwaru Blender a herním enginu Godot. Release party proběhne na YouTube od 17:00.
McDonald's se spojil se společností Paradox a pracovníky nabírá také pomocí AI řešení s virtuální asistentkou Olivii běžící na webu McHire. Ian Carroll a Sam Curry se na toto AI řešení blíže podívali a opravdu je překvapilo, že se mohli přihlásit pomocí jména 123456 a hesla 123456 a získat přístup k údajům o 64 milionech uchazečů o práci.
wget -i souborsodkazy.txtkde mám adresu třeba
www.stranka.cc/song1.mp3 www.stranka.cc/song2.mp3 www.stranka.cc/song3.mp3a wget ty soubory přejmenoval podle souboru nazvypisnicek.txt kde by treba bylo:
BritnaSpyrsova-Jsemtoxická.mp3 LeosMares.mp3 evaavasek-ducduc.mp3Věcný dík
Řešení dotazu:
KOLIK=`wc -l souborsodkazy.txt` for i in `seq 1 $KOLIK`; do wget `awk "FNR == $i" souborsodkazy.txt` -O `awk "FNR == $i" nazvypisnicek.txt` done(netestováno)
paste -d' ' souborodkazy.txt nazvypisnicek.txt
2. sedem dopsat na každý řádek wget
a -O
3. spustit výsledek
;)
Jinými slovy, wget to sám neumí.
$ pr -mTs" -O " urls names |xargs -i bash -c "wget {}"
a ono to funguje! Zkontroloval jsem si, co ten wget dostava za parametry (" ...|xargs -t wget --spider") a dostava to tak, jak se mu to libi, tedy: "wget url1 -O name1 url2 -O name2 atd." To jsem z toho opravdu jelen. Necitim se, ze bych zaludnostech xargs rozumel ted o neco vice.pr -mTs" -O " urls names |xargs wget
xargs -i
je starší (a depracated) verze zápisu xargs -I{}
, takže to není "prázdný řetězec".
Pokud byste chtěl (obecně) vložit jako argument prázdný řetězec, lze to učinit buď
prokaz -i " "
nebo s escapováním prikaz -i\ -j -k foo
(povšimněte si dvou po sobě jdoucích mezer za obráceným lomítkem)
zápisu xargs -I{}, takže to není "prázdný řetězec"Myslel jsem temi slovy "prazdny retezec" to, ze ten retezec parametru predavanych xargs neni pojmenovany (pomoci tech "-i" nebo "-I "), takze se pouzivaji {} (coz doted nevim, za co je to zkratka, odkud se to vzalo a kdo s tim prisel. Pouzivam to i u 'find' a tam se v manu jen pise, ze to nahrazuje momentalni retexec -- coz plati i v tomto pripade s xargs). V kazdem pripade, kdyz ten retezec pojmenuju (napr. 'xxx'), tak uz to nefunguje (to "-t" a "--spider" lze vynechat. Je to tam jen pro moji kontrolu co dostava wget za vstup a aby se porad netahalo to same ze site. Wget neumi schema file:// a moje stanice nebezi web server):
... |xargs -ixxx -t wget --spider xxxa stejne tak nefunguje
... |xargs -I xxx -t wget --spider xxxWget prestane rozumet mezeram v tom textu, takze pak ten vstup chape jako "url1%20-O%20name1" a navic se vola pro kazdy radek (tedy dvojici [url,name] ) zvlast, misto aby dostal vice url najednou.
prikaz -i\ -j -k fooKde berete lidi ty prepinace, kdyz v 'manu' nejsou?
Kde berete lidi ty prepinace, kdyz v 'manu' nejsou?Ted jsem si uvedomil, ze to asi nebudou skutecne prepinace prikazu xargs, ale jen tak nejaka pismenka pro nazornost ('j' a 'k' nasleduje po 'i').
Mějme skript processing.sh
:
#! /usr/bin/env bash echo "RUN" i=1 while [ "$1" != "" ]; do echo "${i}. arg = $1" shift i=$(($i+1)) done
Prohlédni si výstupy:
$ pr -mTs" -O " urls names |xargs -i ./processing.sh {} RUN 1. arg = https://www.example.com/1 -O one RUN 1. arg = https://www.example.com/2 -O two RUN 1. arg = https://www.example.com/3 -O three $ pr -mTs" -O " urls names |xargs -I'{}' ./processing.sh {} RUN 1. arg = https://www.example.com/1 -O one RUN 1. arg = https://www.example.com/2 -O two RUN 1. arg = https://www.example.com/3 -O three $ pr -mTs" -O " urls names |xargs ./processing.sh RUN 1. arg = https://www.example.com/1 2. arg = -O 3. arg = one 4. arg = https://www.example.com/2 5. arg = -O 6. arg = two 7. arg = https://www.example.com/3 8. arg = -O 9. arg = three
Volba -i
je synonymum volby -I
pokud je specifikován její argument tj. replace-str
, jestliže specifikován není odpovídá -I'{}'
.
Z ukázky je vidět, že první a druhé řešení jsou totožné a bash -c
je použit kvůli tomu, že {}
je jeden řetězec tj. kdyby se předal rovnou programu wget
, tak by ho chápal celý jako URL. A právě Bash nám zařídí opětovné rozdělení jednotlivých argumentů v řetězci tj. URL -O OUTPUT_FILENAME
.
Třetí řešení lze použít pouze pokud splníme dvě podmínky:
URL -O OUTPUT_FILENAME
Už je to jasnější?
Už je to jasnější?Priklady 1 a 2 jsou presne ukazka toho, co uvadim ve svem prikladu vyse (tedy "slevami" parametru)
vstup nesmí být příliš velký, jinak vyčerpáme maximální možnou velikost argumentů příkazové řádkyPrincip tohohle chapu. Zaroven si uvedomuji, ze tim svym "resenim" jsem si do toho primo vbehnul
Budu se muset jeste jednou poradne zamyslet nad tim, co a proc bere xargs na svem vstupu jako jeden argument a proc to tak je.
Jde jen o to, že když využiješ záložku (-I{}
), tak se Ti všechny argumenty "slijou" dohromady v jeden tj. jako kdyby jsi vypsal všechny argumenty předané skriptu pomocí $@
. A pak zbytečně spouštíme Bash, aby jsme tyto argumenty předali wgetu opět odděleně, takže to není příliš vhodné řešení. Můžeme snížit počet spouštěných procesů na polovičku, když nepoužijeme záložku:
$ pr -mTs" -O " urls names |xargs --max-lines=1 ./processing.sh RUN 1. arg = https://www.example.com/1 2. arg = -O 3. arg = one RUN 1. arg = https://www.example.com/2 2. arg = -O 3. arg = two RUN 1. arg = https://www.example.com/3 2. arg = -O 3. arg = three
Co se týče ARG_MAX
, tak jsem xargs
podcenil, hlídá si velikost a pokud by byl překročen systémový limit (případně lze nastavit i menší hodnotu viz. níže), tak provede spuštění příkazu a pro data, která se nevešla spustí další instaci příkazu a tak stále dokola než zpracuje celý vstup:
$ pr -mTs" -O " urls names |xargs --max-chars=100 ./processing.sh RUN 1. arg = https://www.example.com/1 2. arg = -O 3. arg = a1 4. arg = https://www.example.com/2 5. arg = -O 6. arg = a2 RUN 1. arg = https://www.example.com/3 2. arg = -O 3. arg = b3 4. arg = https://www.example.com/4 5. arg = -O 6. arg = b4 RUN 1. arg = https://www.example.com/5 2. arg = -O 3. arg = c5 4. arg = https://www.example.com/6 5. arg = -O 6. arg = c6
U wgetu to pochopitelne zas az tak nevadi, ale kdyz si predstavim, ze je tam treba 'mv', 'rm', 'gzip' nebo 'tar x' ...
Ano máš pravdu, např. pokud předpokládáš, že budeš mazat hodně souborů, tak není vhodné použít volbu -exec
příkazu find
, ale je lepší předat výstup -print
na vstup xargs
, který už sám zajistí minimální množství instací příkazu rm
.
Tiskni
Sdílej: