Byl představen cross-assembler xa.sh, napsaný čistě v Bourne shell skriptu. Tento nástroj umožňuje zpracovávat assemblerový kód pro Intel 8080, přičemž je možné snadno přidat podporu i pro další architektury, například 6502 a 6809. Skript využívá pouze různé běžné unixové příkazy jako jsou awk, sed nebo printf. Skript si lze stáhnout z GitHubového repozitáře projektu.
Byla představena nová verze modelu Claude Opus 4.6 od společnosti Anthropic. Jako demonstraci možností Anthropic využil 16 agentů Claude Opus 4.6 k vytvoření kompilátoru jazyka C, napsaného v programovacím jazyce Rust. Claude pracoval téměř autonomně, projekt trval zhruba dva týdny a náklady činily přibližně 20 000 dolarů. Výsledkem je fungující kompilátor o 100 000 řádcích kódu, jehož zdrojový kód je volně dostupný na GitHubu pod licencí Creative Commons.
Kultovní britský seriál The IT Crowd (Ajťáci) oslavil dvacáté výročí svého prvního vysílání. Sitcom o dvou sociálně nemotorných pracovnících a jejich nadřízené zaujal diváky svým humorem a ikonickými hláškami. Seriál, který debutoval v roce 2006, si i po dvou dekádách udržuje silnou fanouškovskou základnu a pravidelně se objevuje v seznamech nejlepších komedií své doby. Nedávné zatčení autora seriálu Grahama Linehana za hatecrime však vyvolává otázku, jestli by tento sitcom v současné Velké Británii vůbec vznikl.
Společnost JetBrains oznámila, že počínaje verzí 2026.1 budou IDE založená na IntelliJ ve výchozím nastavení používat Wayland.
Společnost SpaceX amerického miliardáře Elona Muska podala žádost o vypuštění jednoho milionu satelitů na oběžnou dráhu kolem Země, odkud by pomohly zajistit provoz umělé inteligence (AI) a zároveň šetřily pozemské zdroje. Zatím se ale neví, kdy by se tak mělo stát. V žádosti Federální komisi pro spoje (FCC) se píše, že orbitální datová centra jsou nejúspornějším a energeticky nejúčinnějším způsobem, jak uspokojit rostoucí poptávku po
… více »Byla vydána nová verze 2.53.0 distribuovaného systému správy verzí Git. Přispělo 70 vývojářů, z toho 21 nových. Přehled novinek v poznámkách k vydání.
Spolek OpenAlt zve příznivce otevřených řešení a přístupu na 216. sraz, který proběhne v pátek 20. února od 18:00 v Red Hat Labu (místnost Q304) na Fakultě informačních technologií VUT v Brně na ulici Božetěchova 1/2. Tématem srazu bude komunitní komunikační síť MeshCore. Jindřich Skácel představí, co je to MeshCore, předvede nejrůznější klientské zařízení a ukáže, jak v praxi vypadá nasazení vlastního repeateru.
Byla vydána nová major verze 9.0 multiplatformní digitální pracovní stanice pro práci s audiem (DAW) Ardour. Přehled novinek, vylepšení a oprav v poznámkách k vydání.
Hodnota Bitcoinu, decentralizované kryptoměny klesla pod 70 000 dolarů (1,44 milionu korun).
Valve z důvodu nedostatku pamětí a úložišť přehodnocuje plán na vydání zařízení Steam Controller, Steam Machine a Steam Frame: „Cílem tedy stále zůstává vydat všechna tři nová zařízení v první polovině letošního roku, ale přesná data a ceny jsou dvě věci, na kterých usilovně pracujeme a jsme si dobře vědomi toho, jak rychle se v tomto ohledu může vše změnit. Takže ač dnes žádné zveřejnitelné údaje nemáme, hned jak plány finalizujeme, budeme Vás informovat.“
wget -i souborsodkazy.txtkde mám adresu třeba
www.stranka.cc/song1.mp3 www.stranka.cc/song2.mp3 www.stranka.cc/song3.mp3a wget ty soubory přejmenoval podle souboru nazvypisnicek.txt kde by treba bylo:
BritnaSpyrsova-Jsemtoxická.mp3 LeosMares.mp3 evaavasek-ducduc.mp3Věcný dík
Řešení dotazu:
KOLIK=`wc -l souborsodkazy.txt` for i in `seq 1 $KOLIK`; do wget `awk "FNR == $i" souborsodkazy.txt` -O `awk "FNR == $i" nazvypisnicek.txt` done(netestováno)
paste -d' ' souborodkazy.txt nazvypisnicek.txt
2. sedem dopsat na každý řádek wget a -O
3. spustit výsledek
;)
Jinými slovy, wget to sám neumí.
$ pr -mTs" -O " urls names |xargs -i bash -c "wget {}"
a ono to funguje! Zkontroloval jsem si, co ten wget dostava za parametry (" ...|xargs -t wget --spider") a dostava to tak, jak se mu to libi, tedy: "wget url1 -O name1 url2 -O name2 atd." To jsem z toho opravdu jelen. Necitim se, ze bych zaludnostech xargs rozumel ted o neco vice.pr -mTs" -O " urls names |xargs wget
xargs -i je starší (a depracated) verze zápisu xargs -I{}, takže to není "prázdný řetězec".
Pokud byste chtěl (obecně) vložit jako argument prázdný řetězec, lze to učinit buď
prokaz -i " " nebo s escapováním prikaz -i\ -j -k foo (povšimněte si dvou po sobě jdoucích mezer za obráceným lomítkem)
zápisu xargs -I{}, takže to není "prázdný řetězec"Myslel jsem temi slovy "prazdny retezec" to, ze ten retezec parametru predavanych xargs neni pojmenovany (pomoci tech "-i" nebo "-I "), takze se pouzivaji {} (coz doted nevim, za co je to zkratka, odkud se to vzalo a kdo s tim prisel. Pouzivam to i u 'find' a tam se v manu jen pise, ze to nahrazuje momentalni retexec -- coz plati i v tomto pripade s xargs). V kazdem pripade, kdyz ten retezec pojmenuju (napr. 'xxx'), tak uz to nefunguje (to "-t" a "--spider" lze vynechat. Je to tam jen pro moji kontrolu co dostava wget za vstup a aby se porad netahalo to same ze site. Wget neumi schema file:// a moje stanice nebezi web server):
... |xargs -ixxx -t wget --spider xxxa stejne tak nefunguje
... |xargs -I xxx -t wget --spider xxxWget prestane rozumet mezeram v tom textu, takze pak ten vstup chape jako "url1%20-O%20name1" a navic se vola pro kazdy radek (tedy dvojici [url,name] ) zvlast, misto aby dostal vice url najednou.
prikaz -i\ -j -k fooKde berete lidi ty prepinace, kdyz v 'manu' nejsou?
Kde berete lidi ty prepinace, kdyz v 'manu' nejsou?Ted jsem si uvedomil, ze to asi nebudou skutecne prepinace prikazu xargs, ale jen tak nejaka pismenka pro nazornost ('j' a 'k' nasleduje po 'i').
Mějme skript processing.sh:
#! /usr/bin/env bash
echo "RUN"
i=1
while [ "$1" != "" ]; do
echo "${i}. arg = $1"
shift
i=$(($i+1))
done
Prohlédni si výstupy:
$ pr -mTs" -O " urls names |xargs -i ./processing.sh {}
RUN
1. arg = https://www.example.com/1 -O one
RUN
1. arg = https://www.example.com/2 -O two
RUN
1. arg = https://www.example.com/3 -O three
$ pr -mTs" -O " urls names |xargs -I'{}' ./processing.sh {}
RUN
1. arg = https://www.example.com/1 -O one
RUN
1. arg = https://www.example.com/2 -O two
RUN
1. arg = https://www.example.com/3 -O three
$ pr -mTs" -O " urls names |xargs ./processing.sh
RUN
1. arg = https://www.example.com/1
2. arg = -O
3. arg = one
4. arg = https://www.example.com/2
5. arg = -O
6. arg = two
7. arg = https://www.example.com/3
8. arg = -O
9. arg = three
Volba -i je synonymum volby -I pokud je specifikován její argument tj. replace-str, jestliže specifikován není odpovídá -I'{}'.
Z ukázky je vidět, že první a druhé řešení jsou totožné a bash -c je použit kvůli tomu, že {} je jeden řetězec tj. kdyby se předal rovnou programu wget, tak by ho chápal celý jako URL. A právě Bash nám zařídí opětovné rozdělení jednotlivých argumentů v řetězci tj. URL -O OUTPUT_FILENAME.
Třetí řešení lze použít pouze pokud splníme dvě podmínky:
URL -O OUTPUT_FILENAMEUž je to jasnější?
Už je to jasnější?Priklady 1 a 2 jsou presne ukazka toho, co uvadim ve svem prikladu vyse (tedy "slevami" parametru)
vstup nesmí být příliš velký, jinak vyčerpáme maximální možnou velikost argumentů příkazové řádkyPrincip tohohle chapu. Zaroven si uvedomuji, ze tim svym "resenim" jsem si do toho primo vbehnul
Nejak jsem si myslel, ze prave xargs se postara o tom, abych ten limit nepretekl a ted si uvedomuji, ze ne.
Myslel jsem, ze podstatou je dostat co nejvice argumentu za prikaz, aby se nemusel vyvolat pro kazdy radek zvlast. Pritom s prikladu 1 a 2 s bashem to vypada, ze se bude wget volat pro kazdou sadu argumentu zvlast. U wgetu to pochopitelne zas az tak nevadi, ale kdyz si predstavim, ze je tam treba 'mv', 'rm', 'gzip' nebo 'tar x' ...
Budu se muset jeste jednou poradne zamyslet nad tim, co a proc bere xargs na svem vstupu jako jeden argument a proc to tak je. To take zodpovi muj udiv nad tim, ze xargs "nedokaze chapat ty parametry oddelene" a proc nejdou oddelit aniz by se musel volat Bash.
Dam si ted na par hodin pauzu
Budu se muset jeste jednou poradne zamyslet nad tim, co a proc bere xargs na svem vstupu jako jeden argument a proc to tak je.
Jde jen o to, že když využiješ záložku (-I{}), tak se Ti všechny argumenty "slijou" dohromady v jeden tj. jako kdyby jsi vypsal všechny argumenty předané skriptu pomocí $@. A pak zbytečně spouštíme Bash, aby jsme tyto argumenty předali wgetu opět odděleně, takže to není příliš vhodné řešení. Můžeme snížit počet spouštěných procesů na polovičku, když nepoužijeme záložku:
$ pr -mTs" -O " urls names |xargs --max-lines=1 ./processing.sh RUN 1. arg = https://www.example.com/1 2. arg = -O 3. arg = one RUN 1. arg = https://www.example.com/2 2. arg = -O 3. arg = two RUN 1. arg = https://www.example.com/3 2. arg = -O 3. arg = three
Co se týče ARG_MAX, tak jsem xargs podcenil, hlídá si velikost a pokud by byl překročen systémový limit (případně lze nastavit i menší hodnotu viz. níže), tak provede spuštění příkazu a pro data, která se nevešla spustí další instaci příkazu a tak stále dokola než zpracuje celý vstup:
$ pr -mTs" -O " urls names |xargs --max-chars=100 ./processing.sh RUN 1. arg = https://www.example.com/1 2. arg = -O 3. arg = a1 4. arg = https://www.example.com/2 5. arg = -O 6. arg = a2 RUN 1. arg = https://www.example.com/3 2. arg = -O 3. arg = b3 4. arg = https://www.example.com/4 5. arg = -O 6. arg = b4 RUN 1. arg = https://www.example.com/5 2. arg = -O 3. arg = c5 4. arg = https://www.example.com/6 5. arg = -O 6. arg = c6
U wgetu to pochopitelne zas az tak nevadi, ale kdyz si predstavim, ze je tam treba 'mv', 'rm', 'gzip' nebo 'tar x' ...
Ano máš pravdu, např. pokud předpokládáš, že budeš mazat hodně souborů, tak není vhodné použít volbu -exec příkazu find, ale je lepší předat výstup -print na vstup xargs, který už sám zajistí minimální množství instací příkazu rm.
Tiskni
Sdílej: