Byla vydána verze 0.2.0 v Rustu napsaného frameworku Pingora pro vytváření rychlých, spolehlivých a programovatelných síťových systémů. Společnost Cloudflare jej letos v únoru uvolnila pod licencí Apache 2.0.
Open source RDP (Remote Desktop Protocol) server xrdp (Wikipedie) byl vydán ve verzi 0.10.0. Z novinek je vypíchnuta podpora GFX (Graphic Pipeline Extension). Nová větev řeší také několik bezpečnostních chyb.
Rocky Linux byl vydán v nové stabilní verzi 9.4. Přehled novinek v poznámkách k vydání.
Dellu byla odcizena databáze zákazníků (jméno, adresa, seznam zakoupených produktů) [Customer Care, Bleeping Computer].
V lednu byl otevřen editor kódů Zed od autorů editoru Atom a Tree-sitter. Tenkrát běžel pouze na macOS. Byl napevno svázán s Metalem. Situace se ale postupně mění. V aktuálním příspěvku Kdy Zed na Linuxu? na blogu Zedu vývojáři popisují aktuální stav. Blíží se alfa verze.
O víkendu 11. a 12. května lze navštívit Maker Faire Prague, festival plný workshopů, interaktivních činností a především nadšených a zvídavých lidí.
Byl vydán Fedora Asahi Remix 40, tj. linuxová distribuce pro Apple Silicon vycházející z Fedora Linuxu 40.
Představena byla služba Raspberry Pi Connect usnadňující vzdálený grafický přístup k vašim Raspberry Pi z webového prohlížeče. Odkudkoli. Zdarma. Zatím v beta verzi. Detaily v dokumentaci.
Byla vydána verze R14.1.2 desktopového prostředí Trinity Desktop Environment (TDE, fork KDE 3.5). Přehled novinek v poznámkách k vydání, podrobnosti v seznamu změn.
Dnešním dnem lze již také v Česku nakupovat na Google Store (telefony a sluchátka Google Pixel).
Tak to nahrazeni treba takto: sed "s/\($co\)/\1$pridat/" 2.txt sed 's/\(7806\)/\12/' soubor.txt Jedním příkazem se to dá napsat takhle ošklivě: awk '{print "sed \"s/\\("$2"\\)/\\1"$1"/\" 2.txt"}' 1.txt | sh testováno na: $ cat 1.txt 2 7806 $ cat 2.txt 0101.03.0714:24:080000007806073000000000000000000000 $ awk '{print "sed \"s/\\("$2"\\)/\\1"$1"/\" 2.txt"}' 1.txt | sh 0101.03.0714:24:0800000078062073000000000000000000000
asi cca 300 a to mi uz akosi neslo
$ cat vlozit #!/usr/bin/perl print("Pouziti: $0 soubor_se_seznamem_nahrad soubor_s_puvodnimi_daty\n"), exit unless @ARGV == 2; open NAHRADY, "<", "$ARGV[0]" or die "Nemuzu otevrit $ARGV[0]"; while(<NAHRADY>){ chomp; ($cim,$co)=split; $m{$co}=$cim; } close NAHRADY; open DATA, "<", "$ARGV[1]" or die "Nemuzu otevrit $ARGV[1]"; while($radek = <DATA>){ $radek=~s/$_/$_$m{$_}/g for keys %m; print $radek; } close DATA;Priklad:
$ vlozit 1.txt data.txt > vystup.txt
#!/usr/bin/env perl use strict; use warnings; my %m; while(<>){ chomp; my ($cim,$co) = split; $m{$co} = $cim; last if eof; } my $searchPat = join '|', map quotemeta, keys %m; while(<>){ s/($searchPat)/$m{$1}/geo; print $_; }
#!/usr/bin/env perl use strict; use warnings; undef $/; my %m = reverse split /\s/, <>; my $s = join "|", map quotemeta, keys %m; s/($s)/$1.$m{$1}/ge, print for <>;Uznavam, ze toto reseni je horsi tim, ze nacita cele soubory do pameti. Opravuje ale malou chybicku: v nahrazovaci casti musi byt $1.$m{$1} misto jednoducheho $m{$1}.
$_
v tom posledním printu je zbytečné, nebo jako oneliner:perl -pe 'BEGIN{while(<>){chomp;push@m,(split)[0,1];last if eof}%m=reverse@m;$s=join"|",map quotemeta,keys%m}s/($s)/$m{$1}/geo' nahrady soubor(y)Ještě kratší by bylo použít
s/$s/$m{$&}/geo
místo s/($s)/$m{$1}/geo
ale je to pomalejší viz BUGS in perlvar.
perl -0777 -pe 'BEGIN{%m=reverse split /\s/,<>;$s=join"|",map quotemeta,keys%m}s/($s)/$1.$m{$1}/ge'
perl -pe 'BEGIN{local $/;%m=reverse split /\s/,<>;$s=join"|",map quotemeta,keys%m}s/($s)/$1.$m{$1}/geo'
A ten regulár bych taky nekompiloval pořád dokola.V mem reseni ten regexp se kompiluje jenom jednou, protoze se aplikuje hned na cely soubor (ano, predpokladal jsem, ze ten soubor bude jenom jeden).
#!/usr/bin/env python nahrady = [] for line in file('1.txt'): a, b = line.split() nahrady.append((b, b + a)) for line in file('2.txt'): for num1, num2 in nahrady: new = line.replace(num1, num2) if new != line: print new.strip() breakNejprve si to z prvního souboru vytvoří seznam, co se má čím nahradit, např
[('7806', '78062'), ('7736', '77361'), ('3352', '33521')]A pak prochází druhý soubor a každý jeho řádek testuje, zda se v něm dá něco nahradit. Pokud ano, vypíše ho a ihned pokračuje ve zpracování dalšího řádku. Ale nevím, co se má stát, když se nic nahradit nepodaří, zda jsou náhrady vždy jednoznačné a jestli například nejsou čísla vždy na stejných pozicích - to by se pak dalo použít asociativní pole, které je zatraceně rychlé. Nemáš někde odkaz na oba soubory?
#!/usr/bin/env python import sys, sre def nahrady_gen (seq): for line in seq: a, b = line.split() yield (b, b + a) nahrady = dict(nahrady_gen(file(sys.argv[1]))) searcher = sre.compile('('+'|'.join(sre.escape(key) for key in nahrady.keys())+')') def linechanger (line): return searcher.sub(lambda match: nahrady[line[match.start():match.end()]], line) for filename in sys.argv[2:]: if filename == '-': f = sys.stdin else: f = file(filename) for line in f: print linechanger(line.strip())Na tom kódu je pěkne vidět co v šechno udělá perl za mě. Je fakt, že v pythonu moc neprogramuju (prakticky vůbec), tak se nějakej pythonysta předveďte. Jen bych chtěl, aby to mělo srovnatelný výkon (nebude se to celé načítat do paměti, regulár se bude kompilovat jen jednou, překlad přes dict a ne ta cyklická hrůza) a podobně konfortní (bude to pracovat s parametrama z příkazové řádky a bude to pracovat s víc než jedním souborem).
#!/usr/bin/env python import sys, sre def nahrady_gen (seq): for line in seq: a, b = line.split() yield (b, b + a) nahrady = dict(nahrady_gen(file(sys.argv[1]))) searcher = sre.compile('|'.join(sre.escape(key) for key in nahrady.keys())) translator = lambda match: nahrady[match.group()] for filename in sys.argv[2:]: if filename == '-': f = sys.stdin else: f = file(filename) for line in f: print searcher.sub(translator, line)
... tak se nějakej pythonysta předveďte. Jen bych chtěl, aby to mělo srovnatelný výkon (nebude se to celé načítat do paměti, regulár se bude kompilovat jen jednou, překlad přes dict a ne ta cyklická hrůza) a podobně konfortní (bude to pracovat s parametrama z příkazové řádky a bude to pracovat s víc než jedním souborem).Hm, možná se očekává, že budu nějak bojovat na obranu pythonu, když ho používám. Ale moc se mi nechce, jsi nějaký moc agresivní.
#!/usr/bin/env python import random def gen1txt(N): fw = file('1.txt', 'w') for i in range(N): a = random.randint(0, 9) b = random.randint(1000, 9999) fw.write('%d %d\n' %(a, b)) def gen2txt(N): fw = file('2.txt', 'w') for i in range(N): a = random.randint(1000, 9999) fw.write('%s%d%s\n' %('0'*20, a, '0'*20)) gen1txt(1000) gen2txt(10000)Ale znovu podotýkám - dokud se neozve původní autor dotazu a nevyjasní detaily, tak nemá cenu se dál bavit.
subor 1.txt ma v sebe 2 cisla
X XXXX
,X=je hodnota bud 1 2 alebo 3 ,XXXX je 4miestne cislo ,prezentuje to osobne cislo
subor 2.txt nesie v sebe log. z identifikacneho systemu ,kde je cas prihodu a ine ,zvyraznene cislo je to osobne cislo ,a co xcem urobit je, ze zo suboru 1.txt mam zoznam osobnych cisel a hodnutu, ktoru mam pridelit do suboru 2.txt za to zvyraznene cislo ,
PS ten log ma cez 50MB ,je to zaznam cca od 2005
#!/usr/bin/env python copridat = {} for line in file('1.txt'): hodnota, os_cislo = line.split() copridat[os_cislo] = hodnota zacatek, konec = 24, 28 # Jestlipak je tohle pravda ... for line in file('2.txt'): line = line.strip() os_cislo = line[zacatek:konec] hodnota = copridat[os_cislo] print line[:konec] + hodnota + line[konec:]Zkusil jsem tím zpracovat uměle vytvořený padesátimegový log, přičemž soubor 1.txt obsahoval 10000 položek, tedy všechna identifikační čísla se využila. Bylo to hotové za necelé čtyři sekundy, tak snad to bude stačit.
Tiskni Sdílej: