Byla vydána (𝕏) nová verze 24.7 open source firewallové a routovací platformy OPNsense (Wikipedie). Jedná se o fork pfSense postavený na FreeBSD. Kódový název OPNsense 24.7 je Thriving Tiger. Přehled novinek v příspěvku na fóru.
Binarly REsearch upozorňuje na bezpečnostní problém PKFail (YouTube) v ekosystému UEFI. Stovky modelů zařízení používají pro Secure Boot testovací Platform Key vygenerovaný American Megatrends International (AMI) a jeho privátní část byla při úniku dat prozrazena. Do milionů zařízení (seznam v pdf) po celém světě tak útočníci mohou do Secure Bootu vložit podepsaný malware. Otestovat firmware si lze na stránce pk.fail. Ukázka PoC na Linuxu na Windows na YouTube.
Mobilní operační systém /e/OS (Wikipedie) založený na Androidu / LineageOS, ale bez aplikací a služeb od Googlu, byl vydán ve verzi 2.2 (Mastodon, 𝕏). Přehled novinek na GitLabu. Vypíchnuta je rodičovská kontrola.
Společnost OpenAI představila vyhledávač SearchGPT propojující OpenAI modely umělé inteligence a informace z webů v reálném čase. Zatím jako prototyp pro vybrané uživatele. Zapsat se lze do pořadníku čekatelů.
Distribuce Linux Mint 22 „Wilma“ byla vydána. Je založená na Ubuntu 24.04 LTS, ale s desktopovým prostředím Cinnamon (aktuálně verze 6.2), příp. MATE nebo Xfce, balíkem aplikací XApp, integrací balíčků Flatpak a dalšími změnami. Více v přehledu novinek a poznámkách k vydání.
Příspěvek na blogu Truffle Security: Kdokoli může přistupovat ke smazaným a privátním repozitářům na GitHubu.
Byla vydána nová verze 14 integrovaného vývojového prostředí (IDE) Qt Creator. Podrobný přehled novinek v cgitu. Vypíchnout lze podporu rozšíření v Lua.
Byla vydána verze 1.80.0 programovacího jazyka Rust (Wikipedie). Podrobnosti v poznámkách k vydání. Vyzkoušet Rust lze například na stránce Rust by Example.
Apple oznámil, že v beta verzi spustil své Apple Maps na webu. Podporován je také webový prohlížeč Chrome. Ne však na Linuxu.
Portál Stack Overflow po roce opět vyzpovídal své uživatele, jedná se především o vývojáře softwaru, a zveřejnil detailní výsledky průzkumu. Průzkumu se letos zúčastnilo více než 65 tisíc vývojářů. Z Česka jich bylo 710. Ze Slovenska 246.
Tak to nahrazeni treba takto: sed "s/\($co\)/\1$pridat/" 2.txt sed 's/\(7806\)/\12/' soubor.txt Jedním příkazem se to dá napsat takhle ošklivě: awk '{print "sed \"s/\\("$2"\\)/\\1"$1"/\" 2.txt"}' 1.txt | sh testováno na: $ cat 1.txt 2 7806 $ cat 2.txt 0101.03.0714:24:080000007806073000000000000000000000 $ awk '{print "sed \"s/\\("$2"\\)/\\1"$1"/\" 2.txt"}' 1.txt | sh 0101.03.0714:24:0800000078062073000000000000000000000
asi cca 300 a to mi uz akosi neslo
$ cat vlozit #!/usr/bin/perl print("Pouziti: $0 soubor_se_seznamem_nahrad soubor_s_puvodnimi_daty\n"), exit unless @ARGV == 2; open NAHRADY, "<", "$ARGV[0]" or die "Nemuzu otevrit $ARGV[0]"; while(<NAHRADY>){ chomp; ($cim,$co)=split; $m{$co}=$cim; } close NAHRADY; open DATA, "<", "$ARGV[1]" or die "Nemuzu otevrit $ARGV[1]"; while($radek = <DATA>){ $radek=~s/$_/$_$m{$_}/g for keys %m; print $radek; } close DATA;Priklad:
$ vlozit 1.txt data.txt > vystup.txt
#!/usr/bin/env perl use strict; use warnings; my %m; while(<>){ chomp; my ($cim,$co) = split; $m{$co} = $cim; last if eof; } my $searchPat = join '|', map quotemeta, keys %m; while(<>){ s/($searchPat)/$m{$1}/geo; print $_; }
#!/usr/bin/env perl use strict; use warnings; undef $/; my %m = reverse split /\s/, <>; my $s = join "|", map quotemeta, keys %m; s/($s)/$1.$m{$1}/ge, print for <>;Uznavam, ze toto reseni je horsi tim, ze nacita cele soubory do pameti. Opravuje ale malou chybicku: v nahrazovaci casti musi byt $1.$m{$1} misto jednoducheho $m{$1}.
$_
v tom posledním printu je zbytečné, nebo jako oneliner:perl -pe 'BEGIN{while(<>){chomp;push@m,(split)[0,1];last if eof}%m=reverse@m;$s=join"|",map quotemeta,keys%m}s/($s)/$m{$1}/geo' nahrady soubor(y)Ještě kratší by bylo použít
s/$s/$m{$&}/geo
místo s/($s)/$m{$1}/geo
ale je to pomalejší viz BUGS in perlvar.
perl -0777 -pe 'BEGIN{%m=reverse split /\s/,<>;$s=join"|",map quotemeta,keys%m}s/($s)/$1.$m{$1}/ge'
perl -pe 'BEGIN{local $/;%m=reverse split /\s/,<>;$s=join"|",map quotemeta,keys%m}s/($s)/$1.$m{$1}/geo'
A ten regulár bych taky nekompiloval pořád dokola.V mem reseni ten regexp se kompiluje jenom jednou, protoze se aplikuje hned na cely soubor (ano, predpokladal jsem, ze ten soubor bude jenom jeden).
#!/usr/bin/env python nahrady = [] for line in file('1.txt'): a, b = line.split() nahrady.append((b, b + a)) for line in file('2.txt'): for num1, num2 in nahrady: new = line.replace(num1, num2) if new != line: print new.strip() breakNejprve si to z prvního souboru vytvoří seznam, co se má čím nahradit, např
[('7806', '78062'), ('7736', '77361'), ('3352', '33521')]A pak prochází druhý soubor a každý jeho řádek testuje, zda se v něm dá něco nahradit. Pokud ano, vypíše ho a ihned pokračuje ve zpracování dalšího řádku. Ale nevím, co se má stát, když se nic nahradit nepodaří, zda jsou náhrady vždy jednoznačné a jestli například nejsou čísla vždy na stejných pozicích - to by se pak dalo použít asociativní pole, které je zatraceně rychlé. Nemáš někde odkaz na oba soubory?
#!/usr/bin/env python import sys, sre def nahrady_gen (seq): for line in seq: a, b = line.split() yield (b, b + a) nahrady = dict(nahrady_gen(file(sys.argv[1]))) searcher = sre.compile('('+'|'.join(sre.escape(key) for key in nahrady.keys())+')') def linechanger (line): return searcher.sub(lambda match: nahrady[line[match.start():match.end()]], line) for filename in sys.argv[2:]: if filename == '-': f = sys.stdin else: f = file(filename) for line in f: print linechanger(line.strip())Na tom kódu je pěkne vidět co v šechno udělá perl za mě. Je fakt, že v pythonu moc neprogramuju (prakticky vůbec), tak se nějakej pythonysta předveďte. Jen bych chtěl, aby to mělo srovnatelný výkon (nebude se to celé načítat do paměti, regulár se bude kompilovat jen jednou, překlad přes dict a ne ta cyklická hrůza) a podobně konfortní (bude to pracovat s parametrama z příkazové řádky a bude to pracovat s víc než jedním souborem).
#!/usr/bin/env python import sys, sre def nahrady_gen (seq): for line in seq: a, b = line.split() yield (b, b + a) nahrady = dict(nahrady_gen(file(sys.argv[1]))) searcher = sre.compile('|'.join(sre.escape(key) for key in nahrady.keys())) translator = lambda match: nahrady[match.group()] for filename in sys.argv[2:]: if filename == '-': f = sys.stdin else: f = file(filename) for line in f: print searcher.sub(translator, line)
... tak se nějakej pythonysta předveďte. Jen bych chtěl, aby to mělo srovnatelný výkon (nebude se to celé načítat do paměti, regulár se bude kompilovat jen jednou, překlad přes dict a ne ta cyklická hrůza) a podobně konfortní (bude to pracovat s parametrama z příkazové řádky a bude to pracovat s víc než jedním souborem).Hm, možná se očekává, že budu nějak bojovat na obranu pythonu, když ho používám. Ale moc se mi nechce, jsi nějaký moc agresivní.
#!/usr/bin/env python import random def gen1txt(N): fw = file('1.txt', 'w') for i in range(N): a = random.randint(0, 9) b = random.randint(1000, 9999) fw.write('%d %d\n' %(a, b)) def gen2txt(N): fw = file('2.txt', 'w') for i in range(N): a = random.randint(1000, 9999) fw.write('%s%d%s\n' %('0'*20, a, '0'*20)) gen1txt(1000) gen2txt(10000)Ale znovu podotýkám - dokud se neozve původní autor dotazu a nevyjasní detaily, tak nemá cenu se dál bavit.
subor 1.txt ma v sebe 2 cisla
X XXXX
,X=je hodnota bud 1 2 alebo 3 ,XXXX je 4miestne cislo ,prezentuje to osobne cislo
subor 2.txt nesie v sebe log. z identifikacneho systemu ,kde je cas prihodu a ine ,zvyraznene cislo je to osobne cislo ,a co xcem urobit je, ze zo suboru 1.txt mam zoznam osobnych cisel a hodnutu, ktoru mam pridelit do suboru 2.txt za to zvyraznene cislo ,
PS ten log ma cez 50MB ,je to zaznam cca od 2005
#!/usr/bin/env python copridat = {} for line in file('1.txt'): hodnota, os_cislo = line.split() copridat[os_cislo] = hodnota zacatek, konec = 24, 28 # Jestlipak je tohle pravda ... for line in file('2.txt'): line = line.strip() os_cislo = line[zacatek:konec] hodnota = copridat[os_cislo] print line[:konec] + hodnota + line[konec:]Zkusil jsem tím zpracovat uměle vytvořený padesátimegový log, přičemž soubor 1.txt obsahoval 10000 položek, tedy všechna identifikační čísla se využila. Bylo to hotové za necelé čtyři sekundy, tak snad to bude stačit.
Tiskni
Sdílej: