FFmpeg nechal kvůli porušení autorských práv odstranit z GitHubu jeden z repozitářů patřících čínské technologické firmě Rockchip. Důvodem bylo porušení LGPL ze strany Rockchipu. Rockchip byl FFmpegem na porušování LGPL upozorněn již téměř před dvěma roky.
K dispozici je nový CLI nástroj witr sloužící k analýze běžících procesů. Název je zkratkou slov why-is-this-running, 'proč tohle běží'. Klade si za cíl v 'jediném, lidsky čitelném, výstupu vysvětlit odkud daný spuštěný proces pochází, jak byl spuštěn a jaký řetězec systémů je zodpovědný za to, že tento proces právě teď běží'. Witr je napsán v jazyce Go.
Yazi je správce souborů běžící v terminálu. Napsán je v programovacím jazyce Rust. Podporuje asynchronní I/O operace. Vydán byl v nové verzi 25.12.29. Instalovat jej lze také ze Snapcraftu.
Od soboty do úterý probíhá v Hamburku konference 39C3 (Chaos Communication Congress) věnovaná také počítačové bezpečnosti nebo hardwaru. Program (jiná verze) slibuje řadu zajímavých přednášek. Streamy a záznamy budou k dispozici na media.ccc.de.
Byl představen nový Xserver Phoenix, kompletně od nuly vyvíjený v programovacím jazyce Zig. Projekt Phoenix si klade za cíl být moderní alternativou k X.Org serveru.
XLibre Xserver byl 21. prosince vydán ve verzi 25.1.0, 'winter solstice release'. Od založení tohoto forku X.Org serveru se jedná o vůbec první novou minor verzi (inkrementovalo se to druhé číslo v číselném kódu verze).
Wayback byl vydán ve verzi 0.3. Wayback je "tak akorát Waylandu, aby fungoval Xwayland". Jedná se o kompatibilní vrstvu umožňující běh plnohodnotných X11 desktopových prostředí s využitím komponent z Waylandu. Cílem je nakonec nahradit klasický server X.Org, a tím snížit zátěž údržby aplikací X11.
Byla vydána verze 4.0.0 programovacího jazyka Ruby (Wikipedie). S Ruby Box a ZJIT. Ruby lze vyzkoušet na webové stránce TryRuby. U příležitosti 30. narozenin, první veřejná verze Ruby 0.95 byla oznámena 21. prosince 1995, proběhl redesign webových stránek.
Všem čtenářkám a čtenářům AbcLinuxu krásné Vánoce.
Byla vydána nová verze 7.0 linuxové distribuce Parrot OS (Wikipedie). S kódovým názvem Echo. Jedná se o linuxovou distribuci založenou na Debianu a zaměřenou na penetrační testování, digitální forenzní analýzu, reverzní inženýrství, hacking, anonymitu nebo kryptografii. Přehled novinek v příspěvku na blogu.
Tak to nahrazeni treba takto:
sed "s/\($co\)/\1$pridat/" 2.txt
sed 's/\(7806\)/\12/' soubor.txt
Jedním příkazem se to dá napsat takhle ošklivě:
awk '{print "sed \"s/\\("$2"\\)/\\1"$1"/\" 2.txt"}' 1.txt | sh
testováno na:
$ cat 1.txt
2 7806
$ cat 2.txt
0101.03.0714:24:080000007806073000000000000000000000
$ awk '{print "sed \"s/\\("$2"\\)/\\1"$1"/\" 2.txt"}' 1.txt | sh
0101.03.0714:24:0800000078062073000000000000000000000
asi cca 300 a to mi uz akosi neslo
$ cat vlozit
#!/usr/bin/perl
print("Pouziti: $0 soubor_se_seznamem_nahrad soubor_s_puvodnimi_daty\n"), exit
unless @ARGV == 2;
open NAHRADY, "<", "$ARGV[0]" or die "Nemuzu otevrit $ARGV[0]";
while(<NAHRADY>){
chomp;
($cim,$co)=split;
$m{$co}=$cim;
}
close NAHRADY;
open DATA, "<", "$ARGV[1]" or die "Nemuzu otevrit $ARGV[1]";
while($radek = <DATA>){
$radek=~s/$_/$_$m{$_}/g for keys %m;
print $radek;
}
close DATA;
Priklad:
$ vlozit 1.txt data.txt > vystup.txt
#!/usr/bin/env perl
use strict;
use warnings;
my %m;
while(<>){
chomp;
my ($cim,$co) = split;
$m{$co} = $cim;
last if eof;
}
my $searchPat = join '|', map quotemeta, keys %m;
while(<>){
s/($searchPat)/$m{$1}/geo;
print $_;
}
#!/usr/bin/env perl
use strict;
use warnings;
undef $/;
my %m = reverse split /\s/, <>;
my $s = join "|", map quotemeta, keys %m;
s/($s)/$1.$m{$1}/ge, print for <>;
Uznavam, ze toto reseni je horsi tim, ze nacita cele soubory do pameti. Opravuje ale malou chybicku: v nahrazovaci casti musi byt $1.$m{$1} misto jednoducheho $m{$1}.
$_ v tom posledním printu je zbytečné, nebo jako oneliner:perl -pe 'BEGIN{while(<>){chomp;push@m,(split)[0,1];last if eof}%m=reverse@m;$s=join"|",map quotemeta,keys%m}s/($s)/$m{$1}/geo' nahrady soubor(y)Ještě kratší by bylo použít s/$s/$m{$&}/geo místo s/($s)/$m{$1}/geo ale je to pomalejší viz BUGS in perlvar.
perl -0777 -pe 'BEGIN{%m=reverse split /\s/,<>;$s=join"|",map quotemeta,keys%m}s/($s)/$1.$m{$1}/ge'
perl -pe 'BEGIN{local $/;%m=reverse split /\s/,<>;$s=join"|",map quotemeta,keys%m}s/($s)/$1.$m{$1}/geo'
A ten regulár bych taky nekompiloval pořád dokola.V mem reseni ten regexp se kompiluje jenom jednou, protoze se aplikuje hned na cely soubor (ano, predpokladal jsem, ze ten soubor bude jenom jeden).
#!/usr/bin/env python
nahrady = []
for line in file('1.txt'):
a, b = line.split()
nahrady.append((b, b + a))
for line in file('2.txt'):
for num1, num2 in nahrady:
new = line.replace(num1, num2)
if new != line:
print new.strip()
break
Nejprve si to z prvního souboru vytvoří seznam, co se má čím nahradit, např
[('7806', '78062'), ('7736', '77361'), ('3352', '33521')]
A pak prochází druhý soubor a každý jeho řádek testuje, zda se v něm dá něco nahradit. Pokud ano, vypíše ho a ihned pokračuje ve zpracování dalšího řádku. Ale nevím, co se má stát, když se nic nahradit nepodaří, zda jsou náhrady vždy jednoznačné a jestli například nejsou čísla vždy na stejných pozicích - to by se pak dalo použít asociativní pole, které je zatraceně rychlé. Nemáš někde odkaz na oba soubory?
#!/usr/bin/env python
import sys, sre
def nahrady_gen (seq):
for line in seq:
a, b = line.split()
yield (b, b + a)
nahrady = dict(nahrady_gen(file(sys.argv[1])))
searcher = sre.compile('('+'|'.join(sre.escape(key) for key in nahrady.keys())+')')
def linechanger (line):
return searcher.sub(lambda match: nahrady[line[match.start():match.end()]], line)
for filename in sys.argv[2:]:
if filename == '-':
f = sys.stdin
else:
f = file(filename)
for line in f:
print linechanger(line.strip())
Na tom kódu je pěkne vidět co v šechno udělá perl za mě. Je fakt, že v pythonu moc neprogramuju (prakticky vůbec), tak se nějakej pythonysta předveďte. Jen bych chtěl, aby to mělo srovnatelný výkon (nebude se to celé načítat do paměti, regulár se bude kompilovat jen jednou, překlad přes dict a ne ta cyklická hrůza) a podobně konfortní (bude to pracovat s parametrama z příkazové řádky a bude to pracovat s víc než jedním souborem).
#!/usr/bin/env python
import sys, sre
def nahrady_gen (seq):
for line in seq:
a, b = line.split()
yield (b, b + a)
nahrady = dict(nahrady_gen(file(sys.argv[1])))
searcher = sre.compile('|'.join(sre.escape(key) for key in nahrady.keys()))
translator = lambda match: nahrady[match.group()]
for filename in sys.argv[2:]:
if filename == '-':
f = sys.stdin
else:
f = file(filename)
for line in f:
print searcher.sub(translator, line)
... tak se nějakej pythonysta předveďte. Jen bych chtěl, aby to mělo srovnatelný výkon (nebude se to celé načítat do paměti, regulár se bude kompilovat jen jednou, překlad přes dict a ne ta cyklická hrůza) a podobně konfortní (bude to pracovat s parametrama z příkazové řádky a bude to pracovat s víc než jedním souborem).Hm, možná se očekává, že budu nějak bojovat na obranu pythonu, když ho používám. Ale moc se mi nechce, jsi nějaký moc agresivní.
#!/usr/bin/env python
import random
def gen1txt(N):
fw = file('1.txt', 'w')
for i in range(N):
a = random.randint(0, 9)
b = random.randint(1000, 9999)
fw.write('%d %d\n' %(a, b))
def gen2txt(N):
fw = file('2.txt', 'w')
for i in range(N):
a = random.randint(1000, 9999)
fw.write('%s%d%s\n' %('0'*20, a, '0'*20))
gen1txt(1000)
gen2txt(10000)
Ale znovu podotýkám - dokud se neozve původní autor dotazu a nevyjasní detaily, tak nemá cenu se dál bavit.
subor 1.txt ma v sebe 2 cisla
X XXXX
,X=je hodnota bud 1 2 alebo 3 ,XXXX je 4miestne cislo ,prezentuje to osobne cislo
subor 2.txt nesie v sebe log. z identifikacneho systemu ,kde je cas prihodu a ine ,zvyraznene cislo je to osobne cislo ,a co xcem urobit je, ze zo suboru 1.txt mam zoznam osobnych cisel a hodnutu, ktoru mam pridelit do suboru 2.txt za to zvyraznene cislo ,
PS ten log ma cez 50MB ,je to zaznam cca od 2005
#!/usr/bin/env python
copridat = {}
for line in file('1.txt'):
hodnota, os_cislo = line.split()
copridat[os_cislo] = hodnota
zacatek, konec = 24, 28 # Jestlipak je tohle pravda ...
for line in file('2.txt'):
line = line.strip()
os_cislo = line[zacatek:konec]
hodnota = copridat[os_cislo]
print line[:konec] + hodnota + line[konec:]
Zkusil jsem tím zpracovat uměle vytvořený padesátimegový log, přičemž soubor 1.txt obsahoval 10000 položek, tedy všechna identifikační čísla se využila. Bylo to hotové za necelé čtyři sekundy, tak snad to bude stačit.
Tiskni
Sdílej: