Microsoft zveřejnil na GitHubu zdrojové kódy MS-DOSu 4.0 pod licencí MIT. Ve stejném repozitáři se nacházejí i před lety zveřejněné zdrojové k kódy MS-DOSu 1.25 a 2.0.
Canonical vydal (email, blog, YouTube) Ubuntu 24.04 LTS Noble Numbat. Přehled novinek v poznámkách k vydání a také příspěvcích na blogu: novinky v desktopu a novinky v bezpečnosti. Vydány byly také oficiální deriváty Edubuntu, Kubuntu, Lubuntu, Ubuntu Budgie, Ubuntu Cinnamon, Ubuntu Kylin, Ubuntu MATE, Ubuntu Studio, Ubuntu Unity a Xubuntu. Jedná se o 10. LTS verzi.
Na YouTube je k dispozici videozáznam z včerejšího Czech Open Source Policy Forum 2024.
Fossil (Wikipedie) byl vydán ve verzi 2.24. Jedná se o distribuovaný systém správy verzí propojený se správou chyb, wiki stránek a blogů s integrovaným webovým rozhraním. Vše běží z jednoho jediného spustitelného souboru a uloženo je v SQLite databázi.
Byla vydána nová stabilní verze 6.7 webového prohlížeče Vivaldi (Wikipedie). Postavena je na Chromiu 124. Přehled novinek i s náhledy v příspěvku na blogu. Vypíchnout lze Spořič paměti (Memory Saver) automaticky hibernující karty, které nebyly nějakou dobu používány nebo vylepšené Odběry (Feed Reader).
OpenJS Foundation, oficiální projekt konsorcia Linux Foundation, oznámila vydání verze 22 otevřeného multiplatformního prostředí pro vývoj a běh síťových aplikací napsaných v JavaScriptu Node.js (Wikipedie). V říjnu se verze 22 stane novou aktivní LTS verzí. Podpora je plánována do dubna 2027.
Byla vydána verze 8.2 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a v informačním videu. Zdůrazněn je průvodce migrací hostů z VMware ESXi do Proxmoxu.
R (Wikipedie), programovací jazyk a prostředí určené pro statistickou analýzu dat a jejich grafické zobrazení, bylo vydáno ve verzi 4.4.0. Její kódové jméno je Puppy Cup.
IBM kupuje společnost HashiCorp (Terraform, Packer, Vault, Boundary, Consul, Nomad, Waypoint, Vagrant, …) za 6,4 miliardy dolarů, tj. 35 dolarů za akcii.
Byl vydán TrueNAS SCALE 24.04 “Dragonfish”. Přehled novinek této open source storage platformy postavené na Debianu v poznámkách k vydání.
Tak to nahrazeni treba takto: sed "s/\($co\)/\1$pridat/" 2.txt sed 's/\(7806\)/\12/' soubor.txt Jedním příkazem se to dá napsat takhle ošklivě: awk '{print "sed \"s/\\("$2"\\)/\\1"$1"/\" 2.txt"}' 1.txt | sh testováno na: $ cat 1.txt 2 7806 $ cat 2.txt 0101.03.0714:24:080000007806073000000000000000000000 $ awk '{print "sed \"s/\\("$2"\\)/\\1"$1"/\" 2.txt"}' 1.txt | sh 0101.03.0714:24:0800000078062073000000000000000000000
asi cca 300 a to mi uz akosi neslo
$ cat vlozit #!/usr/bin/perl print("Pouziti: $0 soubor_se_seznamem_nahrad soubor_s_puvodnimi_daty\n"), exit unless @ARGV == 2; open NAHRADY, "<", "$ARGV[0]" or die "Nemuzu otevrit $ARGV[0]"; while(<NAHRADY>){ chomp; ($cim,$co)=split; $m{$co}=$cim; } close NAHRADY; open DATA, "<", "$ARGV[1]" or die "Nemuzu otevrit $ARGV[1]"; while($radek = <DATA>){ $radek=~s/$_/$_$m{$_}/g for keys %m; print $radek; } close DATA;Priklad:
$ vlozit 1.txt data.txt > vystup.txt
#!/usr/bin/env perl use strict; use warnings; my %m; while(<>){ chomp; my ($cim,$co) = split; $m{$co} = $cim; last if eof; } my $searchPat = join '|', map quotemeta, keys %m; while(<>){ s/($searchPat)/$m{$1}/geo; print $_; }
#!/usr/bin/env perl use strict; use warnings; undef $/; my %m = reverse split /\s/, <>; my $s = join "|", map quotemeta, keys %m; s/($s)/$1.$m{$1}/ge, print for <>;Uznavam, ze toto reseni je horsi tim, ze nacita cele soubory do pameti. Opravuje ale malou chybicku: v nahrazovaci casti musi byt $1.$m{$1} misto jednoducheho $m{$1}.
$_
v tom posledním printu je zbytečné, nebo jako oneliner:perl -pe 'BEGIN{while(<>){chomp;push@m,(split)[0,1];last if eof}%m=reverse@m;$s=join"|",map quotemeta,keys%m}s/($s)/$m{$1}/geo' nahrady soubor(y)Ještě kratší by bylo použít
s/$s/$m{$&}/geo
místo s/($s)/$m{$1}/geo
ale je to pomalejší viz BUGS in perlvar.
perl -0777 -pe 'BEGIN{%m=reverse split /\s/,<>;$s=join"|",map quotemeta,keys%m}s/($s)/$1.$m{$1}/ge'
perl -pe 'BEGIN{local $/;%m=reverse split /\s/,<>;$s=join"|",map quotemeta,keys%m}s/($s)/$1.$m{$1}/geo'
A ten regulár bych taky nekompiloval pořád dokola.V mem reseni ten regexp se kompiluje jenom jednou, protoze se aplikuje hned na cely soubor (ano, predpokladal jsem, ze ten soubor bude jenom jeden).
#!/usr/bin/env python nahrady = [] for line in file('1.txt'): a, b = line.split() nahrady.append((b, b + a)) for line in file('2.txt'): for num1, num2 in nahrady: new = line.replace(num1, num2) if new != line: print new.strip() breakNejprve si to z prvního souboru vytvoří seznam, co se má čím nahradit, např
[('7806', '78062'), ('7736', '77361'), ('3352', '33521')]A pak prochází druhý soubor a každý jeho řádek testuje, zda se v něm dá něco nahradit. Pokud ano, vypíše ho a ihned pokračuje ve zpracování dalšího řádku. Ale nevím, co se má stát, když se nic nahradit nepodaří, zda jsou náhrady vždy jednoznačné a jestli například nejsou čísla vždy na stejných pozicích - to by se pak dalo použít asociativní pole, které je zatraceně rychlé. Nemáš někde odkaz na oba soubory?
#!/usr/bin/env python import sys, sre def nahrady_gen (seq): for line in seq: a, b = line.split() yield (b, b + a) nahrady = dict(nahrady_gen(file(sys.argv[1]))) searcher = sre.compile('('+'|'.join(sre.escape(key) for key in nahrady.keys())+')') def linechanger (line): return searcher.sub(lambda match: nahrady[line[match.start():match.end()]], line) for filename in sys.argv[2:]: if filename == '-': f = sys.stdin else: f = file(filename) for line in f: print linechanger(line.strip())Na tom kódu je pěkne vidět co v šechno udělá perl za mě. Je fakt, že v pythonu moc neprogramuju (prakticky vůbec), tak se nějakej pythonysta předveďte. Jen bych chtěl, aby to mělo srovnatelný výkon (nebude se to celé načítat do paměti, regulár se bude kompilovat jen jednou, překlad přes dict a ne ta cyklická hrůza) a podobně konfortní (bude to pracovat s parametrama z příkazové řádky a bude to pracovat s víc než jedním souborem).
#!/usr/bin/env python import sys, sre def nahrady_gen (seq): for line in seq: a, b = line.split() yield (b, b + a) nahrady = dict(nahrady_gen(file(sys.argv[1]))) searcher = sre.compile('|'.join(sre.escape(key) for key in nahrady.keys())) translator = lambda match: nahrady[match.group()] for filename in sys.argv[2:]: if filename == '-': f = sys.stdin else: f = file(filename) for line in f: print searcher.sub(translator, line)
... tak se nějakej pythonysta předveďte. Jen bych chtěl, aby to mělo srovnatelný výkon (nebude se to celé načítat do paměti, regulár se bude kompilovat jen jednou, překlad přes dict a ne ta cyklická hrůza) a podobně konfortní (bude to pracovat s parametrama z příkazové řádky a bude to pracovat s víc než jedním souborem).Hm, možná se očekává, že budu nějak bojovat na obranu pythonu, když ho používám. Ale moc se mi nechce, jsi nějaký moc agresivní.
#!/usr/bin/env python import random def gen1txt(N): fw = file('1.txt', 'w') for i in range(N): a = random.randint(0, 9) b = random.randint(1000, 9999) fw.write('%d %d\n' %(a, b)) def gen2txt(N): fw = file('2.txt', 'w') for i in range(N): a = random.randint(1000, 9999) fw.write('%s%d%s\n' %('0'*20, a, '0'*20)) gen1txt(1000) gen2txt(10000)Ale znovu podotýkám - dokud se neozve původní autor dotazu a nevyjasní detaily, tak nemá cenu se dál bavit.
subor 1.txt ma v sebe 2 cisla
X XXXX
,X=je hodnota bud 1 2 alebo 3 ,XXXX je 4miestne cislo ,prezentuje to osobne cislo
subor 2.txt nesie v sebe log. z identifikacneho systemu ,kde je cas prihodu a ine ,zvyraznene cislo je to osobne cislo ,a co xcem urobit je, ze zo suboru 1.txt mam zoznam osobnych cisel a hodnutu, ktoru mam pridelit do suboru 2.txt za to zvyraznene cislo ,
PS ten log ma cez 50MB ,je to zaznam cca od 2005
#!/usr/bin/env python copridat = {} for line in file('1.txt'): hodnota, os_cislo = line.split() copridat[os_cislo] = hodnota zacatek, konec = 24, 28 # Jestlipak je tohle pravda ... for line in file('2.txt'): line = line.strip() os_cislo = line[zacatek:konec] hodnota = copridat[os_cislo] print line[:konec] + hodnota + line[konec:]Zkusil jsem tím zpracovat uměle vytvořený padesátimegový log, přičemž soubor 1.txt obsahoval 10000 položek, tedy všechna identifikační čísla se využila. Bylo to hotové za necelé čtyři sekundy, tak snad to bude stačit.
Tiskni Sdílej: