Byl publikován aktuální přehled vývoje renderovacího jádra webového prohlížeče Servo (Wikipedie).
V programovacím jazyce Go naprogramovaná webová aplikace pro spolupráci na zdrojových kódech pomocí gitu Forgejo byla vydána ve verzi 12.0 (Mastodon). Forgejo je fork Gitei.
Nová čísla časopisů od nakladatelství Raspberry Pi zdarma ke čtení: Raspberry Pi Official Magazine 155 (pdf) a Hello World 27 (pdf).
Hyprland, tj. kompozitor pro Wayland zaměřený na dláždění okny a zároveň grafické efekty, byl vydán ve verzi 0.50.0. Podrobný přehled novinek na GitHubu.
Patrick Volkerding oznámil před dvaatřiceti lety vydání Slackware Linuxu 1.00. Slackware Linux byl tenkrát k dispozici na 3,5 palcových disketách. Základní systém byl na 13 disketách. Kdo chtěl grafiku, potřeboval dalších 11 disket. Slackware Linux 1.00 byl postaven na Linuxu .99pl11 Alpha, libc 4.4.1, g++ 2.4.5 a XFree86 1.3.
Ministerstvo pro místní rozvoj (MMR) jako první orgán státní správy v Česku spustilo takzvaný „bug bounty“ program pro odhalování bezpečnostních rizik a zranitelných míst ve svých informačních systémech. Za nalezení kritické zranitelnosti nabízí veřejnosti odměnu 1000 eur, v případě vysoké závažnosti je to 500 eur. Program se inspiruje přístupy běžnými v komerčním sektoru nebo ve veřejné sféře v zahraničí.
Vláda dne 16. července 2025 schválila návrh nového jednotného vizuálního stylu státní správy. Vytvořilo jej na základě veřejné soutěže studio Najbrt. Náklady na přípravu návrhu a metodiky činily tři miliony korun. Modernizovaný dvouocasý lev vychází z malého státního znaku. Vizuální styl doprovází originální písmo Czechia Sans.
Vyhledávač DuckDuckGo je podle webu DownDetector od 2:15 SELČ nedostupný. Opět fungovat začal na několik minut zhruba v 15:15. Další služby nesouvisející přímo s vyhledáváním, jako mapy a AI asistent jsou dostupné. Pro některé dotazy během výpadku stále funguje zobrazování například textu z Wikipedie.
Více než 600 aplikací postavených na PHP frameworku Laravel je zranitelných vůči vzdálenému spuštění libovolného kódu. Útočníci mohou zneužít veřejně uniklé konfigurační klíče APP_KEY (např. z GitHubu). Z více než 260 000 APP_KEY získaných z GitHubu bylo ověřeno, že přes 600 aplikací je zranitelných. Zhruba 63 % úniků pochází z .env souborů, které často obsahují i další citlivé údaje (např. přístupové údaje k databázím nebo cloudovým službám).
Open source modální textový editor Helix, inspirovaný editory Vim, Neovim či Kakoune, byl vydán ve verzi 25.07. Přehled novinek se záznamy terminálových sezení v asciinema v oznámení na webu. Detailně v CHANGELOGu na GitHubu.
Tak to nahrazeni treba takto: sed "s/\($co\)/\1$pridat/" 2.txt sed 's/\(7806\)/\12/' soubor.txt Jedním příkazem se to dá napsat takhle ošklivě: awk '{print "sed \"s/\\("$2"\\)/\\1"$1"/\" 2.txt"}' 1.txt | sh testováno na: $ cat 1.txt 2 7806 $ cat 2.txt 0101.03.0714:24:080000007806073000000000000000000000 $ awk '{print "sed \"s/\\("$2"\\)/\\1"$1"/\" 2.txt"}' 1.txt | sh 0101.03.0714:24:0800000078062073000000000000000000000
asi cca 300 a to mi uz akosi neslo
$ cat vlozit #!/usr/bin/perl print("Pouziti: $0 soubor_se_seznamem_nahrad soubor_s_puvodnimi_daty\n"), exit unless @ARGV == 2; open NAHRADY, "<", "$ARGV[0]" or die "Nemuzu otevrit $ARGV[0]"; while(<NAHRADY>){ chomp; ($cim,$co)=split; $m{$co}=$cim; } close NAHRADY; open DATA, "<", "$ARGV[1]" or die "Nemuzu otevrit $ARGV[1]"; while($radek = <DATA>){ $radek=~s/$_/$_$m{$_}/g for keys %m; print $radek; } close DATA;Priklad:
$ vlozit 1.txt data.txt > vystup.txt
#!/usr/bin/env perl use strict; use warnings; my %m; while(<>){ chomp; my ($cim,$co) = split; $m{$co} = $cim; last if eof; } my $searchPat = join '|', map quotemeta, keys %m; while(<>){ s/($searchPat)/$m{$1}/geo; print $_; }
#!/usr/bin/env perl use strict; use warnings; undef $/; my %m = reverse split /\s/, <>; my $s = join "|", map quotemeta, keys %m; s/($s)/$1.$m{$1}/ge, print for <>;Uznavam, ze toto reseni je horsi tim, ze nacita cele soubory do pameti. Opravuje ale malou chybicku: v nahrazovaci casti musi byt $1.$m{$1} misto jednoducheho $m{$1}.
$_
v tom posledním printu je zbytečné, nebo jako oneliner:perl -pe 'BEGIN{while(<>){chomp;push@m,(split)[0,1];last if eof}%m=reverse@m;$s=join"|",map quotemeta,keys%m}s/($s)/$m{$1}/geo' nahrady soubor(y)Ještě kratší by bylo použít
s/$s/$m{$&}/geo
místo s/($s)/$m{$1}/geo
ale je to pomalejší viz BUGS in perlvar.
perl -0777 -pe 'BEGIN{%m=reverse split /\s/,<>;$s=join"|",map quotemeta,keys%m}s/($s)/$1.$m{$1}/ge'
perl -pe 'BEGIN{local $/;%m=reverse split /\s/,<>;$s=join"|",map quotemeta,keys%m}s/($s)/$1.$m{$1}/geo'
A ten regulár bych taky nekompiloval pořád dokola.V mem reseni ten regexp se kompiluje jenom jednou, protoze se aplikuje hned na cely soubor (ano, predpokladal jsem, ze ten soubor bude jenom jeden).
#!/usr/bin/env python nahrady = [] for line in file('1.txt'): a, b = line.split() nahrady.append((b, b + a)) for line in file('2.txt'): for num1, num2 in nahrady: new = line.replace(num1, num2) if new != line: print new.strip() breakNejprve si to z prvního souboru vytvoří seznam, co se má čím nahradit, např
[('7806', '78062'), ('7736', '77361'), ('3352', '33521')]A pak prochází druhý soubor a každý jeho řádek testuje, zda se v něm dá něco nahradit. Pokud ano, vypíše ho a ihned pokračuje ve zpracování dalšího řádku. Ale nevím, co se má stát, když se nic nahradit nepodaří, zda jsou náhrady vždy jednoznačné a jestli například nejsou čísla vždy na stejných pozicích - to by se pak dalo použít asociativní pole, které je zatraceně rychlé. Nemáš někde odkaz na oba soubory?
#!/usr/bin/env python import sys, sre def nahrady_gen (seq): for line in seq: a, b = line.split() yield (b, b + a) nahrady = dict(nahrady_gen(file(sys.argv[1]))) searcher = sre.compile('('+'|'.join(sre.escape(key) for key in nahrady.keys())+')') def linechanger (line): return searcher.sub(lambda match: nahrady[line[match.start():match.end()]], line) for filename in sys.argv[2:]: if filename == '-': f = sys.stdin else: f = file(filename) for line in f: print linechanger(line.strip())Na tom kódu je pěkne vidět co v šechno udělá perl za mě. Je fakt, že v pythonu moc neprogramuju (prakticky vůbec), tak se nějakej pythonysta předveďte. Jen bych chtěl, aby to mělo srovnatelný výkon (nebude se to celé načítat do paměti, regulár se bude kompilovat jen jednou, překlad přes dict a ne ta cyklická hrůza) a podobně konfortní (bude to pracovat s parametrama z příkazové řádky a bude to pracovat s víc než jedním souborem).
#!/usr/bin/env python import sys, sre def nahrady_gen (seq): for line in seq: a, b = line.split() yield (b, b + a) nahrady = dict(nahrady_gen(file(sys.argv[1]))) searcher = sre.compile('|'.join(sre.escape(key) for key in nahrady.keys())) translator = lambda match: nahrady[match.group()] for filename in sys.argv[2:]: if filename == '-': f = sys.stdin else: f = file(filename) for line in f: print searcher.sub(translator, line)
... tak se nějakej pythonysta předveďte. Jen bych chtěl, aby to mělo srovnatelný výkon (nebude se to celé načítat do paměti, regulár se bude kompilovat jen jednou, překlad přes dict a ne ta cyklická hrůza) a podobně konfortní (bude to pracovat s parametrama z příkazové řádky a bude to pracovat s víc než jedním souborem).Hm, možná se očekává, že budu nějak bojovat na obranu pythonu, když ho používám. Ale moc se mi nechce, jsi nějaký moc agresivní.
#!/usr/bin/env python import random def gen1txt(N): fw = file('1.txt', 'w') for i in range(N): a = random.randint(0, 9) b = random.randint(1000, 9999) fw.write('%d %d\n' %(a, b)) def gen2txt(N): fw = file('2.txt', 'w') for i in range(N): a = random.randint(1000, 9999) fw.write('%s%d%s\n' %('0'*20, a, '0'*20)) gen1txt(1000) gen2txt(10000)Ale znovu podotýkám - dokud se neozve původní autor dotazu a nevyjasní detaily, tak nemá cenu se dál bavit.
subor 1.txt ma v sebe 2 cisla
X XXXX
,X=je hodnota bud 1 2 alebo 3 ,XXXX je 4miestne cislo ,prezentuje to osobne cislo
subor 2.txt nesie v sebe log. z identifikacneho systemu ,kde je cas prihodu a ine ,zvyraznene cislo je to osobne cislo ,a co xcem urobit je, ze zo suboru 1.txt mam zoznam osobnych cisel a hodnutu, ktoru mam pridelit do suboru 2.txt za to zvyraznene cislo ,
PS ten log ma cez 50MB ,je to zaznam cca od 2005
#!/usr/bin/env python copridat = {} for line in file('1.txt'): hodnota, os_cislo = line.split() copridat[os_cislo] = hodnota zacatek, konec = 24, 28 # Jestlipak je tohle pravda ... for line in file('2.txt'): line = line.strip() os_cislo = line[zacatek:konec] hodnota = copridat[os_cislo] print line[:konec] + hodnota + line[konec:]Zkusil jsem tím zpracovat uměle vytvořený padesátimegový log, přičemž soubor 1.txt obsahoval 10000 položek, tedy všechna identifikační čísla se využila. Bylo to hotové za necelé čtyři sekundy, tak snad to bude stačit.
Tiskni
Sdílej: