Na čem pracují vývojáři webového prohlížeče Ladybird (GitHub)? Byl publikován přehled vývoje za duben (YouTube). Na Linuxu je vedle Qt frontendu nově k dispozici také GTK4 / libadwaita frontend.
Neziskové průmyslové konsorcium Khronos Group vydalo verzi 3.1 specifikace OpenCL (Open Computing Language). OpenCL je průmyslový standard pro paralelní programování heterogenních počítačových systémů.
Homebridge pro integraci chytrých domácích zařízení byl vydán ve verzi 2.0.0. Nově vedle protokolu HomeKit Accessory Protocol (HAP) podporuje standard chytré domácnosti Matter.
Omarchy je linuxová distribuce s dlaždicovým správcem oken Hyprland. Založena je na Arch Linuxu. Vydána byla v nové verzi 3.7.0 - The Gaming Edition. Z novinek lze vypíchnout příkaz omarchy a celou řadu herních možností.
CyberChef byl vydán v nové major verzi 11. Přehled novinek v Changelogu. CyberChef je webová aplikace pro analýzu dat a jejich kódování a dekódování, šifrování a dešifrování, kompresi a dekompresi, atd. Často je využívaná při kybernetických cvičeních a CTF (Capture the Flag).
Byla vydána nová verze 2.4.67 svobodného multiplatformního webového serveru Apache (httpd). Řešeno je mimo jiné 11 zranitelností.
Brush (Bo(u)rn(e) RUsty SHell) je v Rustu napsaný shell kompatibilní s Bash (Bourne Again SHell). Vydána byla verze 0.4.0.
Google zveřejnil seznam 1 141 projektů (vývojářů) od 184 organizací přijatých do letošního, již dvaadvacátého, Google Summer of Code. Přihlášeno bylo celkově 23 371 projektů od 15 245 vývojářů ze 131 zemí.
Na čem pracovali vývojáři GNOME a KDE Plasma minulý týden? Pravidelný přehled novinek v Týden v GNOME a Týden v KDE Plasma.
Open source počítačová hra na hrdiny NetHack (Wikipedie, GitHub) byla vydána v nové verzi 5.0.0. První verze této hry byla vydána v roce 1987.
#define NAZEV "vstup.txt"
#define TYP "r"
#define NAZEV2 "help"
#define TYP2 "a+"
#define MIN_INT -1000000000
#define MAX_INT 1000000000
/*--------------------------------------------------------------------------------------------------*/
FILE *s;
FILE *pomocnySoubor;
int n;
int poleCisel[100001];
/*------------------------------------------------------------------------------------------------*/
void nactiVstup(){
s = fopen(NAZEV, TYP);
fscanf(s, "%d\n", &n);
int i;
for(i=0; i < n;i++){
fscanf(s, "%d\n", &poleCisel[i]);
}
puts("nascanoval sem ze souboru");
fclose(s);
}
/* Druha metoda ------------------------------------------------------------------------------ */
void najdiVyskyt(){
pomocnySoubor = fopen(NAZEV2, TYP2);
int i,j,tmp=0;
int vysledek;
int aktualni_cislo;
puts("zacinam tridit");
for(j=MIN_INT; j < MAX_INT; j++){
vysledek=0;
aktualni_cislo =j;
if(j == MIN_INT/2){
puts("jsem v pulce");
}
if(j == MIN_INT/4){
puts("jsem ve ctvrtine");
}
if(j == MIN_INT/1000){
puts("jsem v jedne tisicine");
}
for(i=0; i < n; i++){
if(poleCisel[i] == aktualni_cislo){
vysledek++;
}
}
if(vysledek > 0){
fprintf(pomocnySoubor, "%d %d\n", aktualni_cislo, vysledek);
printf("%d %d\n", aktualni_cislo, vysledek);
}
}
printf("dotridil sem\n");
fclose(pomocnySoubor);
}
/*Hlavni funkce ------------------------------------------------------------------------------------- */
int main(void){
nactiVstup();
najdiVyskyt();
printf("\n");
return EXIT_SUCCESS;
}
btw. mozna tam jsou nejake nepouzite promenne. Kdyz sem to poprve napsal, tak to nefungovalo a tak jsem to komplet prepisoval. >> proto tam jsou mozna nejake prebytecne.
Řešení dotazu:
puts("zacinam tridit");
for(j=MIN_INT; j < MAX_INT; j++){
vysledek=0;
aktualni_cislo =j;
if(j == MIN_INT/2){
puts("jsem v pulce");
}
if(j == MIN_INT/4){
puts("jsem ve ctvrtine");
}
if(j == MIN_INT/1000){
puts("jsem v jedne tisicine");
}
for(i=0; i < n; i++){
if(poleCisel[i] == aktualni_cislo){
vysledek++;
}
}
}
Pro každé číslo z <-1G; +1G> to projde všechna zadaná čísla. Pro 100k čísel to tedy udělá 2G*100k = 200T operací. Je zázrak, že to za ty hodiny vůbec projde. Složitost algoritmu je, řekněme, n^2 (pokud by pro zjednodušení ten rozsah byl závislý na n - teď je to lineární, ale s brutální multiplikativní konstantou :).
Hint: Nebylo by lepší zadaná čísla napřed setřídit (to běží v n log n) a pak to setříděné pole projít sekvenčně?
Hint: Nebylo by lepší zadaná čísla napřed setřídit (to běží v n log n) a pak to setříděné pole projít sekvenčně?Anebo rovnou při řazení pomocí merge sortu slučovat (a počítat výskyty) stejná čísla, tím to celé proběhne v n log n.
hashmapa na integery? Really?Jasnačka že really. Integer je sám svým hashem (viz g_direct_hash), ale princip ukládání do tabulky je stejný. Pro ukázkový příklad to přece nebudu kódit zvlášť. Navíc se nestarám, jak přesně řešit velikost tabulky a její případný růst, když to udělá GHashTable sama...
qsort pro tohle není moc nevhodný, protože to musíte nejdřív seřadit a až potom počítat. Doporučuji merge sort a počítat výskyty rovnou při mergování. IMO to bude i o dost rychlejší než mapa, za cenu vyšší spotřeby paměti.Jelikož každý sort má ten log(N) faktor, přijde mi toto porovnávání sortů jako poněkud plané teoretizování. Z praktického hlediska: qsort() je jedno volání funkce ze standardní libc. Plus potřebuješ funcki která porovná dva integery. Tečka.
Integer je sám svým hashem (viz g_direct_hash), ale princip ukládání do tabulky je stejný. Pro ukázkový příklad to přece nebudu kódit zvlášť. Navíc se nestarám, jak přesně řešit velikost tabulky a její případný růst, když to udělá GHashTable sama...Hashmapa slouží pro případy, kdy klíč má složité porovnání (např. string), potom je totiž mnohem rychlejší porovnávat hashe a plné porovnávání použít jen pro těch pár případů kolizí. Jenže to trpí mnoha problémy, mj. hash collision vede až k O(n). I proto se integer jako svůj vlastní hash většinou nepoužívá, ale počítá se nějaký odolnější hash, což zase stojí výkon. Navíc se hash mapa musí při velkém množství položek často rebalancovat, což stojí hodně výkonu Pro klíče s jednoduchým porovnáním je výrazně rychlejší nějaký binární (či n-ární, pokud se chcete přiblížit O(1)) strom.
Jelikož každý sort má ten log(N) faktor, přijde mi toto porovnávání sortů jako poněkud plané teoretizování.Quick sort má average O(n log n), ale worst case O(n²). merge sort má O(n log n) obojí, stojí pouze víc paměti. Navíc u toho merge sortu se díky mergování duplicit dostanu na ještě lepší výkon, protože v průběhu výpočtu klesá počet položek. A ještě navíc vypočítám výsledky rovnou během toho řazení.
fopen, scanf, scanf ve for, qsort a při zobrazení jen vypisovat při změně počet, jinak ++, odpovídá zadání, je to mnohem kratší, stojí to méně paměti, je to napsané za 10min i s ošetřením, a je to pomalejší o nějaké jednotky msec na čase, kde 80 % zabírá výstup a 19.9 % vstup (% střelená od pasu). Myslím si, že cokoliv jiného (včetně hashmapy) je dost overkill.
#!/usr/bin/perl
use 5.010;
use warnings;
use strict;
our $VERSION = 0.001;
my %hesla;
while (<>) {
chomp;
$hesla{$_}++;
}
while ( my ( $heslo, $pocet ) = each %hesla ) {
say $heslo, q{ }, $pocet;
}
(100000 položek v pohodě zvládá)
void najdiVyskyt(){
pomocnySoubor = fopen(NAZEV2, TYP2);
int *poleCisel_tmp;
int *poleCisel_max = poleCisel + sizeof(poleCisel);
int *vysledky = (int *) malloc((MIN_INT+MAX_INT+1) * sizeof(int) + 1);
vysledky = vysledky + MIN_INT;
// puts("zacinam tridit"); - strasne pomala vec :P
poleCisel_tmp = poleCisel;
for (;;) {
vysledky[*poleCisel_tmp] = 0;
poleCisel_tmp++;
if (poleCisel_tmp > poleCisel_max)
break;
}
poleCisel_tmp = poleCisel;
for (;;) {
vysledky[*poleCisel_tmp]++;
poleCisel_tmp++;
if (poleCisel_tmp > poleCisel_max)
break;
}
poleCisel_tmp = poleCisel;
for (;;) {
fprintf(pomocnySoubor, "%d %d\n", *poleCisel_tmp, vysledky[*poleCisel_tmp]);
vysledky[*poleCisel_tmp] = 0;
poleCisel_tmp++;
if (poleCisel_tmp > poleCisel_max)
break;
}
fclose(pomocnySoubor);
}
ale nikde bych to nepouzil...
for (;;) {
vysledky[*poleCisel_tmp] = 0;
poleCisel_tmp++;
if (poleCisel_tmp > poleCisel_max)
break;
}
Proc nepouzit for rovnou nez psat podminky do nej a nebo pouzit while? Nechci byt hnusny, ale vic zprasit cyklus snad nejde, navic trikrat za sebou. Mozna by stalo za to si zopakovat co vlasne for a while dela.
Tiskni
Sdílej: