Ubuntu 26.04 patrně bude ve výchozím nastavení zobrazovat hvězdičky při zadávání hesla příkazu sudo, změna vychází z nové verze sudo-rs. Ta sice zlepší použitelnost systému pro nové uživatele, na které mohlo 'tiché sudo' působit dojmem, že systém 'zamrzl' a nijak nereaguje na stisky kláves, na druhou stranu se jedná o možnou bezpečnostní slabinu, neboť zobrazování hvězdiček v terminálu odhaluje délku hesla. Původní chování příkazu sudo
… více »Projekt systemd schválil kontroverzní pull request, který do JSON záznamů uživatelů přidává nové pole 'birthDate', datum narození, tedy údaj vyžadovaný zákony o ověřování věku v Kalifornii, Coloradu a Brazílii. Jiný pull request, který tuto změnu napravoval, byl správcem projektu Lennartem Poetteringem zamítnut s následujícím zdůvodněním:
… více »Nové číslo časopisu Raspberry Pi zdarma ke čtení: Raspberry Pi Official Magazine 163 (pdf).
Eric Lengyel dobrovolně uvolnil jako volné dílo svůj patentovaný algoritmus Slug. Algoritmus vykresluje text a vektorovou grafiku na GPU přímo z dat Bézierových křivek, aniž by využíval texturové mapy obsahující jakékoli předem vypočítané nebo uložené obrázky a počítá přesné pokrytí pro ostré a škálovatelné zobrazení písma, referenční ukázka implementace v HLSL shaderech je na GitHubu. Slug je volným dílem od 17. března letošního
… více »Sashiko (GitHub) je open source automatizovaný systém pro revizi kódu linuxového jádra. Monitoruje veřejné mailing listy a hodnotí navrhované změny pomocí umělé inteligence. Výpočetní zdroje a LLM tokeny poskytuje Google.
Cambalache, tj. RAD (rapid application development) nástroj pro GTK 4 a GTK 3, dospěl po pěti letech vývoje do verze 1.0. Instalovat jej lze i z Flathubu.
KiCad (Wikipedie), sada svobodných softwarových nástrojů pro počítačový návrh elektronických zařízení (EDA), byl vydán v nové major verzi 10.0.0 (𝕏). Přehled novinek v příspěvku na blogu.
Letošní Turingovou cenu (2025 ACM A.M. Turing Award, Nobelova cena informatiky) získali Charles H. Bennett a Gilles Brassard za základní přínosy do oboru kvantové informatiky, které převrátily pojetí bezpečné neprolomitelné komunikace a výpočetní techniky. Jejich protokol BB84 z roku 1984 umožnil fyzikálně zaručený bezpečný přenos šifrovacích klíčů, zatímco jejich práce o kvantové teleportaci položila teoretické základy pro budoucí kvantový internet. Jejich práce spojila fyziku s informatikou a ovlivnila celou generaci vědců.
Firefox 149 dostupný od 24. března přinese bezplatnou vestavěnou VPN s 50 GB přenesených dat měsíčně (s CZ a SK se zatím nepočítá) a zobrazení dvou webových stránek vedle sebe v jednom panelu (split view). Firefox Labs 149 umožní přidat poznámky k panelům (tab notes, videoukázka).
Byla vydána nová stabilní verze 7.9 webového prohlížeče Vivaldi (Wikipedie). Postavena je na Chromiu 146. Přehled novinek i s náhledy v příspěvku na blogu.
unsigned int convUnicode(int x) {
unsigned int y = 0, m = 0, n = 0;
m = y = n = x;
x = (x & 0x7000000);
x = x >> 6;
n = (n & 0xF0000);
n = n >> 4;
m = (m & 0x3F00);
m = m >> 2;
y = (y & 0x003F);
x = x | y | m | n;
printf("0x%X\n", x);
return 0;
}
Problem je ten, ze u jednobitovych znaku mi fce na outputu dava korektne jen cisla 1-39- 40 vypise jako 0x0, 41 jako 0x1 atd. az do 80. 80 vypise jako 0x0, 81 jako 0x1... proste to jakoby funguje jen po cislo 39 ap ka to jede od znovu. VIcebitove vstupy jsem zatim netestoval moc, dosud se zdaji byt korektni, ale musim to testovat na vetsi skale cisel.
Opravdu by me zajimalo, v cem delam chybu. S praci na bitove urovni mam v C opravdu minimalni zkusenosti, takze by me zajimalo, co a jak delam blbe. Idealne, kdyby mi nekdo poradil, nebo apson navedl na zpusob korektni implemntace. Nechci aby to nekdo vyresil za me, jen chci nakopnout.
Řešení dotazu:
Unicode kód od - do Binární zápis znaku v UTF-8
0000 0000 - 0000 007F 0xxxxxxx
0000 0080 - 0000 07FF 110xxxxx 10xxxxxx
0000 0800 - 0000 FFFF 1110xxxx 10xxxxxx 10xxxxxx
0001 0000 - 001F FFFF 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx
Nicmene, i po uprave masek na 007F se mi HEX korektne vypisuje jen do vstupu 79 (= 0x79). 80 uz koduje jako 0x0.. :( Je jasne, ze do 127 se jedna porad o ASCII, ale jak to namaskovat, aby tam byla ta implementace UTF-8 do UNICODE?
U-00000000 – U-0000007F: 0xxxxxxx U-00000080 – U-000007FF: 110xxxxx 10xxxxxx U-00000800 – U-0000FFFF: 1110xxxx 10xxxxxx 10xxxxxx U-00010000 – U-001FFFFF: 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx U-00200000 – U-03FFFFFF: 111110xx 10xxxxxx 10xxxxxx 10xxxxxx 10xxxxxx U-04000000 – U-7FFFFFFF: 1111110x 10xxxxxx 10xxxxxx 10xxxxxx 10xxxxxx 10xxxxxNerudovska otazka, co s ni? 0 - 7F to je prvnich 127, tedy ASCII. Otazka zni: uzit nejakou masku? U-00000080 – U-000007FF:. Tak a ted jak zprvniho bajtu oriznout 110 a z druheho 10? Kdyz pouziju:
scanf("%X", &x);
x = (x & 0x7FF);
printf("0x%X\n", x);
Tak se zda, ze to dekoduje v pohode.
Ale v pripade 3 bajtoveho (U-00000800 – U-0000FFFF) znaku to uz nedekoduje v pohode:
x = (x & 0xFFFF);Takze ja proste nevim jak spravne vyuzit tu tabulku z wiki a dalsich odkazu, nevim jak to spravne namaskovat. Mozna by to slo postupnym rozlozenim cisla na jednotlive bajty a ty pak orezat. Ale nevim, jak se takovy rozklad v C implementuje...
Tak a ted jak zprvniho bajtu oriznout 110 a z druheho 10?Musíš oříznout ty správné bity, použít opererátory bitového posunu << a >>, abys je posunul, kam patří ve výsledném bajtu, a zkombinovat výsledek pomocí |. P.S.: Převod UTF-8 do UNICODE nedává smysl. UTF-8 je representace Unicode, takže co je v UTF-8, to už je v Unicode.
if (x <= 0x7F){ //testuje zda je znak 1 bajtovy ANSII
printf("0x%X\n", x);
} else if ((x > 0x7F) && (x <= 0xBF)) { //testuje zda je znak jednobajtovy, s hodnotou vyssi nez ANSII
x = (x & 0x003f);
printf("0x%X\n", x);
} else if ((x > 0xBF) && (x <= 0xDFBF)){ //testuje dvoubajtove znaky
x = ((x & 0x1f00) >> 2) | (x & 0x003f);
printf("0x%X\n", x);
} else if ( (x > 0xDFBF) && (x <= 0xEFBFBF)) { //testuje tribajtove znaky
x = (((x & 0xF0000) >> 4) | ((x & 0x3f00) >>2) | (x & 0x003f));
printf("0x%X\n", x);
} else if ((x > 0xEFBFBF) && (x <= 0xF7BFBFBF )){ //testuje ctyrbajtove znaky
x = ( ((x & 0x7000000) >> 6) | ((x & 0x3f0000) >> 4) | ((x & 0x3f00) >>2) | (x & 0x003f));
printf("0x%X\n", x);
}
return 0;
}
Jinak UTF-8 do unicode samozreme smysl ma:
http://www.utf8-chartable.de/Cely priklad je vlastne prevodnik z UTF-8 do UNICODE a z UNICODE do UTF-16.
Jinak UTF-8 do unicode samozreme smysl maNe, tato věta je výrazem nepochopení vztahu Unicode a UTF-8. UTF-8 můžeš převést leda do nějaké jiné representace Unicode, ale pořád bude nějak representováno. Tabulka bloku prvních 256 znaků má dokazovat konkrétně co?
Vašou úlohou je napísať program, ktorý číta hexadecimálne kódy znakov UTF-8 zo štandardného vstupu. Jednotlivé kódy dekóduje najprv do hodnoty znaku v Unicode tabuľke, následne znak opäť zakóduje podľa UTF-16."dekoduje do hodnoty v UNICODE"
if (x <= 0xBF){ //testuje zda je znak 1 bajtovy
printf("0x%X\n", x);
Tiskni
Sdílej: