CreepyLink.com je nový zkracovač URL adres, 'díky kterému budou vaše odkazy vypadat tak podezřele, jak je to jen možné'. Například odkaz na abclinuxu.cz tento zkracovač převádí do podoby 'https://netflix.web-safe.link/logger_8oIlgs_free_money.php'. Dle prohlášení autora je CreepyLink alternativou ke zkracovači ShadyURL (repozitář na githubu), který dnes již bohužel není v provozu.
Na blogu Raspberry Pi byla představena rozšiřující deska Raspberry Pi AI HAT+ 2 s akcelerátorem Hailo-10 a 8 GB RAM. Na rozdíl od předchozí Raspberry Pi AI HAT+ podporuje generativní AI. Cena desky je 130 dolarů.
Wikipedie slaví 25. výročí svého založení. Vznikla 15. ledna 2001 jako doplňkový projekt k dnes již neexistující encyklopedii Nupedia. Doména wikipedia.org byla zaregistrována 12. ledna 2001. Zítra proběhne v Praze Večer svobodné kultury, který pořádá spolek Wikimedia ČR.
Po více než dvou letech od vydání předchozí verze 2.12 byla vydána nová stabilní verze 2.14 systémového zavaděče GNU GRUB (GRand Unified Bootloader, Wikipedie). Přehled novinek v souboru NEWS a v aktualizované dokumentaci.
Google Chrome 144 byl prohlášen za stabilní. Nejnovější stabilní verze 144.0.7559.59 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 10 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře (YouTube).
Microsoft zveřejnil zdrojový kód XAML Studia a uvolnil ho pod MIT licencí. XAML Studio je nástroj ze světa Windows, určený pro tvorbu uživatelského rozhraní aplikací pomocí XAML (Extensible Application Markup Language). Stalo se tak zhruba po osmi letech od prvního prohlášení Microsoftu, že se tento kód chystá zveřejnit.
TimeCapsule, 'časová kapsle', je jazykový model trénovaný výhradně na datech z určitých míst a časových období, aby se tak napodobila autentická slovní zásoba, způsob vyjadřování a názory dané doby. Na Hugging face jsou k dispozici modely natrénované na historických textech dostupných v oblasti Londýna mezi lety 1800 až 1875.
Radicle byl vydán ve verzi 1.6.0 s kódovým jménem Amaryllis. Jedná se o distribuovanou alternativu k softwarům pro spolupráci jako např. GitLab.
Zemřel Scott Adams, tvůrce komiksových stripů Dilbert parodujících pracovní prostředí velké firmy.
Sdružení CZ.NIC vydalo novou verzi Knot Resolveru (6.1.0). Jedná se o první vydanou stabilní verzi 6, která je nyní oficiálně preferovanou a doporučovanou verzí, namísto předešlé verze 5. Více o Knot Resolveru 6 je možné se dočíst přímo v dokumentaci.
unsigned int convUnicode(int x) {
unsigned int y = 0, m = 0, n = 0;
m = y = n = x;
x = (x & 0x7000000);
x = x >> 6;
n = (n & 0xF0000);
n = n >> 4;
m = (m & 0x3F00);
m = m >> 2;
y = (y & 0x003F);
x = x | y | m | n;
printf("0x%X\n", x);
return 0;
}
Problem je ten, ze u jednobitovych znaku mi fce na outputu dava korektne jen cisla 1-39- 40 vypise jako 0x0, 41 jako 0x1 atd. az do 80. 80 vypise jako 0x0, 81 jako 0x1... proste to jakoby funguje jen po cislo 39 ap ka to jede od znovu. VIcebitove vstupy jsem zatim netestoval moc, dosud se zdaji byt korektni, ale musim to testovat na vetsi skale cisel.
Opravdu by me zajimalo, v cem delam chybu. S praci na bitove urovni mam v C opravdu minimalni zkusenosti, takze by me zajimalo, co a jak delam blbe. Idealne, kdyby mi nekdo poradil, nebo apson navedl na zpusob korektni implemntace. Nechci aby to nekdo vyresil za me, jen chci nakopnout.
Řešení dotazu:
Unicode kód od - do Binární zápis znaku v UTF-8
0000 0000 - 0000 007F 0xxxxxxx
0000 0080 - 0000 07FF 110xxxxx 10xxxxxx
0000 0800 - 0000 FFFF 1110xxxx 10xxxxxx 10xxxxxx
0001 0000 - 001F FFFF 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx
Nicmene, i po uprave masek na 007F se mi HEX korektne vypisuje jen do vstupu 79 (= 0x79). 80 uz koduje jako 0x0.. :( Je jasne, ze do 127 se jedna porad o ASCII, ale jak to namaskovat, aby tam byla ta implementace UTF-8 do UNICODE?
U-00000000 – U-0000007F: 0xxxxxxx U-00000080 – U-000007FF: 110xxxxx 10xxxxxx U-00000800 – U-0000FFFF: 1110xxxx 10xxxxxx 10xxxxxx U-00010000 – U-001FFFFF: 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx U-00200000 – U-03FFFFFF: 111110xx 10xxxxxx 10xxxxxx 10xxxxxx 10xxxxxx U-04000000 – U-7FFFFFFF: 1111110x 10xxxxxx 10xxxxxx 10xxxxxx 10xxxxxx 10xxxxxNerudovska otazka, co s ni? 0 - 7F to je prvnich 127, tedy ASCII. Otazka zni: uzit nejakou masku? U-00000080 – U-000007FF:. Tak a ted jak zprvniho bajtu oriznout 110 a z druheho 10? Kdyz pouziju:
scanf("%X", &x);
x = (x & 0x7FF);
printf("0x%X\n", x);
Tak se zda, ze to dekoduje v pohode.
Ale v pripade 3 bajtoveho (U-00000800 – U-0000FFFF) znaku to uz nedekoduje v pohode:
x = (x & 0xFFFF);Takze ja proste nevim jak spravne vyuzit tu tabulku z wiki a dalsich odkazu, nevim jak to spravne namaskovat. Mozna by to slo postupnym rozlozenim cisla na jednotlive bajty a ty pak orezat. Ale nevim, jak se takovy rozklad v C implementuje...
Tak a ted jak zprvniho bajtu oriznout 110 a z druheho 10?Musíš oříznout ty správné bity, použít opererátory bitového posunu << a >>, abys je posunul, kam patří ve výsledném bajtu, a zkombinovat výsledek pomocí |. P.S.: Převod UTF-8 do UNICODE nedává smysl. UTF-8 je representace Unicode, takže co je v UTF-8, to už je v Unicode.
if (x <= 0x7F){ //testuje zda je znak 1 bajtovy ANSII
printf("0x%X\n", x);
} else if ((x > 0x7F) && (x <= 0xBF)) { //testuje zda je znak jednobajtovy, s hodnotou vyssi nez ANSII
x = (x & 0x003f);
printf("0x%X\n", x);
} else if ((x > 0xBF) && (x <= 0xDFBF)){ //testuje dvoubajtove znaky
x = ((x & 0x1f00) >> 2) | (x & 0x003f);
printf("0x%X\n", x);
} else if ( (x > 0xDFBF) && (x <= 0xEFBFBF)) { //testuje tribajtove znaky
x = (((x & 0xF0000) >> 4) | ((x & 0x3f00) >>2) | (x & 0x003f));
printf("0x%X\n", x);
} else if ((x > 0xEFBFBF) && (x <= 0xF7BFBFBF )){ //testuje ctyrbajtove znaky
x = ( ((x & 0x7000000) >> 6) | ((x & 0x3f0000) >> 4) | ((x & 0x3f00) >>2) | (x & 0x003f));
printf("0x%X\n", x);
}
return 0;
}
Jinak UTF-8 do unicode samozreme smysl ma:
http://www.utf8-chartable.de/Cely priklad je vlastne prevodnik z UTF-8 do UNICODE a z UNICODE do UTF-16.
Jinak UTF-8 do unicode samozreme smysl maNe, tato věta je výrazem nepochopení vztahu Unicode a UTF-8. UTF-8 můžeš převést leda do nějaké jiné representace Unicode, ale pořád bude nějak representováno. Tabulka bloku prvních 256 znaků má dokazovat konkrétně co?
Vašou úlohou je napísať program, ktorý číta hexadecimálne kódy znakov UTF-8 zo štandardného vstupu. Jednotlivé kódy dekóduje najprv do hodnoty znaku v Unicode tabuľke, následne znak opäť zakóduje podľa UTF-16."dekoduje do hodnoty v UNICODE"
if (x <= 0xBF){ //testuje zda je znak 1 bajtovy
printf("0x%X\n", x);
Tiskni
Sdílej: