Šestice firem označovaných jako „MAMAAN“ – tedy Meta (Facebook, Instagram), Alphabet (Google), Microsoft, Apple, Amazon a Netflix – je zodpovědná za více než padesát procent světového internetového provozu. Dalšími velkými hráči jsou TikTok a Disney+. Společně tak zásadně určují podobu digitálního prostředí, spotřebitelského chování i budoucích trendů v oblasti technologií. I přesto, že se podíl těchto gigantů od roku 2023 o něco snížil, jejich dominantní postavení zvyšuje volání po regulaci.
Evropská komise (EK) navrhuje zavést plošný poplatek ve výši dvou eur (zhruba 50 Kč) za každý malý balík vstupující do Evropské unie. Poplatek se má týkat balíků v hodnotě do 150 eur (zhruba 3700 Kč), které v EU nepodléhají clu. V loňském roce bylo do EU doručeno kolem 4,6 miliardy takovýchto balíků. Poplatek má krýt náklady na kontroly rostoucího počtu zásilek levného zboží, které pochází především z Číny.
Dnes a zítra probíhá vývojářská konference Google I/O 2025. Sledovat lze na YouTube a na síti 𝕏 (#GoogleIO).
V Bostonu probíhá konference Red Hat Summit 2025. Vybrané přednášky lze sledovat na YouTube. Dění lze sledovat na síti 𝕏 (#RHSummit).
Společnost Red Hat oficiálně oznámila vydání Red Hat Enterprise Linuxu 10. Vedle nových vlastností přináší také aktualizaci ovladačů a předběžné ukázky budoucích technologií. Podrobnosti v poznámkách k vydání.
Tuto sobotu 24. května se koná historicky první komunitní den projektu Home Assistant. Zváni jsou všichni příznivci, nadšenci a uživatelé tohoto projektu. Pro účast je potřebná registrace. Odkazy na akce v Praze a v Bratislavě.
Troy Hunt představil Have I Been Pwned 2.0, tj. nový vylepšený web služby, kde si uživatelé mohou zkontrolovat, zda se jejich hesla a osobní údaje neobjevily v únicích dat a případně se nechat na další úniky upozorňovat.
Microsoft představil open source textový editor Edit bežící v terminálu. Zdrojové kódy jsou k dispozici na GitHubu pod licencí MIT.
V Seattlu a také online probíhá konference Microsoft Build 2025. Microsoft představuje své novinky. Windows Subsystem for Linux je nově open source. Zdrojové kódy jsou k dispozici na GitHubu pod licencí MIT.
Z příspěvku Turris Sentinel – co přinesl rok 2024 na blogu CZ.NIC: "Za poslední rok (únor 2024 – únor 2025) jsme zachytili 8,3 miliardy incidentů a to z 232 zemí a z jejich závislých území. Tyto útoky přišly od 6,2 milionu útočníků (respektive unikátních adres). SMTP minipot je stále nejlákavější pastí, zhruba 79 % útoků bylo směřováno na tento minipot, 16 % útoků směřovalo na minipot Telnet, 3 % útoků směřovaly na minipot HTTP a 2 % na minipot FTP. Dále jsme zaznamenali 3,2 milionu unikátních hesel a 318 tisíc unikátních loginů, které útočníci zkoušeli."
Překladač je program, který (velice zjednodušeně řečeno) postupně prochází kód napsaný v nějakém programovacím jazyce a z něj generuje spustitelný soubor. Samotný překlad se sestává z několika fází:
/* program v C */ int n = 10; char* s = "Hello, world!"; if (n == 10) { printf("%s\n", s); } " program ve Smalltalku " n := 10. s := 'Hello, world!'. [n = 10] if: [ Transcript show: n, s; cr. ] <!-- dokument v XML --> <servlet> <servlet-name>webdav</servlet-name> <servlet-class>org.apache.catalina.servlets.WebdavServlet</servlet-class> <init-param> <param-name>debug</param-name> <param-value>0</param-value> </init-param> </servlet>
Nahoře jsou ukázky zdrojového kódu napsaného ve dvou různých programovacích jazycích — C a Smalltalk (Squeak). A navíc příklad dokumentu ve formátu XML (protože syntaxe se netýká jen programovacích jazyků). Na první pohled je vidět jejich syntaktická odlišnost, přestože v konečném výsledku dělají to samé. Pokud vynecháme absenci typování ve Smalltalku, potom vidíme odlišné příkazy pro přiřazení (``=
'' vs. ``:=
''), jiné znaky pro ukončení příkazu (``;
'' vs. ``.
''), jiné komentáře a podobně. Navíc vidíme další rozdíl. Zatímco řetězec if
je v C kódu zvýrazněn, ve Smalltalku ne. Není to překlep při psaní, ale zdůraznění skutečnosti, že if
není ve Smalltalku klíčové slovo jazyka, ale normální metoda. Syntaxe tudíž určuje (mimo jiné) tvar základních konstrukcí jazyka a překladač (interpret, parser) je musí nějakým způsobem rozpoznat.
Opět se zaměříme na otázku, jak něco takového naprogramovat. Standardní knihovna jazyka C (ostatní jazyky mají ekvivalentní nástroje) poskytuje funkce pro práci se soubory, které jsou definovány v souboru stdio.h
. Pomocí těch nejjednodušších můžeme na zdrojový kód nahlížet jako na jednorozměrné pole znaků — 'i','n','t',' ', ...
, případně jako na izolované řádky:
21: int n = 10; 22: char* s = "Hello world!";
Ovšem funkce jako scanf()
už pracují na vyšší úrovni a umožňují zadat formátovací řetězec, podle něhož bude vstup přiřazen do proměnných. Potom můžeme napsat něco jako:
char type[10], name[10]; int value; scanf("%s %s = %d", &type, &name, &value); printf("type: %s, name: %s, value: %d\n", type, name, value); return 0;
a přeložený program vrátí
$ echo "int n = 10;" | ./scanf type: int, name: n, value: 10
Funkce scanf
bohužel neumí dvě věci. Tou první je definovat vlastní parametry (například pro klíčová slova jazyka) a tou druhou je fakt, že jí není možné říct čekej na libovolný ze zadaných vstupů
. To, co potřebujeme, je něco
, co se dokáže na program podívat asi takto:
(INT int) (IDENTIFIER n) (=) (CONSTANT 10) (;)
To něco
se odborně nazývá lexikální analyzátor. Ten, který dokáže zdrojový program rozdělit na jednotlivé lexémy (tokeny). Lexém je nejmenší logická jednotka v kódu programu, například identifikátor nebo operátory, případně ukončovací znak. Jsou definovány jako regulární výrazy, třeba identifikátor je v C definován takto — [a-zA-Z_][a-zA-Z0-9_]*
. Což znamená, že prvním znakem může být libovolný znak latinské abecedy a podtržítko, následovaný libovolným počtem znaků latinské abecedy, arabských číslic a podtržítek. Lexikální analyzátor tedy načítá vstupní text a zkoumá, do které ze zadaných kategorií patří.
Přestože je možné napsat daný parser ručně (například jako velký konečný automat), bývá jednodušší využít generátor analyzátorů. Program lex
je dostupný na všech systémech, které splňují normu POSIX, a jeho úkolem je na základě symbolického popisu vygenerovat kód lexikálního analyzátoru. Ve většině linuxových distribucí ovšem naleznete progam flex
, což je rozšířená verze lex
u, kterou vydalo FSF.
Specifikace skeneru se obecně sestává ze čtyř částí. V té první, ohraničené %{ %}
, uvedeme deklarace jazyka C. Například makra, nebo hlavičkové soubory.
%{ #define UNDEFINED 0 #define HCONSTANT 1 #define OCONSTANT 2 #define DCONSTANT 3 %}
Ve druhé části si můžeme nadefinovat užitečné podvýrazy, které nám zpřehlední zápisy v další části.
D [0-9] O [0-7] H [a-fA-F0-9] IS (u|U|l|L)*
Další část, ohraničená %% %%
, slouží k definici lexémů. K nim může být přiřazen kód, který bude vykonán po jeho nalezení. Jak vidíte, lexémy jsou definovány pomocí regulárních výrazů a celý zápis trochu připomíná program awk
. Zajímavostí je zápis [ \t\n]+
, který nemá přiřazen žádnou akci. Je to z toho důvodu, že bílé znaky (mezera, tabelátor, nový řádek) vynecháváme. Nicméně nástroj make
nebo jazyk Python počítají i bílé znaky do syntaxe.
%% 0[xX]{H}+{IS}? { return HCONSTANT; } 0{O}+{IS}? { return OCONSTANT; } {D}+{IS}? { return DCONSTANT; } [ \t\n]+ . { return UNDEFINED; } %%
Poslední, čtvrtá, část obsahuje již jenom výkonný kód v C, který reaguje na jednotlivé lexémy.
static char name[4][16] = { "nezname", "sestnactkove", "osmickove", "desitkove" }; int main() { int token; while (token = yylex()) { printf("Nalezeno %s cislo\n", name[token]); } }
K dispozici je zdrojový kód integer.l, i ve verzi se zvýrazněnou syntaxí integer.l.html. Nebo si můžete stáhnout celý archív integer.tar.gz, který obsahuje i Makefile.
Překlad se potom provede (pokud jste si nestáhli archív s Makefile) takto:
flex integer.l gcc -o integer lex.yy.c -lfl
Aplikace potom načítá standardní vstup a analyzuje zadané lexémy:
$ ./integer 123 Nalezeno desitkove cislo 0123 Nalezeno osmickove cislo 0x115 Nalezeno sestnactkove cislo 0X1Ff Nalezeno sestnactkove cislo 234U Nalezeno desitkove cislo 12 0x2 077 Nalezeno desitkove cislo Nalezeno sestnactkove cislo Nalezeno osmickove cislo 54,21 Nalezeno desitkove cislo
Po zadání znaku, který nezná ``,''
, se program ukončí, protože makro UNDEFINED
se expanduje na 0, a tím dojde k ukončení cyklu while
. Navíc také úspěšně ignoruje prázdné řádky.
Vygenerovaný program obsahuje několik důležitých funkcí a proměnných:
yylex() |
Funkce, která v cyklu spouští akce na základě nalezené masky. Protože ji přerušujeme příkazem return , můžeme ji použít v našem cyklu. |
yytext |
Pole znaků, které obsahuje nalezený lexém. |
yyleng |
Délka řetězce v yytext . |
yymore() |
Načte další lexém do proměnné yytext . |
ECHO |
Zkopíruje nalezený lexém na standardní výstup. |
Manuálů k program flex naleznete na internetu mnoho, některé z nich jsou i dole v odkazech, proto nebudu vysvětlovat formáty masek nebo funkce přepínačů, ale přeskočím na zajímavější funkce.
V předchozím případě bylo nutné definovat podvýraz pro čísla jako D [0-9]
. Autoři programu flex
do něj zařadili zkratky pro často používané skupiny. Ty se zapisují ve formátu [:zkratka:]
, což je stejná syntaxe, jako například v programu grep
. Podporované zkratky jsou:
alnum, alpha, blank, cntrl, digit, graph, lower, print, punct, space, upper, xdigit
Programátorům v C budou jistě velice povědomé, protože názvy i funkčnost odpovídá funkcím is<zkratka>()
ze souboru ctype.h
. Výše uvedený příklad potom můžeme zapsat jako D [[:digit:]]
(a přiznám se, že teď dostalo slovo zkratka zcela nový význam).
Někdy nám nemusí být po chuti, že analyzátor pracuje jen se standardním vstupem a výstupem. Jsou definovány dvě proměnné:
FILE *yyin = stdin; FILE *yyout = stdout;
Pokud v naší funkci main()
napíšeme
yyin = fopen("input", 'r'); yylex();
Při tom je důležité vědět, že existuje funkce yywrap()
z knihovny libfl
, která se používá k rozhodování, zda je analyzátor na konci. Můžete si ovšem napsat vlastní verzi této funkce, která bude nastavovat proměnnou yyin
na základě nějakého seznamu, a tím zajistíte zpracování více než jednoho souboru (což je výchozí chování).
Časy se mění a tak i do tradičních vod unixových nástrojů pronikl jazyk C++. Zároveň s tím se objevil požadavek na generátor analyzátorů pro tento jazyk. Dalo by se říct, že flex podporuje dva způsoby, jak toho dosáhnout.
Prvním a ne zcela čistým způsobem je napsat kód v C++, soubor vygenerovat a nakonec doufat, že půjde přeložit překladačem C++. Přitom je nutné mít na paměti, že řetězce jsou pouze pole znaků, nebo že yyin
není proud z C++, ale klasický soubor z C. Nicméně v dobách, kdy překladače (a standardní knihovna C++) nestály za nic, toto bylo asi rozumné řešení.
Dnes je lepší použít přepínač -+
(případně wrapper flex++
), který vygeneruje čistokrevný
C++ kód. Důležité je potom rozhraní dvou tříd definované v souboru FlexLexer.h
— FlexLexer a jeho potomek yyFlexLexer. Funkce a globální proměnné, které jsme používali v C verzi, se potom změní na metody jedné z těchto dvou tříd. Bohužel řetězce jsou pořád definovány jako pole znaků a ne jako std::string
. Funkce main()
potom může vypadat přibližně takto:
int main()
{
FlexLexer* lexer = new
yyFlexLexer;
while(lexer->yylex() != 0);
return 0;
}
Nevýhoda je jedna: vygenerovaný analyzátor je pomalejší a náročnější na strojové prostředky než ručně napsaný protějšek. Navíc s pomocí konečného automatu není napsání analyzátoru nic těžkého. Na druhou stranu je definice analyzátoru kompaktnější a snadněji udržovatelná. Velice pěkně to ilustruje příklad na wikipedii (Lexical analysis), kde je ručně napsaný analyzátor jazyka PL/0 (který stvořil Niclaus Wirth, takže odpůrci Pascalu byli varováni) a jeho protějšek v lexu. Asi 100 řádků ručně napsaného kódu oproti 50 řádkům v lex
u, které se ovšem rozgenerují na asi 1700 řádků v C (nebo 1500 v C++).
Dnes jsme se stručně seznámili s klasickým unixovým nástrojem (f)lex
, který slouží ke generování lexikálních analyzátorů. Programů, které rozpoznávají kousky
(lexémy, tokeny) syntaxe programovacího jazyka. Poznali jsme jeho výhody (rychlost tvorby, snadná udržovatelnost), ale i nevýhody (malý výkon, větší spotřeba systémových prostředků). Dnešní díl byl zaměřen na programátory v C (a trochu v C++) a aby to ostatním nebylo líto, přidám odkazy na obdobné nástroje pro ostatní jazyky.
JLex | Generátor analyzátorů pro Javu. |
JFlex | Rychlý generátor analyzátorů pro Javu. |
shlex | Modul pro psaní jednoduchých analyzátorů v Pythonu. |
Plex | Generátor analyzátorů pro Python. |
Cslex | Generátor pro C#. |
Parse::Lex | Modul pro jazyk Perl. |
lexer | Balíček lexer pro Common Lisp. |
Nástroje: Tisk bez diskuse
Tiskni
Sdílej:
Samotný překlad se sestává z několika fází:Ale jinak vcelku přehledný článek. I když možná, když už byl na konci Lisp zmíněn, by neuškodila poznámka o tom, že některé jazyky (CL, Forth, ale do určité míry i třeba TeX) syntaxi mohou předefinovávat za chodu a obecný lexer nesvázaný s jazykem (byť pro parsování základní syntaxe sexpů téměř triviální) se ve flexu (ale i jako konečný automat) píše špatně. Popravdě řečeno, docela se na další díly těším - už proto, že jsem zvědavý, jestli se autorovi podaří napsat text dostatečně obecně, aby byl platný i pro exotičtější jazyky...
Nějak jsem nenašel onen seznam fází, který bych čekal za dvojtečkou :)Nakonec jsem se rozhodl ty fáze uvádět postupně v dalších dílech
Ale jinak vcelku přehledný článek. I když možná, když už byl na konci Lisp zmíněn, by neuškodila poznámka o tom, že některé jazyky (CL, Forth, ale do určité míry i třeba TeX) ...Common Lisp se momentálně učím, ale bohužel to má poměrně malou důležitost a tak to jde pomalu