Během tradiční ceremonie k oslavě Dne vzniku samostatného československého státu (28. října) byl vyznamenán medailí Za zásluhy (o stát v oblasti hospodářské) vývojář 3D tiskáren Josef Průša. Letos byly uděleny pouze dvě medaile Za zásluhy o stát v oblasti hospodářské, druhou dostal informatik a manažer Ondřej Felix, který se zabývá digitalizací státní správy.
Tor Browser, tj. fork webového prohlížeče Mozilla Firefox s integrovaným klientem sítě Tor přednastavený tak, aby přes tuto síť bezpečně komunikoval, byl vydán ve verzi 15.0. Postaven je na Firefoxu ESR 140.
Bylo oznámeno (cs) vydání Fedora Linuxu 43. Ve finální verzi vychází šest oficiálních edic: Fedora Workstation a Fedora KDE Plasma Desktop pro desktopové, Fedora Server pro serverové, Fedora IoT pro internet věcí, Fedora Cloud pro cloudové nasazení a Fedora CoreOS pro ty, kteří preferují neměnné systémy. Vedle nich jsou k dispozici také další atomické desktopy, spiny a laby. Podrobný přehled novinek v samostatných článcích na stránkách Fedora Magazinu: Fedora Workstation, Fedora KDE Plasma Desktop, Fedora Silverblue a Fedora Atomic Desktops.
Elon Musk oznámil (𝕏) spuštění internetové encyklopedie Grokipedia (Wikipedia). Zatím ve verzi 0.1. Verze 1.0 prý bude 10x lepší, ale i ve verzi 0.1 je podle Elona Muska již lepší než Wikipedia.
PSF (Python Software Foundation) po mnoha měsících práce získala grant ve výši 1,5 milionu dolarů od americké vládní NSF (National Science Foundation) v rámci programu "Bezpečnost, ochrana a soukromí open source ekosystémů" na zvýšení bezpečnosti Pythonu a PyPI. PSF ale nesouhlasí s předloženou podmínkou grantu, že během trvání finanční podpory nebude žádným způsobem podporovat diverzitu, rovnost a inkluzi (DEI). PSF má diverzitu přímo ve svém poslání (Mission) a proto grant odmítla.
Balík nástrojů Rust Coreutils / uutils coreutils, tj. nástrojů z GNU Coreutils napsaných v programovacím jazyce Rust, byl vydán ve verzi 0.3.0. Z 634 testů kompatibility Rust Coreutils s GNU Coreutils bylo úspěšných 532, tj. 83,91 %. V Ubuntu 25.10 se již používá Rust Coreutils místo GNU Coreutils, což může přinášet problémy, viz například nefunkční automatická aktualizace.
Od 3. listopadu 2025 budou muset nová rozšíření Firefoxu specifikovat, zda shromažďují nebo sdílejí osobní údaje. Po všech rozšířeních to bude vyžadováno někdy v první polovině roku 2026. Tyto informace se zobrazí uživateli, když začne instalovat rozšíření, spolu s veškerými oprávněními, která rozšíření požaduje.
Jste nuceni pracovat s Linuxem? Chybí vám pohodlí, které vám poskytoval Microsoft, když vás špehoval a sledoval všechno, co děláte? Nebojte se. Recall for Linux vám vrátí všechny skvělé funkce Windows Recall, které vám chyběly.
Společnost Fre(i)e Software oznámila, že má budget na práci na Debianu pro tablety s cílem jeho vyžívání pro vzdělávací účely. Jako uživatelské prostředí bude použito Lomiri.
Proběhla hackerská soutěž Pwn2Own Ireland 2025. Celkově bylo vyplaceno 1 024 750 dolarů za 73 unikátních zranitelností nultého dne (0-day). Vítězný Summoning Team si odnesl 187 500 dolarů. Shrnutí po jednotlivých dnech na blogu Zero Day Initiative (1. den, 2. den a 3. den) a na YouTube.
Řešení dotazu:
jinak v mkv by vzdy mely byt titule utf8 a prehravac uz si to sam nejak prekonvertujeAha, myslím, že tohle je ta zásadní informace. V XBMC mám nastaveno, že titulky jsou v CP1250, ale podle toho, co píšete, se to týká jen titulků v externím souboru. Tím by byl problém vyřešen. Ještě to otestuju. Jirka
a kdyz jeste pouzijes enca, tak se kodovani v srt samo uhadneJak moc spolehlivé to vlastně je? Kdysi jsem si na to psal vlastní tool jen tak cvičně a pro čtení se to chytalo docela dobře. Cokoli co lze číst jako utf-8 bylo většinou skutečně utf-8 nebo jeho podmnožina. Trochu horší byla osmibitová kódování, kde nebylo moc možné určit kódování bez odhadování jazyka, i když pro čtení taky celkem v pohodě. Trochu horší je odhadovat skutečné kódování, pokud by člověk chctěl zapisovat a zachovat ho, tam je to často nemožné a jinak dost obtížné.
enca --list languages
belarussian: CP1251 IBM866 ISO-8859-5 KOI8-UNI maccyr IBM855 KOI8-U
bulgarian: CP1251 ISO-8859-5 IBM855 maccyr ECMA-113
czech: ISO-8859-2 CP1250 IBM852 KEYBCS2 macce KOI-8_CS_2 CORK
estonian: ISO-8859-4 CP1257 IBM775 ISO-8859-13 macce baltic
croatian: CP1250 ISO-8859-2 IBM852 macce CORK
hungarian: ISO-8859-2 CP1250 IBM852 macce CORK
lithuanian: CP1257 ISO-8859-4 IBM775 ISO-8859-13 macce baltic
latvian: CP1257 ISO-8859-4 IBM775 ISO-8859-13 macce baltic
polish: ISO-8859-2 CP1250 IBM852 macce ISO-8859-13 ISO-8859-16 baltic CORK
russian: KOI8-R CP1251 ISO-8859-5 IBM866 maccyr
slovak: CP1250 ISO-8859-2 IBM852 KEYBCS2 macce KOI-8_CS_2 CORK
slovene: ISO-8859-2 CP1250 IBM852 macce CORK
ukrainian: CP1251 IBM855 ISO-8859-5 CP1125 KOI8-U maccyr
chinese: GBK BIG5 HZ
none:
enca vyzaduje, abys rekl, co to je za jazykTak to je dost na hovno a stálo by za vylepšení. Moje ročníkovka na střední na pár řádků už nevím v jakém jazyce zvládala detekovat kódování společně s jazykem za pomoci podobné tabulky, kdy záleželo na pořadí kódování pro daný jazyk a při podmnožině několika známých kódování se použilo to, které bylo na seznamu pro daný jazyk dříve.
UTF-8 poznas snadnoS tím bych ještě souhlasil, stačí se pokusit daný bajtový řetězec jako utf-8 interpretovat a v případě úspěchu ho za utf-8 prohlásit.
soubor by mel mit na zacatku hlavicku.Ovšem toto se nebojím prohlásit za čirou idiocii. Kódování utf-8 žádnou (povinnou) hlavičku nemá, navíc hovořit o detekci kódování v kontextu toho, že jinak čistě textový soubor opatřím hlavičkou s informací o kódování, to jaksi nedává smysl. Já osobně jsem se do kódování utf-8 bez jakýchkoli hlaviček zamiloval kvůli jeho výtečným znalostem především v kontextu ASCII světa, mezi něž patří, že nad utf-8 řetězci a soubory fungují prakticky všechny operace stejně jako nad ascii souborem. Snad jedinou výjimkou jsou operace vyžadující práci s počtem znaků. Ovšem pro utf-8 opatřené nesmyslnou značkou pořadí bajtů v kódové jednotce, kterou je jediný bajt, už touto vlastností neoplývá a osobně ho tak považuju za podobný odpad jako utf-16. TL;DR verze: Nikoliv, u textových souborů v osmibitových kódováních včetně utf-8 se minimálně na unixových systémech nevyžaduje hlavička označující kódování. A můj osobní názor je, že systémy, které jen a pouze u tohoto konkrétního osmibitového kódování vyžadují speciální hlavičky v textových souborech, jsou idiotsky navržené.
Zbytek je prevazne o tom, ze se hledaji konkretni znaky, v idealnim pripade se dela neco jako frekvencni analyza(= vemes nejakej dostatecne velkej vzorek pro danej jazyk, znej si zjistis jak casto se vyskytuje ten kterej znak a pak zjistujes neznamej text)Analýza frekvence jednotlivých znaků je sice super věc na hraní, ale u detekce jazyka/kódování krátkých textů (v řádu jednotlivých vět) se mi vůbec neosvědčila, což by u detekce jazyka/kódování obecných souborů mohl být docela problém, ale pravda je, že na titulky by to stačit mohlo.
Druhý případ je řazení podle abecedy. Tam také řadící program musí rozumět použitému kódování.Pravda, akorát že nějaké řazení vznikne i z toho utf-8 a na cokoli lepšího by stejně člověk potřeboval aplikovat národní pravidla a občas i jejich úpravu pro specifické využití.
Ale jinak jo, pokud zrovna člověk nemá písmenka s diakritikou na začátcích slov, tak je to v pohodě.
Tiskni
Sdílej: