Národní identitní autorita (NIA), která ovlivňuje přihlašování prostřednictvím NIA ID, MEP, eOP a externích identit (např. BankID), je částečně nedostupná.
Byla vydána nová verze 1.16.0 klienta a serveru VNC (Virtual Network Computing) s názvem TigerVNC (Wikipedie). Z novinek lze vypíchnout nový server w0vncserver pro sdílení Wayland desktopu. Zdrojové kódy jsou k dispozici na GitHubu. Binárky na SourceForge. TigerVNC je fork TightVNC.
Byla vydána nová verze 4.6 (𝕏, Bluesky, Mastodon) multiplatformního open source herního enginu Godot (Wikipedie, GitHub). Přehled novinek i s náhledy v příspěvku na blogu.
Rozsáhlá modernizace hardwarové infrastruktury Základních registrů měla zabránit výpadkům digitálních služeb státu. Dnešnímu výpadku nezabránila.
Čínský startup Kimi představil open-source model umělé inteligence Kimi K2.5. Nová verze pracuje s textem i obrázky a poskytuje 'paradigma samosměřovaného roje agentů' pro rychlejší vykonávání úkolů. Kimi zdůrazňuje vylepšenou schopnost modelu vytvářet zdrojové kódy přímo z přirozeného jazyka. Natrénovaný model je dostupný na Hugging Face, trénovací skripty však ne. Model má 1 T (bilion) parametrů, 32 B (miliard) aktivních.
V Raspberry Pi OS lze nově snadno povolit USB Gadget Mode a díky balíčku rpi-usb-gadget (CDC-ECM/RNDIS) mít možnost se k Raspberry Pi připojovat přes USB kabel bez nutnosti konfigurování Wi-Fi nebo Ethernetu. K podporovaným Raspberry Pi připojeným do USB portu podporujícího OTG.
Konference Installfest 2026 proběhne o víkendu 28. a 29. března v budově FELu na Karlově náměstí v Praze. Přihlásit přednášku nebo workshop týkající se Linuxu, otevřených technologií, sítí, bezpečnosti, vývoje, programování a podobně lze do 18. února 0:15.
Fedora Flock 2026, tj. konference pro přispěvatele a příznivce Fedory, bude opět v Praze. Proběhne od 14. do 16. června. Na Flock navazuje DevConf.CZ 2026, který se uskuteční 18. a 19. června v Brně. Organizátoři konferencí hledají přednášející, vyhlásili Call for Proposals (CfP).
Z80-μLM je jazykový model 'konverzační umělé inteligence' optimalizovaný pro běh na 8-bitovém 4Mhz procesoru Z80 s 64kB RAM, technologii z roku 1976. Model používá 2-bitovou kvantizaci a trigramové hashování do 128 položek, což umožňuje zpracování textu i při velmi omezené paměti. Natrénovaný model se vejde do binárního souboru velkého pouhých 40 KB. Tento jazykový model patrně neprojde Turingovým testem 😅.
Digitální a informační agentura (DIA) na přelomu roku dokončila rozsáhlou modernizaci hardwarové infrastruktury základních registrů. Projekt za 236 milionů korun by měl zabránit výpadkům digitálních služeb státu, tak jako při loňských parlamentních volbách. Základní registry, tedy Registr práv a povinností (RPP), Informační systém základních registrů (ISZR) a Registr obyvatel (ROB), jsou jedním z pilířů veřejné správy. Denně
… více »maj tam nějakou trial verzi hele tak to mužeš zkusit ale asi ti to nepojede :O :O
Odporučil by som znížiť rozlíšenie skenovania, ak nie sú zdrojové súbory k dispozícii.Předpokládanám, že jsi to radil především kvůli tomu, aby se tečky slily, jinak je to pouze cesta, jak ztratit další procento obrazové informace. Správná cesta je získat co nejlepší sken, a pak laborovat s postprocessingem.
Len rozlíšenie bude musieť byť ešte menšie nech na tom nepohorí OCRJe to cesta, ale nikoliv nezbytně nutná. Během postprocessingu se to dá vyřešit filtrem co rozmázne skvrny podle barvy tím pádem lze cíleně „slít” pouze ty tečky. Pak už si s tím OCR poradí. Největší blbost je, tyhle materiály skenovat černobíle, nebo ve stupních šedi. Nejrychlejší je to mastit foťákem.
Vetsina originalu byla tisknuta 24 jehlickovymi tiskarnami, novejsi laserovkou, nektere jsou fotokopie. S kvalitou scanu fakt problem neni, zabyvam se tim uz snad 2 roky. Jde o software. Abbyy je kralem, predtim se jeste pouzivala Recognita. Zadny opensource se kvalitou OCR k temto nepriblizil.
To mozna puvodni tazatel. Jak poznamenava Alesuv prispevek DjVu ma nejake vychytavky navic, hlavne velikost je zajimava. Vysledek ukladame:
djvutool, a přes volbu algoritmu a dalších parametrů mohu výsledek dost výrazně ovlivnit.
V minulosti jsem používal i zmíněné balíky pro win prostředí. Podle mne už dávno zastaraly. V linuxovém prostředí je výborný nástroj pro zpracování PDF, který podporuje i OCR Master PDF Editor, který využívá právě tesseract. Dokonce má i nějakou podporu učení.
Já toho moc nevyužívám. Stránky na které pouštím OCR to většinou neopotřebují. Přeci jenom těch textů není zas tolik. Jen sem tam nějaká knížka. Ale jak jsem napsal, 20 let zkušeností.
Ovšem ten hlavním důvod, proč je na tohle DjVu lepší než PDF je ten, že lze do souboru vložit kontrolní součty všech vrstev, podepsané důvěryhodným certifikátem, takže je prakticky vyloučeno dodatečné zfixlování obrazové informace.Zatímco v PDF můžete podepsat verzi dokumentu důvěryhodným certifikátem, pak přidat novou verzi s textovou vrstvou (novou verzi můžete případně také podepsat). A pak můžete přidávat další verze s úpravami textové vrstvy. Takže je prakticky vyloučeno dodatečné zfixlování obrazové informace. V čem je tedy rozdíl oproti DjVu?
Zatímco v PDF můžete podepsat verzi dokumentu důvěryhodným certifikátem, pak přidat novou verzi s textovou vrstvou (novou verzi můžete případně také podepsat). A pak můžete přidávat další verze s úpravami textové vrstvy.Přiznám se, že zrovna tomuto moc nerozumím. Vím jak vypadá PDF a není mi jasné proč by měla být verzována zrovna textová vrstva, která má za cíl usnadnit vyhledání informace v obrazové vrstvě. Z DjVu dokumentu nikdy nelze vyrobit dokument, který by bylo možné zaměnit s originálem. To v prvé řadě. Je technicky nemožné, z něj vytáhnout obrazovou vrstvu a dodatečně do ní vlepit něco jiného. Což u PDF neplatí. A pokud to PDF bude falšovat osoba s přístupem k důvěryhodnému certifikátu, neodhalíte nic. DjVu formát navíc umožňuje vlepit i originální sken v jpeg2000. Prakticky se to ale nedělá. Prohlížeče s tím nepočítají a výsledný soubor by byl moc velký, takže např. archive.org udržuje originální skeny v tomhle formátu v samostatných archivech.
Tiskni
Sdílej: