Microsoft poskytl FBI uživatelské šifrovací klíče svého nástroje BitLocker, nutné pro odemčení dat uložených na discích třech počítačů zabavených v rámci federálního vyšetřování. Tento krok je prvním známým případem, kdy Microsoft poskytl klíče BitLockeru orgánům činným v trestním řízení. BitLocker je nástroj pro šifrování celého disku, který je ve Windows defaultně zapnutý. Tato technologie by správně měla bránit komukoli kromě
… více »Spotify prostřednictvím svého FOSS fondu rozdělilo 70 000 eur mezi tři open source projekty: FFmpeg obdržel 30 000 eur, Mock Service Worker (MSW) obdržel 15 000 eur a Xiph.Org Foundation obdržela 25 000 eur.
Nazdar! je open source počítačová hra běžící také na Linuxu. Zdrojové kódy jsou k dispozici na GitHubu. Autorem je Michal Škoula.
Po více než třech letech od vydání verze 1.4.0 byla vydána nová verze 1.5.0 správce balíčků GNU Guix a na něm postavené stejnojmenné distribuci GNU Guix. S init systémem a správcem služeb GNU Shepherd. S experimentální podporou jádra GNU Hurd. Na vývoji se podílelo 744 vývojářů. Přibylo 12 525 nových balíčků. Jejich aktuální počet je 30 011. Aktualizována byla také dokumentace.
Na adrese gravit.huan.cz se objevila prezentace minimalistického redakčního systému GravIT. CMS je napsaný ve FastAPI a charakterizuje se především rychlým načítáním a jednoduchým ukládáním obsahu do textových souborů se syntaxí Markdown a YAML místo klasické databáze. GravIT cílí na uživatele, kteří preferují CMS s nízkými nároky, snadným verzováním (např. přes Git) a možností jednoduchého rozšiřování pomocí modulů. Redakční
… více »Tým Qwen (Alibaba Cloud) uvolnil jako open-source své modely Qwen3‑TTS pro převádění textu na řeč. Sada obsahuje modely VoiceDesign (tvorba hlasu dle popisu), CustomVoice (stylizace) a Base (klonování hlasu). Modely podporují syntézu deseti různých jazyků (čeština a slovenština chybí). Stránka projektu na GitHubu, natrénované modely jsou dostupné na Hugging Face. Distribuováno pod licencí Apache‑2.0.
Svobodný citační manažer Zotero (Wikipedie, GitHub) byl vydán v nové major verzi 8. Přehled novinek v příspěvku na blogu.
Byla vydána verze 1.93.0 programovacího jazyka Rust (Wikipedie). Podrobnosti v poznámkách k vydání. Vyzkoušet Rust lze například na stránce Rust by Example.
Svobodný operační systém ReactOS (Wikipedie), jehož cílem je kompletní binární kompatibilita s aplikacemi a ovladači pro Windows, slaví 30. narozeniny.
Společnost Raspberry Pi má nově v nabídce flash disky Raspberry Pi Flash Drive: 128 GB za 30 dolarů a 256 GB za 55 dolarů.
Hm. Takže. Pro většinů laiků je využití exif tagů zcela mimo rámec jejich chápání. Takže když jim řeknete, že je lepší popis fotografie ukládat rovnou DO souboru s obrázkem, obvykle zůstanou čumět jak vlaštovky na drát. Je-li to i váš případ, asi nemá cenu abyste četli dál. Pokud ale potřebujete operativně přehazovat informace, které se časem mohou stát klíčové, pak se vám může moje know-how hodit.
Mezi nástroje, bez kterých bych nedal ani ránu, patří xfce4-screenshoter (který mám namapovaný na klávesu Application) a Geeqie, který používám k editaci EXIF tagů o kterých jsem zde v rámci svého blogu publikoval více již před víc jak 11 lety. Viz
Když se objeví v některém z terminálů či oken na mé obrazovce informace, na jejíž prostudování zrovna nemám čas, stačí udělat screenshot a prostřednictvím geeqie do komentáře vložit URL a případně vložit i kus textu, který mě zajímá. Kdykoliv se pak mohu k této informaci vrátit a mám k dispozici nejenom údaje o tom co to je, ale i časové razítko kdy byl screenshot pořízen – ať už je mezi tím soubor se screenshotem přejmenován, přesunut nebo ořezán. Neztratí se, pokud je screenshot zpracován přes Gimp a uložen ve formátu co podporuje exif tagy.
Takto uloženou informaci lze klidně vyhodit z hlavy a kdykoliv se k ní, v případě potřeby, vrátit.
Využívám toho ale nejenom při práci.
Do pestré palety mých zájmů totiž patří také hrabání se v historii. To je pochopitelně spojeno se shromaďováním nejrůzmějších snímků, skenů a jiných elektronicky zpracovaných dokumentů, které jsou bez informace o původu zcela bezcenné. Ovšem pokud jsou tyhle informace v exif komentáři, lze s nimi dál pracovat. A tím se dostávám k impulsu, který mne přiměl k sepsání tohoto blogpostu.
Před nějakým časem jsem se začal hrabat v digitalizovaných matrikách a tím se dostal k otázce, jak to udělat, abych nemusel jejich obsah opakovaně luštit a případně ho mohl dále zpracovávat už v nějaké rozumné formě.
Nevím kdo z vás se zajímá o genealogii, proto si neodpustím alespoň letmý úvod do problematiky.
Matriky, jsou úřední seznamy osob, ve kterých se evidují základní informace o narození, úmrtí a sňatku. Ale nejsou s námi odjakživa, takže počítejte s tím, že se při pátrání po svém původu v drtivé většině případů dostanete maximálně 10 generací zpátky. Jen pro zajímavost – od Ježíšových vrstevníků nás nedělí (mým letmým odhadem) víc než 70 generací.
Až na výjimky se u nás matriky začaly vést až v průběhu 17. století, po 30 leté válce. Jelikož předtím žádná evidence obyvatelstva nebyla, nikdo neví kolik lidí během ní vlastně zařvalo. Odhaduje se, že počet obyvatel v Evropě klesl v důsledku válečných útrap na polovinu, takže počátek evidence obyvatelstva byl nejspíš vyvolán potřebou zjistit, kdo tu válku vlastně přežil.
O matriky se původně starala církev. Mělo to svou logiku, kdo jiný než místní páter měl přehled o tom co se kde šustne. Byl u zdroje informací. V kostele se oznamovalo kdy a s kým se kdo hodlá oženit. Kostelem projela na poslední cestě většina nebožtíků a v kostele byli také pokřtěni. Bordel do toho vnesla až sekularizace 20 století, poté co tuhle agendu převzaly obecní úřady. O dnešní době informačního temna ani nemluvě.
K digitalizaci matrik Opavského archívu, ve kterých se hrabu já, došlo roce 2012 a možná vás, stejně jako mne, překvapí, že ji komplet zaplatili mormoni.
Jenže pouhá digitalizace ke zpřístupnění informací nestačí. To s čím se budete při čtení matrik potýkat nejvíc, je čtení prasopisu – a garantuji vám, že na tohle ještě hodně dlouho žádná umělá inteligence mít nebude.
Já to dávám jakž takž. Vždycky mne bavilo luštění klikyháků, takže toho mám docela dost načteno. Navíc texty v matrikách nejsou v zásadě nic složitého. Stačí když máte kromě češtiny nějaké ty znalosti němčiny a latiny. Také se většina textu často opakuje ale i tak je nutné mít bohaté zkušenosti a notnou dávku fantazie. Kupř. jen mé příjmení lze nalézt zapsáno a zkomoleno hned v několika podobách: Kapica, Kapitza, Kapicza, Kubitza, Pawlitza, & etc. Takže z ryze praktických důvodů jsem si začal psát přeluštěné texty rovnou do exif komentářů stažených skenů.
Ovšem aby se z těch jednotlivých záznamů daly dešifrovat konkrétní data je třeba nalézt vzájemné souvislosti. Obzvláště u žen, v matrikách z konce 17. století, kde se ještě nepsaly tzv. vývody, je k jednoznačné identifikaci nutné najít záznam o sňatku, ze kterého lze zjistit rodné jméno – teprve pak máte šanci zjistit kdy, kde a komu se konkrétní osoba narodila.
Typický záznam o narození vypadá takto: "Dne DD.MM.YYYY se narodila Jana, Jan Novák a Anna z XXX".
Je třeba najít záznam o sňatku. Jenže kdy se Novákovi vzali, a kde? Můžete zkusit postupně vyhledat všechny potomky. Jenže je Anna pokaždé jedna a táž osoba? Co když to byla druhá žena a první žena se také jmenovala Anna? Nezbývá než najít záznam o úmrtí. Jenže co když její manžel zemřel dříve a ona se mezi tím znovu vdala? Nebo co když umřela jinde? Atd. atd.
K tomu abyste snáze a rychleji našli vzájemné souvislosti, je optimální mít ty záznamy ve formě, kterou lze dále softwarově zpracovat. Tím se tedy konečně dostávám k věci.
Aby bylo možné záznamy třídit, bylo nutné sjednotit jejich formu tak, aby je bylo možné obsah exif tagu importovat do tabulkového procesoru. Jenže kdybych měl postupně editovat sken po skenu, tak bych se z toho asi zbláznil. Takže jsem nejprve vytvořil jednoduchý html soubor s vloženými tabulkami:
user@stroj~/matriky$ echo '<!DOCTYPE html><html lang="cs"><head><meta charset="utf-8" /><title>matriky</title></head><body>' > tabulka.html user@stroj~/matriky$ for i in $(ls -1 *.jpg) ; do exiftool -h -FileName -Caption-Abstract $i >> tabulka.html ; done user@stroj~/matriky$ echo '</body></html>' >> tabulka.html
Ten jsem naimportoval do tabulky v Libreoffice a následně uložil jako csv soubor. Sjednocení obsahu v rámci jednoho textového souboru je mnohem rychlejší, než editovat tabulku buňku po buňce, či snad editovat obrázek po obrázku.
A jak dostat data zpátky do souborů?
U csv souboru je to brnkačka. Stačí ho přežvýkat shellovým skriptem. Názvy souborů jsou v tabulce a oddělovače pro obsah, co se má pomocí exiftool vložit do komentáře se při tom nahradí HTML entitami.
Tiskni
Sdílej:
for i in $(ls -1 *.jpg) ; do -----> for i in *.jpg; do