Hru Warhammer: Vermintide 2 (ProtonDB) lze na Steamu získat zdarma napořád, když aktivaci provedete do pondělí 24. listopadu.
Virtualizační software Xen (Wikipedie) byl vydán v nové verzi 4.21. Podrobnosti v poznámkách k vydání a přehledu nových vlastností.
Evropská komise schválila český plán na poskytnutí státní pomoci v objemu 450 milionů eur (téměř 11 miliard Kč) na rozšíření výroby amerického producenta polovodičů onsemi v Rožnově pod Radhoštěm. Komise o tom informovala v dnešní tiskové zprávě. Společnost onsemi by podle ní do nového závodu v Rožnově pod Radhoštěm měla investovat 1,64 miliardy eur (téměř 40 miliard Kč).
Microsoft v příspěvku na svém blogu věnovaném open source oznámil, že textové adventury Zork I, Zork II a Zork III (Wikipedie) jsou oficiálně open source pod licencí MIT.
První prosincový týden proběhne SUSE Hack Week 25. Zaměstnanci SUSE mohou věnovat svůj pracovní čas libovolným open source projektům, například přidání AI agenta do Bugzilly, implementaci SSH v programovacím jazyce Zig nebo portaci klasických her na Linux. Připojit se může kdokoli.
Google oznámil, že Quick Share na Androidu funguje s AirDropem na iOS. Zatím na telefonech Pixel 10. Uživatelé tak mohou snadno přenášet soubory z telefonů s Androidem na iPhony a obráceně.
Byla vydána nová verze 8.5 (8.5.0) skriptovacího jazyka PHP používaného zejména k vývoji dynamických webových stránek. Přináší řadu novinek a vylepšení (URI Extension, Pipe Operator, Clone With, …). Vydána byla také příručka pro přechod z předchozích verzí.
Evropská komise zahájila tři vyšetřování týkající se cloudových platforem Amazon Web Services (AWS) a Microsoft Azure. Evropská exekutiva, která plní také funkci unijního antimonopolního orgánu, chce mimo jiné určit, zda jsou americké společnosti Microsoft a Amazon v cloudových službách takzvanými gatekeepery, tedy hráči, kteří významně ovlivňují provoz internetu a musí dle nařízení o digitálních trzích (DMA) na společném trhu
… více »Společnost Meta Platforms vyhrála ostře sledovaný spor o akvizici sítě pro sdílení fotografií Instagram a komunikační aplikace WhatsApp. Podle amerického soudu firma jejich převzetím neporušila antimonopolní zákon, protože si tak nemonopolizovala trh sociálních sítí. Žalobu na Metu podala před pěti lety americká Federální obchodní komise (FTC). FTC argumentovala, že Meta, tehdy známá jako Facebook, koupila tyto dvě společnosti v letech 2012 a 2014 proto, aby s nimi nemusela soutěžit.
Home Assistant včera představil svůj nejnovější oficiální hardware: Home Assistant Connect ZBT-2 pro připojení zařízení na sítích Zigbee nebo Thread.
Hm. Takže. Pro většinů laiků je využití exif tagů zcela mimo rámec jejich chápání. Takže když jim řeknete, že je lepší popis fotografie ukládat rovnou DO souboru s obrázkem, obvykle zůstanou čumět jak vlaštovky na drát. Je-li to i váš případ, asi nemá cenu abyste četli dál. Pokud ale potřebujete operativně přehazovat informace, které se časem mohou stát klíčové, pak se vám může moje know-how hodit.
Mezi nástroje, bez kterých bych nedal ani ránu, patří xfce4-screenshoter (který mám namapovaný na klávesu Application) a Geeqie, který používám k editaci EXIF tagů o kterých jsem zde v rámci svého blogu publikoval více již před víc jak 11 lety. Viz
Když se objeví v některém z terminálů či oken na mé obrazovce informace, na jejíž prostudování zrovna nemám čas, stačí udělat screenshot a prostřednictvím geeqie do komentáře vložit URL a případně vložit i kus textu, který mě zajímá. Kdykoliv se pak mohu k této informaci vrátit a mám k dispozici nejenom údaje o tom co to je, ale i časové razítko kdy byl screenshot pořízen – ať už je mezi tím soubor se screenshotem přejmenován, přesunut nebo ořezán. Neztratí se, pokud je screenshot zpracován přes Gimp a uložen ve formátu co podporuje exif tagy.
Takto uloženou informaci lze klidně vyhodit z hlavy a kdykoliv se k ní, v případě potřeby, vrátit.
Využívám toho ale nejenom při práci.
Do pestré palety mých zájmů totiž patří také hrabání se v historii. To je pochopitelně spojeno se shromaďováním nejrůzmějších snímků, skenů a jiných elektronicky zpracovaných dokumentů, které jsou bez informace o původu zcela bezcenné. Ovšem pokud jsou tyhle informace v exif komentáři, lze s nimi dál pracovat. A tím se dostávám k impulsu, který mne přiměl k sepsání tohoto blogpostu.
Před nějakým časem jsem se začal hrabat v digitalizovaných matrikách a tím se dostal k otázce, jak to udělat, abych nemusel jejich obsah opakovaně luštit a případně ho mohl dále zpracovávat už v nějaké rozumné formě.
Nevím kdo z vás se zajímá o genealogii, proto si neodpustím alespoň letmý úvod do problematiky.
Matriky, jsou úřední seznamy osob, ve kterých se evidují základní informace o narození, úmrtí a sňatku. Ale nejsou s námi odjakživa, takže počítejte s tím, že se při pátrání po svém původu v drtivé většině případů dostanete maximálně 10 generací zpátky. Jen pro zajímavost – od Ježíšových vrstevníků nás nedělí (mým letmým odhadem) víc než 70 generací.
Až na výjimky se u nás matriky začaly vést až v průběhu 17. století, po 30 leté válce. Jelikož předtím žádná evidence obyvatelstva nebyla, nikdo neví kolik lidí během ní vlastně zařvalo. Odhaduje se, že počet obyvatel v Evropě klesl v důsledku válečných útrap na polovinu, takže počátek evidence obyvatelstva byl nejspíš vyvolán potřebou zjistit, kdo tu válku vlastně přežil.
O matriky se původně starala církev. Mělo to svou logiku, kdo jiný než místní páter měl přehled o tom co se kde šustne. Byl u zdroje informací. V kostele se oznamovalo kdy a s kým se kdo hodlá oženit. Kostelem projela na poslední cestě většina nebožtíků a v kostele byli také pokřtěni. Bordel do toho vnesla až sekularizace 20 století, poté co tuhle agendu převzaly obecní úřady. O dnešní době informačního temna ani nemluvě.
K digitalizaci matrik Opavského archívu, ve kterých se hrabu já, došlo roce 2012 a možná vás, stejně jako mne, překvapí, že ji komplet zaplatili mormoni.
Jenže pouhá digitalizace ke zpřístupnění informací nestačí. To s čím se budete při čtení matrik potýkat nejvíc, je čtení prasopisu – a garantuji vám, že na tohle ještě hodně dlouho žádná umělá inteligence mít nebude.
Já to dávám jakž takž. Vždycky mne bavilo luštění klikyháků, takže toho mám docela dost načteno. Navíc texty v matrikách nejsou v zásadě nic složitého. Stačí když máte kromě češtiny nějaké ty znalosti němčiny a latiny. Také se většina textu často opakuje ale i tak je nutné mít bohaté zkušenosti a notnou dávku fantazie. Kupř. jen mé příjmení lze nalézt zapsáno a zkomoleno hned v několika podobách: Kapica, Kapitza, Kapicza, Kubitza, Pawlitza, & etc. Takže z ryze praktických důvodů jsem si začal psát přeluštěné texty rovnou do exif komentářů stažených skenů.
Ovšem aby se z těch jednotlivých záznamů daly dešifrovat konkrétní data je třeba nalézt vzájemné souvislosti. Obzvláště u žen, v matrikách z konce 17. století, kde se ještě nepsaly tzv. vývody, je k jednoznačné identifikaci nutné najít záznam o sňatku, ze kterého lze zjistit rodné jméno – teprve pak máte šanci zjistit kdy, kde a komu se konkrétní osoba narodila.
Typický záznam o narození vypadá takto: "Dne DD.MM.YYYY se narodila Jana, Jan Novák a Anna z XXX".
Je třeba najít záznam o sňatku. Jenže kdy se Novákovi vzali, a kde? Můžete zkusit postupně vyhledat všechny potomky. Jenže je Anna pokaždé jedna a táž osoba? Co když to byla druhá žena a první žena se také jmenovala Anna? Nezbývá než najít záznam o úmrtí. Jenže co když její manžel zemřel dříve a ona se mezi tím znovu vdala? Nebo co když umřela jinde? Atd. atd.
K tomu abyste snáze a rychleji našli vzájemné souvislosti, je optimální mít ty záznamy ve formě, kterou lze dále softwarově zpracovat. Tím se tedy konečně dostávám k věci.
Aby bylo možné záznamy třídit, bylo nutné sjednotit jejich formu tak, aby je bylo možné obsah exif tagu importovat do tabulkového procesoru. Jenže kdybych měl postupně editovat sken po skenu, tak bych se z toho asi zbláznil. Takže jsem nejprve vytvořil jednoduchý html soubor s vloženými tabulkami:
user@stroj~/matriky$ echo '<!DOCTYPE html><html lang="cs"><head><meta charset="utf-8" /><title>matriky</title></head><body>' > tabulka.html user@stroj~/matriky$ for i in $(ls -1 *.jpg) ; do exiftool -h -FileName -Caption-Abstract $i >> tabulka.html ; done user@stroj~/matriky$ echo '</body></html>' >> tabulka.html
Ten jsem naimportoval do tabulky v Libreoffice a následně uložil jako csv soubor. Sjednocení obsahu v rámci jednoho textového souboru je mnohem rychlejší, než editovat tabulku buňku po buňce, či snad editovat obrázek po obrázku.
A jak dostat data zpátky do souborů?
U csv souboru je to brnkačka. Stačí ho přežvýkat shellovým skriptem. Názvy souborů jsou v tabulce a oddělovače pro obsah, co se má pomocí exiftool vložit do komentáře se při tom nahradí HTML entitami.
Tiskni
Sdílej:
for i in $(ls -1 *.jpg) ; do -----> for i in *.jpg; do