Steve Jobs a superpočítač Cray-1 budou vyobrazeny na pamětních jednodolarových mincích vyražených v příštím roce v rámci série Americká inovace. Série má 57 mincí, tj. 57 inovací. Poslední 4 mince budou vyraženy v roce 2032.
Byl zveřejněn průběžně aktualizovaný program konference OpenAlt 2025 o otevřeném softwaru a datech, IT bezpečnosti, DIY a IoT. Konference proběhne o víkendu 1. a 2. listopadu v prostorách FIT VUT v Brně. Vstup je zdarma.
Senát včera opětovně nepřijal návrh ústavního zákona, který měl do Listiny základních práv a svobod zakotvit právo občanů platit v hotovosti nebo být off-line. Návrh předložila skupina senátorů již v roce 2023. Senát dnes návrh neschválil, ale ani nezamítl. Pokud by ho přijal, dostala by ho k projednání Sněmovna a vyjádřila by se k němu vláda.
V programovacím jazyce Go naprogramovaná webová aplikace pro spolupráci na zdrojových kódech pomocí gitu Forgejo byla vydána ve verzi 13.0 (Mastodon). Forgejo je fork Gitei.
Společnost Eclypsium se na svém blogu rozepsala o bezpečnostním problému počítačů Framework. Jedná se o zranitelnost v UEFI umožňující útočníkům obejít Secure Boot.
Editor kódů Zed (Wikipedie) po macOS a Linuxu s verzí 0.208.4 už běží také ve Windows.
Apple dnes představil 14palcový MacBook Pro, iPad Pro a Apple Vision Pro s novým čipem M5.
Debian pro mobilní zařízení Mobian (Wikipedie) byl vydán ve verzi 13 Trixie. Nová stabilní verze je k dispozici pro PINE64 PinePhone, PinePhone Pro a PineTab, Purism Librem 5, Google Pixel 3a a 3a XL, OnePlus 6 a 6T a Xiaomi Pocophone F1.
Operátor O2 představil tarif Datamanie 1200 GB . Nový tarif přináší 1200 GB dat s neomezenou 5G rychlostí, a také možnost neomezeného volání do všech sítí za 15 Kč na den. Při roční variantě předplatného zákazníci získají po provedení jednorázové platby celou porci dat najednou a mohou je bezstarostně čerpat kdykoli během roku. Do 13. listopadu jej O2 nabízí za zvýhodněných 2 988 Kč. Při průměrné spotřebě tak 100 GB dat vychází na 249 Kč měsíčně.
Byly publikovány informace o útoku na zařízení s Androidem pojmenovaném Pixnapping Attack (CVE-2025-48561). Aplikace může číst citlivá data zobrazovaná jinou aplikací. V demonstračním videu aplikace čte 2FA kódy z Google Authenticatoru.
Hm. Takže. Pro většinů laiků je využití exif tagů zcela mimo rámec jejich chápání. Takže když jim řeknete, že je lepší popis fotografie ukládat rovnou DO souboru s obrázkem, obvykle zůstanou čumět jak vlaštovky na drát. Je-li to i váš případ, asi nemá cenu abyste četli dál. Pokud ale potřebujete operativně přehazovat informace, které se časem mohou stát klíčové, pak se vám může moje know-how hodit.
Mezi nástroje, bez kterých bych nedal ani ránu, patří xfce4-screenshoter (který mám namapovaný na klávesu Application) a Geeqie, který používám k editaci EXIF tagů o kterých jsem zde v rámci svého blogu publikoval více již před víc jak 11 lety. Viz
Když se objeví v některém z terminálů či oken na mé obrazovce informace, na jejíž prostudování zrovna nemám čas, stačí udělat screenshot a prostřednictvím geeqie do komentáře vložit URL a případně vložit i kus textu, který mě zajímá. Kdykoliv se pak mohu k této informaci vrátit a mám k dispozici nejenom údaje o tom co to je, ale i časové razítko kdy byl screenshot pořízen – ať už je mezi tím soubor se screenshotem přejmenován, přesunut nebo ořezán. Neztratí se, pokud je screenshot zpracován přes Gimp a uložen ve formátu co podporuje exif tagy.
Takto uloženou informaci lze klidně vyhodit z hlavy a kdykoliv se k ní, v případě potřeby, vrátit.
Využívám toho ale nejenom při práci.
Do pestré palety mých zájmů totiž patří také hrabání se v historii. To je pochopitelně spojeno se shromaďováním nejrůzmějších snímků, skenů a jiných elektronicky zpracovaných dokumentů, které jsou bez informace o původu zcela bezcenné. Ovšem pokud jsou tyhle informace v exif komentáři, lze s nimi dál pracovat. A tím se dostávám k impulsu, který mne přiměl k sepsání tohoto blogpostu.
Před nějakým časem jsem se začal hrabat v digitalizovaných matrikách a tím se dostal k otázce, jak to udělat, abych nemusel jejich obsah opakovaně luštit a případně ho mohl dále zpracovávat už v nějaké rozumné formě.
Nevím kdo z vás se zajímá o genealogii, proto si neodpustím alespoň letmý úvod do problematiky.
Matriky, jsou úřední seznamy osob, ve kterých se evidují základní informace o narození, úmrtí a sňatku. Ale nejsou s námi odjakživa, takže počítejte s tím, že se při pátrání po svém původu v drtivé většině případů dostanete maximálně 10 generací zpátky. Jen pro zajímavost – od Ježíšových vrstevníků nás nedělí (mým letmým odhadem) víc než 70 generací.
Až na výjimky se u nás matriky začaly vést až v průběhu 17. století, po 30 leté válce. Jelikož předtím žádná evidence obyvatelstva nebyla, nikdo neví kolik lidí během ní vlastně zařvalo. Odhaduje se, že počet obyvatel v Evropě klesl v důsledku válečných útrap na polovinu, takže počátek evidence obyvatelstva byl nejspíš vyvolán potřebou zjistit, kdo tu válku vlastně přežil.
O matriky se původně starala církev. Mělo to svou logiku, kdo jiný než místní páter měl přehled o tom co se kde šustne. Byl u zdroje informací. V kostele se oznamovalo kdy a s kým se kdo hodlá oženit. Kostelem projela na poslední cestě většina nebožtíků a v kostele byli také pokřtěni. Bordel do toho vnesla až sekularizace 20 století, poté co tuhle agendu převzaly obecní úřady. O dnešní době informačního temna ani nemluvě.
K digitalizaci matrik Opavského archívu, ve kterých se hrabu já, došlo roce 2012 a možná vás, stejně jako mne, překvapí, že ji komplet zaplatili mormoni.
Jenže pouhá digitalizace ke zpřístupnění informací nestačí. To s čím se budete při čtení matrik potýkat nejvíc, je čtení prasopisu – a garantuji vám, že na tohle ještě hodně dlouho žádná umělá inteligence mít nebude.
Já to dávám jakž takž. Vždycky mne bavilo luštění klikyháků, takže toho mám docela dost načteno. Navíc texty v matrikách nejsou v zásadě nic složitého. Stačí když máte kromě češtiny nějaké ty znalosti němčiny a latiny. Také se většina textu často opakuje ale i tak je nutné mít bohaté zkušenosti a notnou dávku fantazie. Kupř. jen mé příjmení lze nalézt zapsáno a zkomoleno hned v několika podobách: Kapica, Kapitza, Kapicza, Kubitza, Pawlitza, & etc. Takže z ryze praktických důvodů jsem si začal psát přeluštěné texty rovnou do exif komentářů stažených skenů.
Ovšem aby se z těch jednotlivých záznamů daly dešifrovat konkrétní data je třeba nalézt vzájemné souvislosti. Obzvláště u žen, v matrikách z konce 17. století, kde se ještě nepsaly tzv. vývody, je k jednoznačné identifikaci nutné najít záznam o sňatku, ze kterého lze zjistit rodné jméno – teprve pak máte šanci zjistit kdy, kde a komu se konkrétní osoba narodila.
Typický záznam o narození vypadá takto: "Dne DD.MM.YYYY se narodila Jana, Jan Novák a Anna z XXX".
Je třeba najít záznam o sňatku. Jenže kdy se Novákovi vzali, a kde? Můžete zkusit postupně vyhledat všechny potomky. Jenže je Anna pokaždé jedna a táž osoba? Co když to byla druhá žena a první žena se také jmenovala Anna? Nezbývá než najít záznam o úmrtí. Jenže co když její manžel zemřel dříve a ona se mezi tím znovu vdala? Nebo co když umřela jinde? Atd. atd.
K tomu abyste snáze a rychleji našli vzájemné souvislosti, je optimální mít ty záznamy ve formě, kterou lze dále softwarově zpracovat. Tím se tedy konečně dostávám k věci.
Aby bylo možné záznamy třídit, bylo nutné sjednotit jejich formu tak, aby je bylo možné obsah exif tagu importovat do tabulkového procesoru. Jenže kdybych měl postupně editovat sken po skenu, tak bych se z toho asi zbláznil. Takže jsem nejprve vytvořil jednoduchý html soubor s vloženými tabulkami:
user@stroj~/matriky$ echo '<!DOCTYPE html><html lang="cs"><head><meta charset="utf-8" /><title>matriky</title></head><body>' > tabulka.html user@stroj~/matriky$ for i in $(ls -1 *.jpg) ; do exiftool -h -FileName -Caption-Abstract $i >> tabulka.html ; done user@stroj~/matriky$ echo '</body></html>' >> tabulka.html
Ten jsem naimportoval do tabulky v Libreoffice a následně uložil jako csv soubor. Sjednocení obsahu v rámci jednoho textového souboru je mnohem rychlejší, než editovat tabulku buňku po buňce, či snad editovat obrázek po obrázku.
A jak dostat data zpátky do souborů?
U csv souboru je to brnkačka. Stačí ho přežvýkat shellovým skriptem. Názvy souborů jsou v tabulce a oddělovače pro obsah, co se má pomocí exiftool vložit do komentáře se při tom nahradí HTML entitami.
Tiskni
Sdílej:
for i in $(ls -1 *.jpg) ; do -----> for i in *.jpg; do