Microsoft v příspěvku na svém blogu věnovaném open source oznámil, že textové adventury Zork I, Zork II a Zork III (Wikipedie) jsou oficiálně open source pod licencí MIT.
První prosincový týden proběhne SUSE Hack Week 25. Zaměstnanci SUSE mohou věnovat svůj pracovní čas libovolným open source projektům, například přidání AI agenta do Bugzilly, implementaci SSH v programovacím jazyce Zig nebo portaci klasických her na Linux. Připojit se může kdokoli.
Google oznámil, že Quick Share na Androidu funguje s AirDropem na iOS. Zatím na telefonech Pixel 10. Uživatelé tak mohou snadno přenášet soubory z telefonů s Androidem na iPhony a obráceně.
Byla vydána nová verze 8.5 (8.5.0) skriptovacího jazyka PHP používaného zejména k vývoji dynamických webových stránek. Přináší řadu novinek a vylepšení (URI Extension, Pipe Operator, Clone With, …). Vydána byla také příručka pro přechod z předchozích verzí.
Evropská komise zahájila tři vyšetřování týkající se cloudových platforem Amazon Web Services (AWS) a Microsoft Azure. Evropská exekutiva, která plní také funkci unijního antimonopolního orgánu, chce mimo jiné určit, zda jsou americké společnosti Microsoft a Amazon v cloudových službách takzvanými gatekeepery, tedy hráči, kteří významně ovlivňují provoz internetu a musí dle nařízení o digitálních trzích (DMA) na společném trhu
… více »Společnost Meta Platforms vyhrála ostře sledovaný spor o akvizici sítě pro sdílení fotografií Instagram a komunikační aplikace WhatsApp. Podle amerického soudu firma jejich převzetím neporušila antimonopolní zákon, protože si tak nemonopolizovala trh sociálních sítí. Žalobu na Metu podala před pěti lety americká Federální obchodní komise (FTC). FTC argumentovala, že Meta, tehdy známá jako Facebook, koupila tyto dvě společnosti v letech 2012 a 2014 proto, aby s nimi nemusela soutěžit.
Home Assistant včera představil svůj nejnovější oficiální hardware: Home Assistant Connect ZBT-2 pro připojení zařízení na sítích Zigbee nebo Thread.
Byla vydána verze 9.1 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a informačním videu.
Byl aktualizován seznam 500 nejvýkonnějších superpočítačů na světě TOP500. Nejvýkonnějším superpočítačem zůstává El Capitan od HPE (Cray) s výkonem 1,809 exaFLOPS. Druhý Frontier má výkon 1,353 exaFLOPS. Třetí Aurora má výkon 1,012 exaFLOPS. Nejvýkonnější superpočítač v Evropě JUPITER Booster s výkonem 1,000 exaFLOPS je na čtvrtém místě. Nejvýkonnější český superpočítač C24 klesl na 192. místo. Karolina, GPU partition klesla na 224. místo a Karolina, CPU partition na 450. místo. Další přehledy a statistiky na stránkách projektu.
Microsoft představil Azure Cobalt 200, tj. svůj vlastní SoC (System-on-Chip) postavený na ARM a optimalizovaný pro cloud.
pip install ollama-ocrAk nemáme, nainštalujeme ollamu
curl -fsSL https://ollama.com/install.sh | sha stiahneme príslušné modely.
ollama pull llama3.2-vision:11b ollama pull granite3.2-vision ollama pull moondreamBatch OCR všetkých obrázkov zo zadaného adresára napr batch_ocr.py:
from ollama_ocr import OCRProcessor
# Initialize OCR processor
ocr = OCRProcessor(model_name='granite3.2-vision', max_workers=4)
# Process multiple images with progress tracking
batch_results = ocr.process_batch(
input_path="/home/user/ocr",
format_type="markdown",
recursive=True,
preprocess=True,
custom_prompt="Extract all text, focusing on dates and names.",
language="English"
)
# Create and write OCR text results to individual text files
for file_path, text in batch_results['results'].items():
text_file_path = f"{file_path}.txt"
with open(text_file_path, "w", encoding="utf-8") as text_file:
text_file.write(text)
print(f"\nFile: {file_path}")
print(f"Extracted Text: {text}")
print("\nProcessing Statistics:")
print(f"Total images: {batch_results['statistics']['total']}")
print(f"Successfully processed: {batch_results['statistics']['successful']}")
print(f"Failed: {batch_results['statistics']['failed']}")
Nahádžeme obrázky do adresára /home/user/ocr. Spustíme skript
python3 batch_ocr.pya v adresári /home/user/ocr nájdeme txt súbory s OCR informáciou.
git clone https://github.com/imanoop7/Ollama-OCR.git cd Ollama-OCR pip install -r requirements.txt cd src/ollama_ocr streamlit run app.py
Tiskni
Sdílej:
A?
Takhle nějaký vzoreček na ukázku by nebyl? Abychom měli představu z čeho co vykouzlí a kolik dalšího sraní to pak ještě bude vyžadovat.
Ale je to AI, tak to musí být určitě lepší, ne? 
Pro mne to začne být zajímavé, až to zvládne i texty, jako je kupř. ten v příloze.
Běžný matriční záznam ze 17. století: 10. Junnius 1674 Joan Kurkowűts von [Li]ewiera, ein Wittiber mit Hedwig Capiczowna Won [J]omzowűtz beӳ Tarnowitz ein Wittib. Testis. Blaczech Kaluza. – link na originál.
Moje interpretace: 10.6.1674 [se oženil] Jan Kurkovic, z ?, vdovec (ein Wittiber) s (mit) Hedvikou, dcerou Kapicy (použití přípony -owna dokládá polský původ) z ? poblíž (bei) Tarnovic, vdovou (ein Wittib). Svědci (Testis) Plaček Kaluža.
Problém tohoto záznamu: Nejsem schopen blíže identifikovat obce ze kterých pocházeli. Tarnovice, od dob Jana Lucemburského patřící mezi země české koruny, jsou dnešní Tarnowskie Góry. V roce 1674 ještě pod legitimní vládou korunovaného (1656) českého krále Leopolda I. Habsburského. V oblasti, kterou si o 66 let později přivlastnilo Prusko (1740) a kterou roku 1922 rada Společnosti národů (takový předchůdce NATO, kde hrála prim Francie a Velká Británie) přiklepla obnovenému vazalskému Polsku, přestože si na ni brousilo zuby vazalské Československo (které by si tak interně vylepšilo poměr slovanů vůči germánům). Ale to je celkem fuk, protože dál do minulosti se už přes matriky stejně nedostanu. Starší záznamy (v češtině) (1654) jsou ještě stručnější. Který čech by se obtěžoval takovým detailem, jakým bylo jméno ženy 8-P, hlavně že to má datum.
Tak to si zřejmě ucvrnkneš štěstím, až tu po volbách zavládnou pořádky slovenského premiéra, když už ne tedy rovnou šéfredaktora. O přísloví „poturčenec horší turka” jsi slyšel?
No. Bez ruční práce to nepůjde, ale zefektivnit asi jo.
Každá slušná kniha obsahuje tiráž. Pokud máš mobil, který alespoň trochu slušně fotí, tak ber jednu po druhé na nacvakej si do něj ty tiráže. ALE JEN TIRÁŽ – tzn. že na té fotce bude jen tisk a bílé pozadí.
Ber polici po polici, ale systematicky.
Až s tím budeš hotov, přesuň ty fotky do kompu a můžeš na to poštvat netpbm. Abys neřekl, tady máš kolonu, kterou na to můžeš použít:
~# ${JPEGTOPNM} ${SOURCE} | \
${PAMCUT} -left 150 -width 1 | \
${PAMTOPNM} | \
${PPMTOPGM} | \
${PGMTOPBM} -threshold -value 0.5 > /tmp/strip.pbm
A na ten hotový soubor /tmp/strip.pbm poštvi tesseract a výstup ulož do souboru, pojmenovaného stejně jako ten snímek tiráže, akorát s příponou .txt. Výchozí soubor (snímek) ti poskytne přes exif čas pořízení snímku, který pak můžeš do těch souborů přidat.
A máš v podstatě k dispozici vše k tomu, abys mohl vygenerovat katalog a k němu adekvátní štítky s QR kódy, kterýma pak olepíš hřbety, ev. titulní listy těch knih.
Jak jsem napsal hned úvodem. Bez ruční práce se to neobejde a každou z těch knih budeš muset vzít minimálně jednou do ruky. Ale pak, až to budeš mít v těch textových souborech, už půjde hodně věcí automatizovat.
Ten čas je důležitý – pomůže ti setřídit ty soubory podle umístění knihy. Na konci police si cvakni třeba její číslo, nebo alespoň prázdný list. Pomůže ti to detekovat začátky a konce číselných řad.
A polepením je dobré pověřit nějakou pečlivou osobu, co nesere na to co dělá. Nemusí být moc chytrá ani zručná. Jenom by měla průběžně kontrolovat jestli lepí správný štítek do správné knihy.
Tak to si počkej až cbrpnk natrénuje tu Ollamu. Obávám se však, že do té doby zemřeš úderem do hlavy o ten regál, když si přišlápneš vous, co ti za tu dobu vyraší 8-D
ta tva predstava je stejne detinska jako kdyz muj 8 lety syn ma predstavu ze bude bydlet s nama i kdyz mu bude 30 let...Aby ses nedivil, zrovna mama-hotel ve třiceti je dnes celkem běžná věc.
Ochraptíš u prvního regálu. Nehledě na to, že ten "text2speech tool" si také schroustne nějaký ten čas a výpočetní výkon. Já na taková nástroj čekal přes 20 let, protože nebyl kdo by to za nějaký obolus překepal na stroji. A ta kvalita stejně není nic moc a vyžaduje korekci.
Chceš knížecí radu?
Zapomeň na rychlá řešení a začni něco dělat. Půjde to pomalu, ale jistě. Když počítáš na jednu knihu optimistických 30 sekund, tak s tím zabiješ 7 člověkodní při počtu 20 tis. publikací, a tolik jich tvá babi za svůj život nenastřádala. To se vsadím. Sám jich vlastním odhadem něco do tisícovky, včetně knihovny co jsem zdědil po bratranci, co byl podobný knihomol jako já.
Nedostatky tohoto řešení zmínil už Žako. Krom toho, tituly na hřbetu knih nejsou ani zdaleka samozřejmostí. Polovina knih co vlastním je nemá a mnoho jich ani nemá tiráž - samizdaty, archiválie, či hodně jeté rarity ulovené z antikvariátů.
Vím, že se opakuji, ale jsou oblasti na které AI nemá a nikdy mít nebude. Těžko ti najde knihu na základě pocitu a jen velice vágní vzpomínky na to co jsi kdysi dávno četl. Neví nic o tom, jak ra kniha byla velká, ani kde se přibližně ta pasáž nalézá. Takový Techický slovník Teyslerra Kotyšky má přes metr, ale také index. Ovšem mraky jiných knih nic takového nemají a přesto vím kde najdu založeno to co hledám.
reknu jednoduseji - mne nezajima, jak to nejde a proc to nejde.
Ale mělo by, příteli. Mělo by. Marně se neříká „dvakrát měř a jednou řež”. To máme u nás také jednoho takového, kterého to nezajímá, a pak se hrozně diví, kam až klesá priorita jeho požadavků.
Nemusíš se hnedka čertit. Tesseract není žádná AI, pracuje s hotovými modely které si musíš stáhnout, podle toho o jaký jazyk půjde. Umí zpracovat i frakturu, pokud máš ten správný model (tesseract-ocr-frk). Ale jsou prostě texty pro které žádný model není a nebude. Jako ten, který jsem uvedl.
K jejich vyluštění je totiž potřeba mraky jiných, zdánlivě nesouvisejících informací i jistou dávku intuice, kterou AI nemá.
Nechápu, proč se vždy stavíš proti všem do opozice.
To se ti jen zdá. Já jsem spočítal, kolik by mu asi tak zabralo zpracování tiráží. A když jsem odpovídal, šlo primárně o bezprostřední reakci na ten jeho šílený nápad – „to uz radsi si sednout a nahlas cist nazvy knih do mobilu azvukove soubory pak prehnat pres nejaky text2speech tool. akorat to by potrebovala nejakeho cloveka, co se mluvenim zivy, protoze cele hodiny cist (artikulovane, s durazem na cistotu vyslovovani), to by normalniho cloveka taky polozilo na lopatky (odrovnalo hlasivky).”
Text → Oko → Mozek → Prsty
vs.
Text → Oko → Mozek → Huba → audio záznam. a následně, audio záznam → Ucho → Mozek → Prsty
Kterážto realizace je (nejenom) časově mnohem náročnější. Je to stejně praštěné řešení, jako nahrávání dění na terminálu ve formátu mp4.
Na obrázku jsou viditelné následující knihy (některé názvy jsou částečně čitelné):API call stojí pár korun.Další knihy nejsou kvůli úhlu či rozlišení jasně čitelné. Pokud potřebuješ informace o nějaké konkrétní knize, dej mi vědět!
- Farmakologie
- Farmakoterapie vnitřních nemocí
- Barevný atlas farmakologie
- Mechanika zemin
- Úvod do informatiky
- Medicína
- Psychoterapeutické směry
- No vnímání umění
- Moderní fyziologie
- Společenský rozvoj
- Základy psychologie
- Klinická propedeutika
- Základy pediatrie
- Lékařská péče o dítě
- Anatomie člověka
- Chirurgie pro studenty medicíny
pip bez virtualneho environmentu? curl pipovany do shellu? ale no fuj!
Tady doporučují: „Řešením může být Tesseract který si ale musíš natrénovat.” Víc ti bohužel neporadím, protože tak do hloubky jsem s ním nikdy nedělal.
Já vím. Však jsem to nenabízel jako hotové řešení. Na té odkazované stránce píšou kde je kámen úrazu. Máš jenomdvě možnosti. Buď to zkusit. Nebo vyhledat někoho kdo to za patřičný obnos přepíše do počítače.