Miliardy korun na digitalizaci služeb státu nestačily. Stát do ní v letech 2020 až 2024 vložil víc než 50 miliard korun, ale původní cíl se nepodařilo splnit. Od loňského února měly být služby státu plně digitalizované a občané měli mít právo komunikovat se státem digitálně. Do tohoto data se povedlo plně digitalizovat 18 procent agendových služeb státu. Dnes to uvedl Nejvyšší kontrolní úřad (NKÚ) v souhrnné zprávě o stavu digitalizace v Česku. Zpráva vychází z výsledků víc než 50 kontrol, které NKÚ v posledních pěti letech v tomto oboru uskutečnil.
Nadace Wikimedia, která je provozovatelem internetové encyklopedie Wikipedia, oznámila u příležitosti 25. výročí vzniku encyklopedie nové licenční dohody s firmami vyvíjejícími umělou inteligenci (AI). Mezi partnery encyklopedie tak nově patří Microsoft, Amazon a Meta Platforms, ale také start-up Perplexity a francouzská společnost Mistral AI. Wikimedia má podobnou dohodu od roku 2022 také se společností Google ze skupiny
… více »D7VK byl vydán ve verzi 1.2. Jedná se o fork DXVK implementující překlad volání Direct3D 5, 6 a 7 na Vulkan. DXVK zvládá Direct3D 8, 9, 10 a 11.
Byla vydána verze 12.0.0 knihovny libvirt (Wikipedie) zastřešující různé virtualizační technologie a vytvářející jednotné rozhraní pro správu virtuálních strojů. Současně byl ve verzi 12.0.0 vydán související modul pro Python libvirt-python. Přehled novinek v poznámkách k vydání.
CreepyLink.com je nový zkracovač URL adres, 'díky kterému budou vaše odkazy vypadat tak podezřele, jak je to jen možné'. Například odkaz na abclinuxu.cz tento zkracovač převádí do podoby 'https://netflix.web-safe.link/logger_8oIlgs_free_money.php'. Dle prohlášení autora je CreepyLink alternativou ke zkracovači ShadyURL (repozitář na githubu), který dnes již bohužel není v provozu.
Na blogu Raspberry Pi byla představena rozšiřující deska Raspberry Pi AI HAT+ 2 s akcelerátorem Hailo-10 a 8 GB RAM. Na rozdíl od předchozí Raspberry Pi AI HAT+ podporuje generativní AI. Cena desky je 130 dolarů.
Wikipedie slaví 25. výročí svého založení. Vznikla 15. ledna 2001 jako doplňkový projekt k dnes již neexistující encyklopedii Nupedia. Doména wikipedia.org byla zaregistrována 12. ledna 2001. Zítra proběhne v Praze Večer svobodné kultury, který pořádá spolek Wikimedia ČR.
Po více než dvou letech od vydání předchozí verze 2.12 byla vydána nová stabilní verze 2.14 systémového zavaděče GNU GRUB (GRand Unified Bootloader, Wikipedie). Přehled novinek v souboru NEWS a v aktualizované dokumentaci.
Google Chrome 144 byl prohlášen za stabilní. Nejnovější stabilní verze 144.0.7559.59 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 10 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře (YouTube).
Microsoft zveřejnil zdrojový kód XAML Studia a uvolnil ho pod MIT licencí. XAML Studio je nástroj ze světa Windows, určený pro tvorbu uživatelského rozhraní aplikací pomocí XAML (Extensible Application Markup Language). Stalo se tak zhruba po osmi letech od prvního prohlášení Microsoftu, že se tento kód chystá zveřejnit.
... ale na stránkach Benes-sadrokarton by som niečo takéto nehľadal (viď screenshot).
Ale ako to už obvykle býva, vysvetlenie je jednoduché. Prepadnutá doména, špekulant, nie je to odkaz na pdf ale na stránku ktorá ponúka stiahnutie "zaručene pravej a legálnej verzie" knižky (mám ju doma v papierovej podobe, celkom podarená na pomery O'Reilly).
Tiskni
Sdílej:
Bohužel, web je čím dál více zamořený bezcenným automaticky generovaným obsahem. Často narazíš na „články“ náhodně poskládané z nakradených nebo vygenerovaných textů, do kterých jsou vložené (opět nakradené) obrázky. Na první pohled to vypadá relevantně, ale když to začneš číst, tak zjistíš, že to nedává smysl, že to neobsahuje žádnou hodnotnou informaci a že to ani nepsal člověk. Něco je strojově přeložené z jednoho jazyka do jiného, ale často nedával smysl ani ten původní text, ze kterého se překládalo. Do toho máš různé popisy produktů, programů, formátů atd. – opět automaticky vygenerované věty, aby toho bylo víc – z pár údajů které někde automaticky stáhli vyrobí odstavce textu.
apt-get install xyz a autor si prostě nahání e-ego.
Dokud je autorem živá bytost, tak to má alespoň nějakou samoregulaci. Jistě, miliardy lidí na planetě dokáží vygenerovat spoustu zbytečného obsahu, ale stále je to řádově někde jinde, než když ten zbytečný obsah generuje počítač/AI.
Otázka je, jak ten obsah klasifikovat a najít v něm něco užitečného. Tady opět jsme/budeme odkázáni na nějakou AI. A to může vést k dost nepříjemným situacím. Ono už sama závislost na tak komplexní technologii je problém. Pak jde o to, kdo tu AI vytvoří, za jakým účelem a na jakých datech ji bude trénovat. To může vést k různým nežádoucím odchylkám (vývoje lidstva) a manipulacím.
Alternativou k AI může být nějaký reputační systém nebo fragmentace. Když např. budu vědět, že distribuce XY má hezky zpracovanou wiki plnou užitečných informací, tak můžu vyhledávat některé věci rovnou tam a ne na webu obecně. Tzn. rozpad na nějaké (polo)uzavřené skupiny a světy, se kterými budu mít zkušenost, že vědí něco zajímavého o určitém tématu. Tím se ten problém dělí do dvou kroků: nejdřív se ke mně musí dostat informace typu „o tématu X vědí něco skupiny/lidé A, B a C“, a pak už hledám konkrétní informaci u A, B a C.
Ono dost možná ten současný přístup, kdy zadám pár slov do jednoho univerzálního vyhledávacího pole, stisknu jedno univerzální tlačítko a čekám, že na první stránce výsledků dostanu to, co hledám, není dlouhodobě udržitelný a optimální.