Byl publikován aktuální přehled vývoje renderovacího jádra webového prohlížeče Servo (Wikipedie).
V programovacím jazyce Go naprogramovaná webová aplikace pro spolupráci na zdrojových kódech pomocí gitu Forgejo byla vydána ve verzi 12.0 (Mastodon). Forgejo je fork Gitei.
Nová čísla časopisů od nakladatelství Raspberry Pi zdarma ke čtení: Raspberry Pi Official Magazine 155 (pdf) a Hello World 27 (pdf).
Hyprland, tj. kompozitor pro Wayland zaměřený na dláždění okny a zároveň grafické efekty, byl vydán ve verzi 0.50.0. Podrobný přehled novinek na GitHubu.
Patrick Volkerding oznámil před dvaatřiceti lety vydání Slackware Linuxu 1.00. Slackware Linux byl tenkrát k dispozici na 3,5 palcových disketách. Základní systém byl na 13 disketách. Kdo chtěl grafiku, potřeboval dalších 11 disket. Slackware Linux 1.00 byl postaven na Linuxu .99pl11 Alpha, libc 4.4.1, g++ 2.4.5 a XFree86 1.3.
Ministerstvo pro místní rozvoj (MMR) jako první orgán státní správy v Česku spustilo takzvaný „bug bounty“ program pro odhalování bezpečnostních rizik a zranitelných míst ve svých informačních systémech. Za nalezení kritické zranitelnosti nabízí veřejnosti odměnu 1000 eur, v případě vysoké závažnosti je to 500 eur. Program se inspiruje přístupy běžnými v komerčním sektoru nebo ve veřejné sféře v zahraničí.
Vláda dne 16. července 2025 schválila návrh nového jednotného vizuálního stylu státní správy. Vytvořilo jej na základě veřejné soutěže studio Najbrt. Náklady na přípravu návrhu a metodiky činily tři miliony korun. Modernizovaný dvouocasý lev vychází z malého státního znaku. Vizuální styl doprovází originální písmo Czechia Sans.
Vyhledávač DuckDuckGo je podle webu DownDetector od 2:15 SELČ nedostupný. Opět fungovat začal na několik minut zhruba v 15:15. Další služby nesouvisející přímo s vyhledáváním, jako mapy a AI asistent jsou dostupné. Pro některé dotazy během výpadku stále funguje zobrazování například textu z Wikipedie.
Více než 600 aplikací postavených na PHP frameworku Laravel je zranitelných vůči vzdálenému spuštění libovolného kódu. Útočníci mohou zneužít veřejně uniklé konfigurační klíče APP_KEY (např. z GitHubu). Z více než 260 000 APP_KEY získaných z GitHubu bylo ověřeno, že přes 600 aplikací je zranitelných. Zhruba 63 % úniků pochází z .env souborů, které často obsahují i další citlivé údaje (např. přístupové údaje k databázím nebo cloudovým službám).
Open source modální textový editor Helix, inspirovaný editory Vim, Neovim či Kakoune, byl vydán ve verzi 25.07. Přehled novinek se záznamy terminálových sezení v asciinema v oznámení na webu. Detailně v CHANGELOGu na GitHubu.
... ale na stránkach Benes-sadrokarton by som niečo takéto nehľadal (viď screenshot).
Ale ako to už obvykle býva, vysvetlenie je jednoduché. Prepadnutá doména, špekulant, nie je to odkaz na pdf ale na stránku ktorá ponúka stiahnutie "zaručene pravej a legálnej verzie" knižky (mám ju doma v papierovej podobe, celkom podarená na pomery O'Reilly).
Tiskni
Sdílej:
Bohužel, web je čím dál více zamořený bezcenným automaticky generovaným obsahem. Často narazíš na „články“ náhodně poskládané z nakradených nebo vygenerovaných textů, do kterých jsou vložené (opět nakradené) obrázky. Na první pohled to vypadá relevantně, ale když to začneš číst, tak zjistíš, že to nedává smysl, že to neobsahuje žádnou hodnotnou informaci a že to ani nepsal člověk. Něco je strojově přeložené z jednoho jazyka do jiného, ale často nedával smysl ani ten původní text, ze kterého se překládalo. Do toho máš různé popisy produktů, programů, formátů atd. – opět automaticky vygenerované věty, aby toho bylo víc – z pár údajů které někde automaticky stáhli vyrobí odstavce textu.
apt-get install xyz
a autor si prostě nahání e-ego.
Dokud je autorem živá bytost, tak to má alespoň nějakou samoregulaci. Jistě, miliardy lidí na planetě dokáží vygenerovat spoustu zbytečného obsahu, ale stále je to řádově někde jinde, než když ten zbytečný obsah generuje počítač/AI.
Otázka je, jak ten obsah klasifikovat a najít v něm něco užitečného. Tady opět jsme/budeme odkázáni na nějakou AI. A to může vést k dost nepříjemným situacím. Ono už sama závislost na tak komplexní technologii je problém. Pak jde o to, kdo tu AI vytvoří, za jakým účelem a na jakých datech ji bude trénovat. To může vést k různým nežádoucím odchylkám (vývoje lidstva) a manipulacím.
Alternativou k AI může být nějaký reputační systém nebo fragmentace. Když např. budu vědět, že distribuce XY má hezky zpracovanou wiki plnou užitečných informací, tak můžu vyhledávat některé věci rovnou tam a ne na webu obecně. Tzn. rozpad na nějaké (polo)uzavřené skupiny a světy, se kterými budu mít zkušenost, že vědí něco zajímavého o určitém tématu. Tím se ten problém dělí do dvou kroků: nejdřív se ke mně musí dostat informace typu „o tématu X vědí něco skupiny/lidé A, B a C“, a pak už hledám konkrétní informaci u A, B a C.
Ono dost možná ten současný přístup, kdy zadám pár slov do jednoho univerzálního vyhledávacího pole, stisknu jedno univerzální tlačítko a čekám, že na první stránce výsledků dostanu to, co hledám, není dlouhodobě udržitelný a optimální.