Firefox 149 dostupný od 24. března přinese bezplatnou vestavěnou VPN s 50 GB přenesených dat měsíčně (s CZ a SK se zatím nepočítá) a zobrazení dvou webových stránek vedle sebe v jednom panelu (split view). Firefox Labs 149 umožní přidat poznámky k panelům (tab notes, videoukázka).
Byla vydána nová stabilní verze 7.9 webového prohlížeče Vivaldi (Wikipedie). Postavena je na Chromiu 146. Přehled novinek i s náhledy v příspěvku na blogu.
Dle plánu byla vydána Opera GX pro Linux. Ke stažení je .deb i .rpm. V plánu je flatpak. Opera GX je webový prohlížeč zaměřený na hráče počítačových her.
GNUnet (Wikipedie) byl vydán v nové major verzi 0.27.0. Jedná se o framework pro decentralizované peer-to-peer síťování, na kterém je postavena řada aplikací.
Byly publikovány informace (technické detaily) o bezpečnostním problému Snapu. Jedná se o CVE-2026-3888. Neprivilegovaný lokální uživatel může s využitím snap-confine a systemd-tmpfiles získat práva roota.
Nightingale je open-source karaoke aplikace, která z jakékoliv písničky lokálního alba (včetně videí) dokáže oddělit vokály, získat text a vše přehrát se synchronizací na úrovni jednotlivých slov a hodnocením intonace. Pro separaci vokálů využívá UVR Karaoke model s Demucs od Mety, texty písní stahuje z lrclib.net (LRCLIB), případně extrahuje pomocí whisperX, který rovněž využívá k načasování slov. V případě audiosouborů aplikace na
… více »Po půl roce vývoje od vydání verze 49 bylo vydáno GNOME 50 s kódovým názvem Tokyo (Mastodon). Podrobný přehled novinek i s náhledy v poznámkách k vydání a v novinkách pro vývojáře.
Článek na stránkách Fedora Magazinu informuje o vydání Fedora Asahi Remixu 43, tj. linuxové distribuce pro Apple Silicon vycházející z Fedora Linuxu 43.
Byl zveřejněn program konference Installfest 2026. Konference proběhne o víkendu 28. a 29. března v Praze na Karlově náměstí 13. Vstup zdarma.
Byla vydána Java 26 / JDK 26. Nových vlastností (JEP - JDK Enhancement Proposal) je 10. Odstraněno bylo Applet API.
... ale na stránkach Benes-sadrokarton by som niečo takéto nehľadal (viď screenshot).
Ale ako to už obvykle býva, vysvetlenie je jednoduché. Prepadnutá doména, špekulant, nie je to odkaz na pdf ale na stránku ktorá ponúka stiahnutie "zaručene pravej a legálnej verzie" knižky (mám ju doma v papierovej podobe, celkom podarená na pomery O'Reilly).
Tiskni
Sdílej:
Bohužel, web je čím dál více zamořený bezcenným automaticky generovaným obsahem. Často narazíš na „články“ náhodně poskládané z nakradených nebo vygenerovaných textů, do kterých jsou vložené (opět nakradené) obrázky. Na první pohled to vypadá relevantně, ale když to začneš číst, tak zjistíš, že to nedává smysl, že to neobsahuje žádnou hodnotnou informaci a že to ani nepsal člověk. Něco je strojově přeložené z jednoho jazyka do jiného, ale často nedával smysl ani ten původní text, ze kterého se překládalo. Do toho máš různé popisy produktů, programů, formátů atd. – opět automaticky vygenerované věty, aby toho bylo víc – z pár údajů které někde automaticky stáhli vyrobí odstavce textu.
apt-get install xyz a autor si prostě nahání e-ego.
Dokud je autorem živá bytost, tak to má alespoň nějakou samoregulaci. Jistě, miliardy lidí na planetě dokáží vygenerovat spoustu zbytečného obsahu, ale stále je to řádově někde jinde, než když ten zbytečný obsah generuje počítač/AI.
Otázka je, jak ten obsah klasifikovat a najít v něm něco užitečného. Tady opět jsme/budeme odkázáni na nějakou AI. A to může vést k dost nepříjemným situacím. Ono už sama závislost na tak komplexní technologii je problém. Pak jde o to, kdo tu AI vytvoří, za jakým účelem a na jakých datech ji bude trénovat. To může vést k různým nežádoucím odchylkám (vývoje lidstva) a manipulacím.
Alternativou k AI může být nějaký reputační systém nebo fragmentace. Když např. budu vědět, že distribuce XY má hezky zpracovanou wiki plnou užitečných informací, tak můžu vyhledávat některé věci rovnou tam a ne na webu obecně. Tzn. rozpad na nějaké (polo)uzavřené skupiny a světy, se kterými budu mít zkušenost, že vědí něco zajímavého o určitém tématu. Tím se ten problém dělí do dvou kroků: nejdřív se ke mně musí dostat informace typu „o tématu X vědí něco skupiny/lidé A, B a C“, a pak už hledám konkrétní informaci u A, B a C.
Ono dost možná ten současný přístup, kdy zadám pár slov do jednoho univerzálního vyhledávacího pole, stisknu jedno univerzální tlačítko a čekám, že na první stránce výsledků dostanu to, co hledám, není dlouhodobě udržitelný a optimální.