Stanislav Fort, vedoucí vědecký pracovník z Vlčkovy 'kyberbezpečnostní' firmy AISLE, zkoumal dopady Anthropic Mythos (nový AI model od Anthropicu zaměřený na hledání chyb, který před nedávnem vyplašil celý svět) a předvedl, že schopnosti umělé inteligence nejsou lineárně závislé na velikosti nebo ceně modelu a dokázal, že i některé otevřené modely zvládly v řadě testů odhalit ve zdrojových kódech stejné chyby jako Mythos (například FreeBSD CVE-2026-4747) a to s výrazně nižšími provozními náklady.
Federální návrh zákona H.R.8250 'Parents Decide Act', 13. dubna předložený demokratem Joshem Gottheimerem a podpořený republikánkou Elise Stefanik coby spolupředkladatelkou (cosponsor), by v případě svého schválení nařizoval všem výrobcům operačních systémů při nastavování zařízení ověřovat věk uživatelů a při používání poskytovat tento věkový údaj aplikacím třetích stran. Hlavní rozdíl oproti kalifornskému zákonu AB 1043 a kolorádskému SB26-051 je ten, že federální návrh by platil rovnou pro celé USA.
Qwen (čínská firma Alibaba Cloud) představila novou verzi svého modelu, Qwen3.6‑35B‑A3B. Jedná se o multimodální MoE model s 35 miliardami parametrů (3B aktivních), nativní kontextovou délkou až 262 144 tokenů, 'silným multimodálním vnímáním a schopností uvažování' a 'výjimečnou schopností agentického kódování, která se může měřit s mnohem rozsáhlejšími modely'. Model a dokumentace jsou volně dostupné na Hugging Face, případně na čínském Modelscope. Návod na spuštění je už i na Unsloth.
Sniffnet, tj. multiplatformní (Windows, macOS a Linux) open source grafická aplikace pro sledování internetového provozu, byl vydán ve verzi 1.5. V přehledu novinek je vypíchnuta identifikace aplikací komunikujících po síti.
V programovacím jazyce Go naprogramovaná webová aplikace pro spolupráci na zdrojových kódech pomocí gitu Forgejo byla vydána ve verzi 15.0 (Mastodon). Forgejo je fork Gitei.
Současně se SUSECON 2026 proběhne příští čtvrtek v Praze také komunitní Open Developer Summit (ODS) zaměřený na open source a openSUSE. Akce se koná ve čtvrtek 23. 4. (poslední den SUSECONu) v Hilton Prague (místnost Berlin 3) a je zcela zdarma, bez nutnosti registrace na SUSECON. Na programu jsou témata jako automatizace (AutoYaST), DevOps, AI v terminálu, bezpečnost, RISC-V nebo image-based systémy. Všichni jste srdečně zváni.
Český úřad zeměměřický a katastrální zavedl u anonymního nahlížení do katastru nemovitostí novou CAPTCHA ve formě mapové puzzle: nepřihlášení uživatelé musí nově správně otočit devět dlaždic v 3x3 poli tak, aby dohromady daly souvislý obrázek výseče reálné mapy, přičemž na to mají pouze jeden časově omezený pokus. Test je podle uživatelů i odborníků příliš obtížný a na sociálních sítích pochopitelně schytává zaslouženou kritiku a
… více »Byla vydána verze 1.95.0 programovacího jazyka Rust (Wikipedie). Podrobnosti v poznámkách k vydání. Vyzkoušet Rust lze například na stránce Rust by Example.
Mozilla prostřednictvím své dceřiné společnosti MZLA Technologies Corporation představila open-source AI klienta Thunderbolt. Primárně je určený pro firemní nasazení.
Firma Cal.com oznámila, že přesouvá svůj produkční kód z otevřeného do uzavřeného repozitáře z důvodu bezpečnostního rizika umělé inteligence, která prý dokáže vyhledávat a zneužívat zranitelnosti rychleji, než by je jejich vývojářský tým stíhal opravovat. Zároveň zveřejnila samostatnou, open-source verzi Cal.diy pod licencí MIT, ovšem bez řady původních funkcí. O tom, zda je toto opatření rozumné, existují pochyby. … více »
Porad jenom slysime jakyto je Google zly velky bratr, Seznam drabem Internetu ....
Je realny provozovat vlastni vyhledavac ? Aby hledal prozatim jen v TLD cz.
Neni uz neco k dispozici hotovyho na zpusob nejake distribuce a nebo VM ?
Zacit to programovat neprichazi v uvahu.
Jaka by to byla masinerie ? Kapacita uloziste, RAM, CPU ....
Bylo by to vubec pouzitelne (vypocetni vykon, konektivita domacich parametru ....) ?
Spis to vidim jako Sci-Fi.
Co vy na to ?
Tiskni
Sdílej:
Ted jich ma pry pres milion.No taky už to není jen vyhledávač.
Seznam AFAIK indexuje jenom českou část webu.O tom se tady taky mluví. Aby hledal prozatim jen v TLD cz.
Přeju příjemnou zábavu ohledně návrhu algoritmů a nějakého distribuovaného výpočetního výkonu + úložiště.Zábava by to byla, ale open-source distribuované indexery a vyhledávače už existují. Pro amatérské použití dostačující až až. Link, odkud začít, jsem dával.
Zdar boyz, myslim ze minimal konfigurace pro ciste vyhledavani jen v .cz jsou tak 3-5 nabušené stroje. latence odpovědí ale nebudou moc růžový 
V Seznamu nam ted bezi test (vydeje) hledani asi na 6 strojich; databaze by se dala jeste trochu zmensit.
Myslim ze pro maly setupy bude spis vetsi zahul na stroje pro robota - obnova stranek, indexace a tak...
-- stepan
p2p vyhledávač je utopie, prostě ty latenci to zabíjejíLatence vzniká jednak pomalým uploadem od domácích uživatelů a jednak nízkým výkonem/kapacitou jejich počítačů. Co se týče toho prvního, je jen otázka, co je pro nás přijatelná latence – ano, Google odpoví prakticky hned, ale je třeba zpoždění 2-3 vteřiny už nepřijatelné? Pokud bych dostal relevantní výsledky, tak za to budu rád a řádově vteřinovou dobu si bez problémů počkám. A co se týče výkonu počítačů – jde o to, jak dobře ten systém umí škálovat, Google má sice „hodně“ serverů, ale používá ho „hodně“ lidí. Pokud by všichni přestali používat Google a místo toho obětovali nějaké procento výkonu svého počítače P2P vyhledávači, byl by celkový výkon mnohem větší, než co má Google teď.
Nebo se tomu jen o pár řádů přiblížit?O pár řádů? Vždyť mi k tomu chybí jen jeden řád. A to google indexoval mnohem větší rozsah než pouhou .cz.
)
(Btw, zajímalo by mně, co si MJ myslí o Egothoru ...)
Egothor is ... written entirely in Java.Mám své podezření

No to uz by tady chybel akorat Jara Cimrman
Akorát až by se vyhledávač trochu víc rozšířil, uživatelé by dost trpěli, protože by se jejich počítačů neustále někdo dotazoval. Leda mít na svém počítači i části cizích indexů, ale odpovídat jen na některé dotazy (tzn. prohledávat víc dat, ale méně často).
Zajimave reseni by bylo udelat to na zpusob Seti@Home, otazka ale zni, jestli by ta prace mela nejaky efekt. Googlu proste konkurovat tezko.
+ nejaky strojovy vykonNějaké 5U pro 52 SATA disků , k tomu deska pro 4x XEON MP , ke každému tak 32GB ECC Ramky. Odhadem jsem u ceny kolem 700 000.- což by třeba pro začátek stačilo.
Case cca 100 000,- 52x disk 2000GB tj. cca 200 000.- , Deska + cpu + ram + Arecca zbytek + nějaká pořádná GB-FC kartaJako úložiště by to snad mělo prozatím stačit
marketing ech echV dnešní době kdy i seznam hledá kde by udal nějakou reklamu je toto jistě těžké a lokální vyhledávač se bez reklamy neuživí. Kdybych hodně spekuloval tak si musí na sebe vydělat aspoň na provozní náklady. Chtělo by to nějakého dobrého sponzora třeba stát
moorov zakon hovori, ze o dvadsat rokov mozes googlu konkurovat aj s domacim desktopom.To není tak úplně pravda... za 20 let totiž může konkurovat googlu tak, jak vypadal před 20 lety... jelikož ten objem dat stále roste, tak mu to zase stačit nebude :)
Výkony počítačů jdou natolik nahoru, že dnes není třeba na vyhledávač mít farmy tisíců počítačů – pro začátek to klidně může běžet na jediném, naostro pak na pouhých několika – pokud se omezíte na určitý výsek internetu.Jinými slovy pokud chcete navrhnout vyhledávač, který skoro nic nenajde, vystačíte si s jedním počítačem. Pravda pravdoucí
Napsat vyhledávač není těžké. Chce to určitou znalost teorie.V zásadě ano. A také si umět poradit s obrovským množstvím dat, což už tak snadné není. A také s hromadou podvodníků, kteří se vás stále snaží ošidit. A s autory webových stránek, serverů a operačních systémů, kteří jsou neobyčejně kreativní v tom, jak si lze libovolný standard vyložit. (Něco maličko bych o tom věděl ;) )
Já sám jsem se pokoušel v minulosti přidat k několika open source skupinám, ale už jsem poučen a už to nikdy neudělám.Nemohu se ubránit dojmu, že je to dobrá zpráva O
Rozumím, že chápání sousloví jako "pro začátek", nebo "pokud se omezíte na určitý výsek internetu" jsou nad Vaše mentální možnosti.Nikolivěk, jen říkám, že abyste podstatně ušetřil na objemu dat, bude ten výsek muset být tak malý, že v něm nic užitečného nenajdete. (Nebo budete prohledávat konkrétní skupinku několika webů, na což vám pak zase stačí grep.)
A jaký je rozdíl v případě jakýchkoli reálných dat y téměř jakéhokoli prostředí?Obvykle tvoří většinu dat náhodný šum, zde tvoří většinu zlomyslně vyráběný šum. To je velký rozdíl.
Web je o to hůře, že ho bohužel standartizuje fušerská organizace W3C, která nebyla schopná ani nevrhnout gramatiku a způsob parsování HTMLW3C se pokud vím standartizací nezabývá (není to spolek vexilologů), co se standardizace týče, není na tom zase tak špatně. Starší verze HTML dost jasně říkaly, že se jedná o speciální případ SGML, a SGML má parsovací pravidla definovaná přesně. Přesný standard existuje, jen ho zdá se skoro nikdo nedočetl do konce.
Ukládání velkého množství dat je dnes snadnější, než kdy jindy. Kromě toho velikost dat se setsakra liší podle použitých datových struktur, což je část architektury hledače. Klidně i o mnoho řádů. Zde právě tvrdě závisí na zkušenostech a talentu člověka velmi mnoho.Obecné řeči. Pokud tvrdíte, že to umíte lépe než všichni na světě, račte to předvést. Pakliže předvedete, smekám před vaším talentem. Pakliže nikoliv, nejspíš vás budou považovat za tlučhubu.