Ministerstvo financí ve spolupráci s finanční správou dnes představilo beta verzi aplikace využívající umělou inteligenci pro předvyplnění daňového přiznání. Není třeba přepisovat údaje z různých potvrzení, ani hledat správné řádky, kam údaje napsat. Stačí nahrát dokumenty a využít AI.
Výrobce počítačových periferií Keychron zveřejnil repozitář se schématy šasi klávesnic a myší. Licence je restriktivní, zakazuje většinu komerčních užití a v podstatě jsou tak data vhodná pouze pro výukové účely, hlášení a opravy chyb, případně výrobu vlastního příslušenství.
Správce balíčků APT, používaný v Debianu a odvozených distribucích, byl vydán ve verzi 3.2 (seznam změn). Mezi novinkami figurují nové příkazy pro práci s historií, včetně vracení transakcí.
Společnost Anthropic oznámila Projekt Glasswing a s ní související AI model Claude Mythos Preview. Jedná se o iniciativu zaměřenou na kybernetickou bezpečnost, do které se zapojily velké technologické společnosti Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA a Palo Alto Networks. Anthropic věří, že nový AI model Claude Mythos Preview dokáže
… více »Firma Ojective Development vydala svůj nástroj pro monitorování a řízení odchozích síťových připojení Little Snitch i pro operační systém Linux. Linuxová verze se skládá ze tří komponent: eBPF program pro zachytávání provozu a webové rozhraní jsou uvolněny pod GNU GPLv2 a dostupné na GitHubu (převážně Rust a JavaScript), jádro backendu je proprietární pod vlastní licencí, nicméně zdarma k použití a redistribuci (cena přitom normálně … více »
Vojenské zpravodajství (VZ) se v březnu zapojilo do mezinárodní operace proti aktivitám hackerské skupiny APT28, která je spojovaná s ruskou vojenskou zpravodajskou službou GRU a která přes slabě zabezpečené routery prováděla kybernetické útoky na státní a další organizace v ČR i zahraničí. Operaci vedl americký Federální úřad pro vyšetřování (FBI) a jejím cílem bylo odebrat útočníkům přístup k napadeným zařízením a ty následně … více »
Tvůrcem nejpopulárnější kryptoměny bitcoin, který se skrývá za pseudonymem Satoši Nakamoto (Satoshi Nakamoto), je britský kryptograf Adam Back. Na základě vlastní investigativní práce to tvrdí americký deník The New York Times (NYT). Několik indicií podle autorů jasně ukazuje na to, že Back a Nakamoto jsou stejný člověk. Jde mimo jiné o podobný odborný a osobnostní profil či totožné chyby a manýry v psaném projevu.
Google Chrome 147 byl prohlášen za stabilní. Nejnovější stabilní verze 147.0.7727.55 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Vylepšeny byly také nástroje pro vývojáře. Přehled novinek v Chrome DevTools 145 až 147 také na YouTube.
Vývojáři z Laboratoří CZ.NIC vydali nové verze aplikací Datovka (Datovka 4.29.0, Mobilní Datovka 2.6.2). V případě desktopové verze přibyly možnosti projít všechny uložené zprávy, zkontrolovat časy expirací časových razítek a přerazítkovat datové zprávy, které lze v ISDS přerazítkovat. Novinkou je také možnost vytahovat myší ze seznamu ZFO soubory datových zpráv, tento úkon jde udělat i pomocí tlačítek Ctrl+C. Nová verze Mobilní Datovky přináší jen drobné úpravy.
MicroPython (Wikipedie), tj. implementace Pythonu 3 optimalizovaná pro jednočipové počítače, byl vydán ve verzi 1.28.0. Z novinek lze vypíchnout novou třídu machine.CAN.
Nadace Raspberry Pi informuje, že Národní laboratoř Los Alamos ve spolupráci se společností BitScope staví cluster složený z 750 jednodeskových počítačů Raspberry Pi, tj. 3 000 jader. Jedná se o pilotní projekt. Příští rok by těchto počítačů mělo být v clustru přes 10 000, tj. 40 000 jader. BitScope dodává moduly BitScope Cluster se 150 Raspberry Pi. Ukázka na YouTube. Raspberry Pi jsou propojeny pomocí BitScope Bladů.
Tiskni
Sdílej:
kde jedno jádro má několikanásobný výkon oproti jednomu jádru rpi?Videl jsi vubec to video? Jim nejde vubec o vykon, ale o ten management okolo, ktery jenom tak nenasimulujes. Jeden z typickych problemu, na ktery na opravdu velkem clusteru narazis je, ze ti prubezne odumiraji jednotlive stroje. V lepsim pripade takovy uzel prestane komunikovat a je vyrazen. V horsim pripade se uzel zblazni, pocita dal a odesila chybne vysledky. Management clusteru musi byt schopen takove uzly najit a vypnout. Toto chovani se na komoditni hardwaru s par jadry simuluje hodne blbe.
Toto chovani se na komoditni hardwaru s par jadry simuluje hodne blbe.Protože chceš simulovat víc jader než máš ve skutečnosti, tak stejně musíš použít virtualizaci. A ty neumíš nasimulovat zbláznění virtuálu?
A ty neumíš nasimulovat zbláznění virtuálu?Ten clovek to tam nekolikrat zopakuje! V Los Alamos chcou/potrebuji cluster, ktery se bude chovat jako skutecny cluster, aby si na mensi skale mohli otestovat chovani systemu, inicializaci, odolnost proti vypadkum, atd. Je hezke, ze si dokazes nasimulovat ve virtuale zblazneni, ale porad je to jeden z mnoha scenaru, ktery musis testovat, a snad ti nemusim vysvetlovat, jak kreativni umi byt hardware pri svem selhavani, a ze radu veci jen tak nenasimulujes.
Spíš mi připadá, že amíci jsou neschopní myslet, ale mají dost peněz na rozhazování, jako obvykle.Prijde mi, ze tu zbytecne plytvas svym talentem. Musis s tim jit do Los Alamos k lidem z DARPA, DoE, NSF, kteri za tim projektem stoji a financuji jej, a vysvetlit jim, ze to vsechno delaji blbe, a hlavne jim musis vysvetlit, ze ty bys to rozhodne delal lip a levneji. Tady tve komentare nikomu nepomohou!
Chci to vysvětlit tady vám a doufám, že si to taky necháte pro sebe ,-)
Pokud mas ulohu, kterou vubec lze paralelizovat, tak jediny GPU zvladne nekolik tisic vypoctu zaroven, takze tech 40k poskladas i v "domacim" desktopu.GPU mají výpočetních jader AFAIK obvykle desítky nebo nižší stovky. Nehledě k tomu, jak už napsal Ivorne, že mají oproti CPU hodně omezené možnosti. Jinak jsou opravdu komentáře tohohle typu nutné? Zajímalo by mě, co vede někoho k chronickému psaní komentářů pod zprávičky, které sotva dávají smysl v kontextu diskuse (spíše ne), ale hlavněže co nejvíc pohejtují dané téma...
jak někdo vyrobí několik tun elektroodpadu místo toho, aby napsal pár řádek softu.to je tost nepresne a nemagogicke...
Pokud mas ulohu, kterou vubec lze paralelizovat, tak jediny GPU zvladne nekolik tisic vypoctu zaroven,Pokud mas ulohu, kterou lze paralelizovat a mas tam par if-u nebo cykly koncici pri splneni nejake podminky, tak ti GPU moc nepomuze. A to nemluvim o rekurzivnich algoritmech, ...
Rekurzivni algoritmus se neda paralelizovat ... protoze z principu rekurze zavisi na vysledku predchoziho vypoctu.Doporucuji dostudovat pojem rekurze a pak si treba pogooglit klicova slova "parallel quicksort" nebo "parallel mergesort". Jsou k tomu i jednominutova videa, kde ti to vysvetli i s obrazky. Nebo si muzes vyzkouset nasledujici kod (v Clojure) jestli opravdu nefunguje.
(defn fib [n]
(if (< n 2) n
(+ (fib (- n 1))
(fib (- n 2)))))
(defn pfib
"Parallel Fibonacci"
([n] (pfib n 2))
([n level]
(cond
(<= level 0) (fib n)
(< n 2) n
:else (let [a (future (pfib (- n 1) (dec level)))
b (future (pfib (- n 2) (dec level)))]
(+ @a @b)))))
The Raspberry Pi modules let developers figure out how to write this software and get it to work reliably without having a dedicated testbed of the same size, which would cost a quarter billion dollars and use 25 megawatts of electricity.Proste lidi, kteri potrebuji psat pro tyhle masiny, budou psat & ladit na tom RPi clusteru, a az pak temer-hotovej program muzou ladit & poustet na nejakem realnem clustru. Vzhledem k tomu co stoji provoz realnych clustru se to asi vyplati.
.
.
size_t, int32_t a k tomu všelijaký nápomocný makra.
.