Open source modální textový editor Helix, inspirovaný editory Vim, Neovim či Kakoune, byl vydán ve verzi 25.07. Přehled novinek se záznamy terminálových sezení v asciinema v oznámení na webu. Detailně v CHANGELOGu na GitHubu.
Americký výrobce čipů Nvidia získal od vlády prezidenta Donalda Trumpa souhlas s prodejem svých pokročilých počítačových čipů používaných k vývoji umělé inteligence (AI) H20 do Číny. Prodej těchto čipů speciálně upravených pro čínský trh by tak mohl být brzy obnoven, uvedla firma na svém blogu. Americká vláda zakázala prodej v dubnu, v době eskalace obchodního sporu mezi oběma zeměmi. Tehdy to zdůvodnila obavami, že by čipy mohla využívat čínská armáda.
3D software Blender byl vydán ve verzi 4.5 s prodlouženou podporou. Podrobnosti v poznámkách k vydání. Videopředstavení na YouTube.
Open source webový aplikační framework Django slaví 20. narozeniny.
V Brestu dnes začala konference vývojářů a uživatelů linuxové distribuce Debian DebConf25. Na programu je řada zajímavých přednášek. Sledovat je lze online.
Před 30 lety, tj. 14. července 1995, se začala používat přípona .mp3 pro soubory s hudbou komprimovanou pomocí MPEG-2 Audio Layer 3.
Výroba 8bitových domácích počítačů Commodore 64 byla ukončena v dubnu 1994. Po více než 30 letech byl představen nový oficiální Commodore 64 Ultimate (YouTube). S deskou postavenou na FPGA. Ve 3 edicích v ceně od 299 dolarů a plánovaným dodáním v říjnu a listopadu letošního roku.
Společnost Hugging Face ve spolupráci se společností Pollen Robotics představila open source robota Reachy Mini (YouTube). Předobjednat lze lite verzi za 299 dolarů a wireless verzi s Raspberry Pi 5 za 449 dolarů.
Dnes v 17:30 bude oficiálně vydána open source počítačová hra DOGWALK vytvořena v 3D softwaru Blender a herním enginu Godot. Release party proběhne na YouTube od 17:00.
McDonald's se spojil se společností Paradox a pracovníky nabírá také pomocí AI řešení s virtuální asistentkou Olivii běžící na webu McHire. Ian Carroll a Sam Curry se na toto AI řešení blíže podívali a opravdu je překvapilo, že se mohli přihlásit pomocí jména 123456 a hesla 123456 a získat přístup k údajům o 64 milionech uchazečů o práci.
kde jedno jádro má několikanásobný výkon oproti jednomu jádru rpi?Videl jsi vubec to video? Jim nejde vubec o vykon, ale o ten management okolo, ktery jenom tak nenasimulujes. Jeden z typickych problemu, na ktery na opravdu velkem clusteru narazis je, ze ti prubezne odumiraji jednotlive stroje. V lepsim pripade takovy uzel prestane komunikovat a je vyrazen. V horsim pripade se uzel zblazni, pocita dal a odesila chybne vysledky. Management clusteru musi byt schopen takove uzly najit a vypnout. Toto chovani se na komoditni hardwaru s par jadry simuluje hodne blbe.
Toto chovani se na komoditni hardwaru s par jadry simuluje hodne blbe.Protože chceš simulovat víc jader než máš ve skutečnosti, tak stejně musíš použít virtualizaci. A ty neumíš nasimulovat zbláznění virtuálu?
A ty neumíš nasimulovat zbláznění virtuálu?Ten clovek to tam nekolikrat zopakuje! V Los Alamos chcou/potrebuji cluster, ktery se bude chovat jako skutecny cluster, aby si na mensi skale mohli otestovat chovani systemu, inicializaci, odolnost proti vypadkum, atd. Je hezke, ze si dokazes nasimulovat ve virtuale zblazneni, ale porad je to jeden z mnoha scenaru, ktery musis testovat, a snad ti nemusim vysvetlovat, jak kreativni umi byt hardware pri svem selhavani, a ze radu veci jen tak nenasimulujes.
Spíš mi připadá, že amíci jsou neschopní myslet, ale mají dost peněz na rozhazování, jako obvykle.Prijde mi, ze tu zbytecne plytvas svym talentem. Musis s tim jit do Los Alamos k lidem z DARPA, DoE, NSF, kteri za tim projektem stoji a financuji jej, a vysvetlit jim, ze to vsechno delaji blbe, a hlavne jim musis vysvetlit, ze ty bys to rozhodne delal lip a levneji. Tady tve komentare nikomu nepomohou!
Pokud mas ulohu, kterou vubec lze paralelizovat, tak jediny GPU zvladne nekolik tisic vypoctu zaroven, takze tech 40k poskladas i v "domacim" desktopu.GPU mají výpočetních jader AFAIK obvykle desítky nebo nižší stovky. Nehledě k tomu, jak už napsal Ivorne, že mají oproti CPU hodně omezené možnosti. Jinak jsou opravdu komentáře tohohle typu nutné? Zajímalo by mě, co vede někoho k chronickému psaní komentářů pod zprávičky, které sotva dávají smysl v kontextu diskuse (spíše ne), ale hlavněže co nejvíc pohejtují dané téma...
jak někdo vyrobí několik tun elektroodpadu místo toho, aby napsal pár řádek softu.to je tost nepresne a nemagogicke...
Pokud mas ulohu, kterou vubec lze paralelizovat, tak jediny GPU zvladne nekolik tisic vypoctu zaroven,Pokud mas ulohu, kterou lze paralelizovat a mas tam par if-u nebo cykly koncici pri splneni nejake podminky, tak ti GPU moc nepomuze. A to nemluvim o rekurzivnich algoritmech, ...
Rekurzivni algoritmus se neda paralelizovat ... protoze z principu rekurze zavisi na vysledku predchoziho vypoctu.Doporucuji dostudovat pojem rekurze a pak si treba pogooglit klicova slova "parallel quicksort" nebo "parallel mergesort". Jsou k tomu i jednominutova videa, kde ti to vysvetli i s obrazky. Nebo si muzes vyzkouset nasledujici kod (v Clojure) jestli opravdu nefunguje.
(defn fib [n] (if (< n 2) n (+ (fib (- n 1)) (fib (- n 2))))) (defn pfib "Parallel Fibonacci" ([n] (pfib n 2)) ([n level] (cond (<= level 0) (fib n) (< n 2) n :else (let [a (future (pfib (- n 1) (dec level))) b (future (pfib (- n 2) (dec level)))] (+ @a @b)))))
The Raspberry Pi modules let developers figure out how to write this software and get it to work reliably without having a dedicated testbed of the same size, which would cost a quarter billion dollars and use 25 megawatts of electricity.Proste lidi, kteri potrebuji psat pro tyhle masiny, budou psat & ladit na tom RPi clusteru, a az pak temer-hotovej program muzou ladit & poustet na nejakem realnem clustru. Vzhledem k tomu co stoji provoz realnych clustru se to asi vyplati.
size_t
, int32_t
a k tomu všelijaký nápomocný makra.
Tiskni
Sdílej: