Evropská komise zahájila tři vyšetřování týkající se cloudových platforem Amazon Web Services (AWS) a Microsoft Azure. Evropská exekutiva, která plní také funkci unijního antimonopolního orgánu, chce mimo jiné určit, zda jsou americké společnosti Microsoft a Amazon v cloudových službách takzvanými gatekeepery, tedy hráči, kteří významně ovlivňují provoz internetu a musí dle nařízení o digitálních trzích (DMA) na společném trhu
… více »Společnost Meta Platforms vyhrála ostře sledovaný spor o akvizici sítě pro sdílení fotografií Instagram a komunikační aplikace WhatsApp. Podle amerického soudu firma jejich převzetím neporušila antimonopolní zákon, protože si tak nemonopolizovala trh sociálních sítí. Žalobu na Metu podala před pěti lety americká Federální obchodní komise (FTC). FTC argumentovala, že Meta, tehdy známá jako Facebook, koupila tyto dvě společnosti v letech 2012 a 2014 proto, aby s nimi nemusela soutěžit.
Home Assistant včera představil svůj nejnovější oficiální hardware: Home Assistant Connect ZBT-2 pro připojení zařízení na sítích Zigbee nebo Thread.
Byla vydána verze 9.1 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a informačním videu.
Byl aktualizován seznam 500 nejvýkonnějších superpočítačů na světě TOP500. Nejvýkonnějším superpočítačem zůstává El Capitan od HPE (Cray) s výkonem 1,809 exaFLOPS. Druhý Frontier má výkon 1,353 exaFLOPS. Třetí Aurora má výkon 1,012 exaFLOPS. Nejvýkonnější superpočítač v Evropě JUPITER Booster s výkonem 1,000 exaFLOPS je na čtvrtém místě. Nejvýkonnější český superpočítač C24 klesl na 192. místo. Karolina, GPU partition klesla na 224. místo a Karolina, CPU partition na 450. místo. Další přehledy a statistiky na stránkách projektu.
Microsoft představil Azure Cobalt 200, tj. svůj vlastní SoC (System-on-Chip) postavený na ARM a optimalizovaný pro cloud.
Co způsobilo včerejší nejhorší výpadek Cloudflare od roku 2019? Nebyl to kybernetický útok. Vše začalo změnou oprávnění v jednom z databázových systémů a pokračovalo vygenerováním problém způsobujícího konfiguračního souboru a jeho distribucí na všechny počítače Cloudflare. Podrobně v příspěvku na blogu Cloudflare.
Byla vydána (Mastodon, 𝕏) první RC verze GIMPu 3.2. Přehled novinek v oznámení o vydání. Podrobně v souboru NEWS na GitLabu.
Eugen Rochko, zakladatel Mastodonu, tj. sociální sítě, která není na prodej, oznámil, že po téměř 10 letech odstupuje z pozice CEO a převádí vlastnictví ochranné známky a dalších aktiv na neziskovou organizaci Mastodon.
Byla vydána nová major verze 5.0 svobodného 3D softwaru Blender. Přehled novinek i s náhledy a videi v obsáhlých poznámkách k vydání. Videopředstavení na YouTube.
Nadace Raspberry Pi informuje, že Národní laboratoř Los Alamos ve spolupráci se společností BitScope staví cluster složený z 750 jednodeskových počítačů Raspberry Pi, tj. 3 000 jader. Jedná se o pilotní projekt. Příští rok by těchto počítačů mělo být v clustru přes 10 000, tj. 40 000 jader. BitScope dodává moduly BitScope Cluster se 150 Raspberry Pi. Ukázka na YouTube. Raspberry Pi jsou propojeny pomocí BitScope Bladů.
Tiskni
Sdílej:
kde jedno jádro má několikanásobný výkon oproti jednomu jádru rpi?Videl jsi vubec to video? Jim nejde vubec o vykon, ale o ten management okolo, ktery jenom tak nenasimulujes. Jeden z typickych problemu, na ktery na opravdu velkem clusteru narazis je, ze ti prubezne odumiraji jednotlive stroje. V lepsim pripade takovy uzel prestane komunikovat a je vyrazen. V horsim pripade se uzel zblazni, pocita dal a odesila chybne vysledky. Management clusteru musi byt schopen takove uzly najit a vypnout. Toto chovani se na komoditni hardwaru s par jadry simuluje hodne blbe.
Toto chovani se na komoditni hardwaru s par jadry simuluje hodne blbe.Protože chceš simulovat víc jader než máš ve skutečnosti, tak stejně musíš použít virtualizaci. A ty neumíš nasimulovat zbláznění virtuálu?
A ty neumíš nasimulovat zbláznění virtuálu?Ten clovek to tam nekolikrat zopakuje! V Los Alamos chcou/potrebuji cluster, ktery se bude chovat jako skutecny cluster, aby si na mensi skale mohli otestovat chovani systemu, inicializaci, odolnost proti vypadkum, atd. Je hezke, ze si dokazes nasimulovat ve virtuale zblazneni, ale porad je to jeden z mnoha scenaru, ktery musis testovat, a snad ti nemusim vysvetlovat, jak kreativni umi byt hardware pri svem selhavani, a ze radu veci jen tak nenasimulujes.
Spíš mi připadá, že amíci jsou neschopní myslet, ale mají dost peněz na rozhazování, jako obvykle.Prijde mi, ze tu zbytecne plytvas svym talentem. Musis s tim jit do Los Alamos k lidem z DARPA, DoE, NSF, kteri za tim projektem stoji a financuji jej, a vysvetlit jim, ze to vsechno delaji blbe, a hlavne jim musis vysvetlit, ze ty bys to rozhodne delal lip a levneji. Tady tve komentare nikomu nepomohou!
Chci to vysvětlit tady vám a doufám, že si to taky necháte pro sebe ,-)
Pokud mas ulohu, kterou vubec lze paralelizovat, tak jediny GPU zvladne nekolik tisic vypoctu zaroven, takze tech 40k poskladas i v "domacim" desktopu.GPU mají výpočetních jader AFAIK obvykle desítky nebo nižší stovky. Nehledě k tomu, jak už napsal Ivorne, že mají oproti CPU hodně omezené možnosti. Jinak jsou opravdu komentáře tohohle typu nutné? Zajímalo by mě, co vede někoho k chronickému psaní komentářů pod zprávičky, které sotva dávají smysl v kontextu diskuse (spíše ne), ale hlavněže co nejvíc pohejtují dané téma...
jak někdo vyrobí několik tun elektroodpadu místo toho, aby napsal pár řádek softu.to je tost nepresne a nemagogicke...
Pokud mas ulohu, kterou vubec lze paralelizovat, tak jediny GPU zvladne nekolik tisic vypoctu zaroven,Pokud mas ulohu, kterou lze paralelizovat a mas tam par if-u nebo cykly koncici pri splneni nejake podminky, tak ti GPU moc nepomuze. A to nemluvim o rekurzivnich algoritmech, ...
Rekurzivni algoritmus se neda paralelizovat ... protoze z principu rekurze zavisi na vysledku predchoziho vypoctu.Doporucuji dostudovat pojem rekurze a pak si treba pogooglit klicova slova "parallel quicksort" nebo "parallel mergesort". Jsou k tomu i jednominutova videa, kde ti to vysvetli i s obrazky. Nebo si muzes vyzkouset nasledujici kod (v Clojure) jestli opravdu nefunguje.
(defn fib [n]
(if (< n 2) n
(+ (fib (- n 1))
(fib (- n 2)))))
(defn pfib
"Parallel Fibonacci"
([n] (pfib n 2))
([n level]
(cond
(<= level 0) (fib n)
(< n 2) n
:else (let [a (future (pfib (- n 1) (dec level)))
b (future (pfib (- n 2) (dec level)))]
(+ @a @b)))))
The Raspberry Pi modules let developers figure out how to write this software and get it to work reliably without having a dedicated testbed of the same size, which would cost a quarter billion dollars and use 25 megawatts of electricity.Proste lidi, kteri potrebuji psat pro tyhle masiny, budou psat & ladit na tom RPi clusteru, a az pak temer-hotovej program muzou ladit & poustet na nejakem realnem clustru. Vzhledem k tomu co stoji provoz realnych clustru se to asi vyplati.
.
.
size_t, int32_t a k tomu všelijaký nápomocný makra.
.