Evropská komise zahájila tři vyšetřování týkající se cloudových platforem Amazon Web Services (AWS) a Microsoft Azure. Evropská exekutiva, která plní také funkci unijního antimonopolního orgánu, chce mimo jiné určit, zda jsou americké společnosti Microsoft a Amazon v cloudových službách takzvanými gatekeepery, tedy hráči, kteří významně ovlivňují provoz internetu a musí dle nařízení o digitálních trzích (DMA) na společném trhu
… více »Společnost Meta Platforms vyhrála ostře sledovaný spor o akvizici sítě pro sdílení fotografií Instagram a komunikační aplikace WhatsApp. Podle amerického soudu firma jejich převzetím neporušila antimonopolní zákon, protože si tak nemonopolizovala trh sociálních sítí. Žalobu na Metu podala před pěti lety americká Federální obchodní komise (FTC). FTC argumentovala, že Meta, tehdy známá jako Facebook, koupila tyto dvě společnosti v letech 2012 a 2014 proto, aby s nimi nemusela soutěžit.
Home Assistant včera představil svůj nejnovější oficiální hardware: Home Assistant Connect ZBT-2 pro připojení zařízení na sítích Zigbee nebo Thread.
Byla vydána verze 9.1 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a informačním videu.
Byl aktualizován seznam 500 nejvýkonnějších superpočítačů na světě TOP500. Nejvýkonnějším superpočítačem zůstává El Capitan od HPE (Cray) s výkonem 1,809 exaFLOPS. Druhý Frontier má výkon 1,353 exaFLOPS. Třetí Aurora má výkon 1,012 exaFLOPS. Nejvýkonnější superpočítač v Evropě JUPITER Booster s výkonem 1,000 exaFLOPS je na čtvrtém místě. Nejvýkonnější český superpočítač C24 klesl na 192. místo. Karolina, GPU partition klesla na 224. místo a Karolina, CPU partition na 450. místo. Další přehledy a statistiky na stránkách projektu.
Microsoft představil Azure Cobalt 200, tj. svůj vlastní SoC (System-on-Chip) postavený na ARM a optimalizovaný pro cloud.
Co způsobilo včerejší nejhorší výpadek Cloudflare od roku 2019? Nebyl to kybernetický útok. Vše začalo změnou oprávnění v jednom z databázových systémů a pokračovalo vygenerováním problém způsobujícího konfiguračního souboru a jeho distribucí na všechny počítače Cloudflare. Podrobně v příspěvku na blogu Cloudflare.
Byla vydána (Mastodon, 𝕏) první RC verze GIMPu 3.2. Přehled novinek v oznámení o vydání. Podrobně v souboru NEWS na GitLabu.
Eugen Rochko, zakladatel Mastodonu, tj. sociální sítě, která není na prodej, oznámil, že po téměř 10 letech odstupuje z pozice CEO a převádí vlastnictví ochranné známky a dalších aktiv na neziskovou organizaci Mastodon.
Byla vydána nová major verze 5.0 svobodného 3D softwaru Blender. Přehled novinek i s náhledy a videi v obsáhlých poznámkách k vydání. Videopředstavení na YouTube.
Vyvíjí se vůbec POSIX co se API systému týče?Pokud vím, tak minimálně.
Myslím si, že by prvotní iniciativa měla jít odtud. Když vidím věci jako epoll / kqueue / /dev/poll, tak si říkám, že unixu chybí standardizace a pak si každý unix dělá, co chce a kdy chce.Tak ona standardizace (a hlavně unifikace) unixového API byla vždycky spíše dodatečná. Oblíbená nestandardní rozšíření se postupně dostávala do standardnu. A já si myslím, že to není špatná cesta. Podle mě je ideálním standardem pro rozhraní operačního systému jen kratičký text, ve kterém se nachází seznam odkazů na dílčí standardy, které je třeba podporovat, aby se člověk mohl hlásit k podpoře standardu. Podporuje to možnost rozdělení práce a nevznikají tisícistránkové dokumenty. A zrovna přístupová práva jsou v POSIXu stále stejná (draft ACL můžeme s klidem zanedbat jako nestandardní a nedotažený). Ono je zajímavé, že na poli ACL jsou na tom oproti Linuxu už líp i windows (a tuším i MacOSX a Solaris, ale nezkoumal jsem detailně). Jediné, co vidím jako šanci na nápravu je NFSv4 ACL zavedené do běžných filesystémů.
Přidám něco z pozdějších "novinek" na lkml:
Linus je dost tvrdohlavý na to, aby jadernou verzi autogroup scheduleru protlačil do hlavní řady. Ospravedlňuje to tím, že jde v podstatě "jen o heuristiku, kterou jde vypnout". Mike mu taky nahrál čtvrtou verzí patche, která staví na SID (session id) místo TTY.
Podle mě Lennartova pointa taky není špatná - je hodně těžké rozlišit, které aplikace potřebují svoji groupu a které ne. IMHO to z kernelu prakticky nejde poznat. Tím se logicky dostáváme do userspace, který by měl nějak kernelu napovídat. Současný cgroups interface je moc odporný a "generic" na tento typ úlohy, takže tipuji, že ve výsledku dojde jak na patch na straně kernelu, který bude dělat něco málo a navíc přidávat několik sysfs položek, pomocí kterých bude moci userspace snadno ručně "dolazovat" to, co heuristika nezvládla, tak na userspace "patch".
Starý dobrák Con Kolivas se taky vyjádřil a podle mě dobře. Ač byla některá jeho tvrzení vyvrácena / zpochybněna, jeho "latnice" tunable nemusí být až tak špatný nápad. Minimálně naznačuje, že kernel si bez nápověd z userspace moc neporadí, což opět směřuje k tomu sysfs interface.
Závěrem snad jen to, že z group scheduling se stala mediální bublina - v běžném workloadu běžného desktop usera nepomůže prakticky vůbec. Pomůže v Linusově případě make -j64, pomůže v případech programů s tunou forků / vláken, které by mohly prakticky ovlivnit jiné uživatelem přímo používané aplikace, ale takových případů není moc.
Osobně vidím daleko větší problém v I/O scheduleru - v současné době si nemůžu pustit video ve vlc, pokud něco kopíruji z disku na disk, ani nice, ani ionice nepomůže, video se bude pořád zasekávat. To mi přijde jako daleko větší problém, než make -j64. A ne, group scheduling tomu jednomu cp procesu s jedním vláknem nepomůže.
On je problém v té propustnosti. Čistě teoreticky by skutečně "kompletně" férový plánovač (CFQ) měl férově rozdělovat přístup k disku rovnoměrně (ne podle počtu přenesených dat, ale podle I/O time), tedy přehrávač by neměl mít problém načíst jednou za 10 sekund 400KB dat, pokud na pozadí kopíruje dd rychlostí 130MB/s.
Někde ale scheduler selhal - tedy on se spíš snaží udržet vysokou propustnost a co nejlépe využít cache, takže místo toho, aby jednou za 10 sekund umožnil okamžitý přístup přehrávači, tak požadavek na čtení zařadí a bude doufat, že v dohledné době někdo jiný přečte ten stejný sektor, aby ho plánovač nemusel číst dvakrát, kdy bude hlava nejbllíž, zda mezitím "ten druhý" nedokončí současnou operaci, apod. Pochopitelně po celou tu dobu požadavek na čtení od přehrávače stagnuje, což pak způsobí zásek v přehrávání a to nechutné rozmazání obrazu kvůli chybějícímu klíčovému snímku v okamžiku zamrznutí.
Částečně to měl řešit low_latency tunable přidaný někdy kolem 2.6.32 (tak nějak), který mimojiné resetuje i zápisové NCQ operace, ale ten tu mám jako "1" defaultně a relativně beze změny.
Pokud se to v 2.6.37 nezlepší, asi zkusím BFQ, mám to v TODO listu už nějak dlouho. 
Závěrem snad jen to, že z group scheduling se stala mediální bublina - v běžném workloadu běžného desktop usera nepomůže prakticky vůbec.Myslim, ze nikdy nebylo obecne tvrzeno, ze by group scheduling mel pomoci workloadu bezneho desktop usera. Jeho aplikace jsou uplne jine.
2.6.24 si pamatuju - před ním boinc spotřebovával čas CPU jenom, když mu něco zbylo (takže nezdržoval ostatní aplikace).K tomuhle by měla sloužit IDLE priority, bohužel na Linuxu vidím tohle jen u I/O. Fakt není nic takového na CPU?
Není tedy překvapením, že většina uživatelů „férovost“ vidí jinak; nebylo by hezké, kdyby překlad jako celek dostal 50% a přehrávání videa druhou polovinu?No a ta zmíněná priorita procesu je na co?
/dev/kristalova-koule taky ne.Mi přijde, že tady by měl někdo Cimrmanovsky říct "Tudy ne, přátelé"Mě z článku přišlo, že se lidi snaží, ale Linusovi ruplo v kouli.
watchdog má realtime,watchdogd s realtime prioritou? Dekuji nechci. To by totiz znamenalo, ze kdyz se ti tam neco zblazni a vytizi system takovym zpusobem, ze nic ostatniho nefunguje a nejde se tam prihlasit, tak watchdogd porad odpovida a system se nerestartuje.
Tiskni
Sdílej: