Český statistický úřad rozšiřuje Statistický geoportál o Datový portál GIS s otevřenými geografickými daty. Ten umožňuje stahování datových sad podle potřeb uživatelů i jejich prohlížení v mapě a přináší nové možnosti v oblasti analýzy a využití statistických dat.
Kevin Lin zkouší využívat chytré brýle Mentra při hraní na piano. Vytváří aplikaci AugmentedChords, pomocí které si do brýlí posílá notový zápis (YouTube). Uvnitř brýlí běží AugmentOS (GitHub), tj. open source operační systém pro chytré brýle.
Jarní konference EurOpen.cz 2025 proběhne 26. až 28. května v Brandýse nad Labem. Věnována je programovacím jazykům, vývoji softwaru a programovacím technikám.
Na čem aktuálně pracují vývojáři GNOME a KDE Plasma? Pravidelný přehled novinek v Týden v GNOME a Týden v KDE Plasma.
Před 25 lety zaplavil celý svět virus ILOVEYOU. Virus se šířil e-mailem, jenž nesl přílohu s názvem I Love You. Příjemci, zvědavému, kdo se do něj zamiloval, pak program spuštěný otevřením přílohy načetl z adresáře e-mailové adresy a na ně pak „milostný vzkaz“ poslal dál. Škody vznikaly jak zahlcením e-mailových serverů, tak i druhou činností viru, kterou bylo přemazání souborů uložených v napadeném počítači.
Byla vydána nová major verze 5.0.0 svobodného multiplatformního nástroje BleachBit (GitHub, Wikipedie) určeného především k efektivnímu čištění disku od nepotřebných souborů.
Na čem pracují vývojáři webového prohlížeče Ladybird (GitHub)? Byl publikován přehled vývoje za duben (YouTube).
Provozovatel čínské sociální sítě TikTok dostal v Evropské unii pokutu 530 milionů eur (13,2 miliardy Kč) za nedostatky při ochraně osobních údajů. Ve svém oznámení to dnes uvedla irská Komise pro ochranu údajů (DPC), která jedná jménem EU. Zároveň TikToku nařídila, že pokud správu dat neuvede do šesti měsíců do souladu s požadavky, musí přestat posílat data o unijních uživatelích do Číny. TikTok uvedl, že se proti rozhodnutí odvolá.
Společnost JetBrains uvolnila Mellum, tj. svůj velký jazykový model (LLM) pro vývojáře, jako open source. Mellum podporuje programovací jazyky Java, Kotlin, Python, Go, PHP, C, C++, C#, JavaScript, TypeScript, CSS, HTML, Rust a Ruby.
Vývojáři Kali Linuxu upozorňují na nový klíč pro podepisování balíčků. K původnímu klíči ztratili přístup.
Některé "enterprise" vlastnosti však nebude vydávat jako open source.Takže ho vlastně efektivně zabili
There may be some things we choose not to open source going forward, similar to how MySQL manages certain value add at the top of the stack,Kde jsme ho zabili?
Co s tím mají co dělat moje komentáře k ZFS? To že mi je OpenSolaris nesympatický kvůli licenci neznamená, že zprávy o něm nějak vyfiltrujiUrcite nefiltrujes, jen mozna mene vnimasPrávě naopak (podle hesla poznej svého nepřítele
).
Je ovšem možné, že prostě na webech které sleduji (převážně weby okolo Linuxu a Free software) se o něm píše méně než tenkrát.Mozna proto, ze aktualne se celkem projekty "copy Solaris" rozvijeji slusne - OpenVZ, btrfs, SystemTap (a jine simulace DTrace). Ted bude treba zacit evaluovat Crossbow a COMSTAR (pravdepodobne i dalsi, ale tyhle dva aktualne me napadaji). A pravda, nekonecny problem se skalovanim na SMP/CMT, njn... A opet, muj soukromy nazor atd...
Treba v poslednich verzich OSOL je konecne v $PATH driv /usr/gnu pred /usr/bin.Jmenovat toto jako super vlastnost prevzatou z Linuxu je trochu zcestne. Prvni vec co rozumny clovek udela je, ze si to /usr/gnu vyhodi. Napriklad chmod, chown a podobne gnu nastroje neumi pracovat s rozsirenimy solarisu, takze ztracite funkcnost oproti tem nastrojum, ktere jsou v /usr/bin. Je samozrejmne par commandu, u kterych minimalne ja preferuju gnu a tim je grep a find. U zbytku jsem nepotreboval gnu variantu. Navic lze tyto gnu tooly poustet pomoci ggrep a gfind z /usr/bin.
ani sluzby to neumi startovat/stopovat jenim systemem, jen ja tam znam z hlavy 3Eh? Do S9 skrze init skripty, od S10 skrze SMF?
linux jiz nema problem s masivnim I/O a tisici procesy ci threadyFakt? Hmmm a kdy konecne bude mit uzitelny schedulery (I/O a CPU)? To skalovani je fakt stale tezka bida na velkych SMP systemech. Ac se musi nechat, ze hlavne Intel se ted hodne snazi.
ma journal FS, ktery Solarisu chybelHeh? UFS v Solarisu je zurnalovaci uz nejaky ten patek (dost davny patek)
No a solaris na x86 nebezi, je na ni nasilne nasazen a neni to v zdanem pripade tak dobre, jako na SPRACu, tedy tak leda pro testovani a vetsina programu ani x86 solaris nepodporuje ...Co je tohle za blabol? Nasilne nasazen? Ten code base je vyvijen spolu se SPARC verzi cca stejne dlouho jako Linux je na svete. To, ze Solaris 9 x86 verze vysla se spozdenim (a puvodne vyjit nemela), nic nemeni na tom, ze se kod udrzoval i v te dobe. Ano, protoze SUN udelal tu kravinu, ze x86 vetev po jisty cas nevyvijel, tak ISV k teto vetvi meli dost neduveru. S nekterymi komentari souhlasim, treba okolo Veritasu. Ale s tou cistotou API jste me pobavil. O tom, jak GCC umoznuje na Linuxu uzivat moderni metody programovani, by bylo take zahodne se rozepsat. A opet standardni disclaimer o tom, ze je to pouze muj soukromy nazor...
x86 HW je vykonnejsi nez SPARC? Fakt? Jak pro co. Ja jen, ze ty nejvykonnejsi db systemy jsou SPARC based.Mate pro to nejake citace? Ja jsem myslel ze nejvykonnejsi byvaji IBM. My treba mame nejvetsi databazovy server SGI proste proto, ze nikdo nebyl pred temi dvema lety schopen dodat vic nez 16 socketu (i Sun koncil na 16 socketech). Jediny kdo jeste krome SGI vyrabel vetsi zelezo byla IBM, ale ti to meli extremne drahe a nebylo jasne, jestli si tim pomuzeme.
A jinak Solaris neni SPARC only cca 20 letS prestavkou asi 10 let, ze? Jednou jsem instaloval Solaris x86 (cca 1999, jestli si pamatuju) a byla to bida - fungovat zacala az asi treti sitova karta kterou jsem zkusil pouzit.![]()
Zkousel jste se nekdy v poslednich letech divat na top500.org? Ja si nemyslim ze skalovani Linuxu na 16384 procesorech by byla "tezka bida". Samozrejme, interne si muzeme rict ze by to mohlo byt lepsi (SGI taky standardne dodava 1024-procesorove bloky ze kterych se pak uz stavi klastry na aplikacni urovni), ale ve srovnani se Solarisem jde o zanedbatelne problemy. Solaris jsem nevidel nikdy jet na vic nez 16 socketech (pochybuju ze se kdy delal HW pro Solaris vetsi nez 128 socketu). -Yenyalinux jiz nema problem s masivnim I/O a tisici procesy ci threadyFakt? Hmmm a kdy konecne bude mit uzitelny schedulery (I/O a CPU)? To skalovani je fakt stale tezka bida na velkych SMP systemech.
Staci si projit benchmarky, ktere Oracle zacal releasovat. Nebo vyhodnocovani TPC (viz ten zabavy TPC-C test z podzimu). Protoze IBM Power jako samostatny megabox je slusna vec, az na propustnost (s tou slusny hybli v Power7) a nenazranost. Seznam zakazniku vam poskytnout nemohu, takze se omlouvam a muzete me obvinit ze lzix86 HW je vykonnejsi nez SPARC? Fakt? Jak pro co. Ja jen, ze ty nejvykonnejsi db systemy jsou SPARC based.Mate pro to nejake citace? Ja jsem myslel ze nejvykonnejsi byvaji IBM. My treba mame nejvetsi databazovy server SGI proste proto, ze nikdo nebyl pred temi dvema lety schopen dodat vic nez 16 socketu (i Sun koncil na 16 socketech). Jediny kdo jeste krome SGI vyrabel vetsi zelezo byla IBM, ale ti to meli extremne drahe a nebylo jasne, jestli si tim pomuzeme.
Solaris 8 a Solaris 10 rozhodne nedelilo 10 let (rok 2000 a 2005 kdyz vezmeme release data). Ano, Solaris 8 sel instalovat na subset x86 stroju. Tak jako Linux v roce 1999.A jinak Solaris neni SPARC only cca 20 letS prestavkou asi 10 let, ze? Jednou jsem instaloval Solaris x86 (cca 1999, jestli si pamatuju) a byla to bida - fungovat zacala az asi treti sitova karta kterou jsem zkusil pouzit.![]()
Dival. A? Co vypodiva cluster stroju o skalovani na SMP strojich?Zkousel jste se nekdy v poslednich letech divat na top500.org?linux jiz nema problem s masivnim I/O a tisici procesy ci threadyFakt? Hmmm a kdy konecne bude mit uzitelny schedulery (I/O a CPU)? To skalovani je fakt stale tezka bida na velkych SMP systemech.
Ja si nemyslim ze skalovani Linuxu na 16384 procesorech by byla "tezka bida". Samozrejme, interne si muzeme rict ze by to mohlo byt lepsi (SGI taky standardne dodava 1024-procesorove bloky ze kterych se pak uz stavi klastry na aplikacni urovni), ale ve srovnani se Solarisem jde o zanedbatelne problemy. Solaris jsem nevidel nikdy jet na vic nez 16 socketech (pochybuju ze se kdy delal HW pro Solaris vetsi nez 128 socketu). -YenyaA s vyrovnanou zatezi? Rozjet je kde co mozne, ale to neznamena, ze to je dobre vytizene. Kde jsou vysledky testu mimo exhibici v TOP500, nahnane rozlozenim zateze na mnoho nodes? V TOP500 jsou stroje s "nejrychlejsim prubehem smyckou" pro vedecke vypocty. Trosku jina zatez nez databaze, nemyslite? Jinak M9000 ma 256 jader (64 socketu pro quadcores). To ovsem neni limit Solarisu. A standardni disclaimer o mem osobni nazoru...
Staci si projit benchmarky, ktere Oracle zacal releasovat.
Sorry, ja neunderstanduju language vaseho tribe
[nic osobniho, ale tohle mi fakt nedalo, omlouvam se predem ;-]
pocitat server pro databaze podle poctu socketu, je trosku divna kalkulace (ale to byla asi vzdy).Bohuzel ale pocitat server pro _nasi_ databazi podle databazovych benchmarku nekoho uplne jineho je taky divna kalkulace. Zejmena pro ty ruzne TPC, ktere jsou typicky hodne malych a dost podobnych operaci nad relativne malym mnozstvim velkyhch tabulek (simulace OLTP a podobne). My jsme tehdy pro odhad hrubeho vykonu zeleza (vcetne toho jak je to skalovatelne) pocitali SpecInt a SpecINT rate. A tam tehdy Sun stal fakt za houby proti tehdejsimu SGI (nehlede na to, ze SGI nam pak ve vyberovem rizeni nabidli stroj s vyrazne vetsim poctem procesoru).
Ano, Solaris 8 sel instalovat na subset x86 stroju. Tak jako Linux v roce 1999.Jiste muzete jak 10 % vsech stroju, tak i 99 % vsech stroju nazvat "subset" a tvarit se ze je to vlastne totez. Zni mi to ale fakt divne.
Co vypodiva cluster stroju o skalovani na SMP strojich?
Cluster 16 stroju o 1024 socketech vypovida o skalovani aspon to, ze na 1024 socketech je ten system pouzitelny i jako single-image.
Kdyz uz teda slovickarime: skalovatelnost SMP stroju konci na cca ctyrech, s bidou osmi socketech. Vse co je nad to je budto NUMA, nebo je to pomale.
Kde jsou vysledky testu mimo exhibici v TOP500, nahnane rozlozenim zateze na mnoho nodes? V TOP500 jsou stroje s "nejrychlejsim prubehem smyckou" pro vedecke vypocty. Trosku jina zatez nez databaze, nemyslite?
Pokud se bavime o skalovatelnosti, tak prece tam _jde_ o to rozlozit zatez na vice procesoru, ne? Nehlede teda na to, ze SPARC VII ani T2 nijak neexceluji ani v jednoprocesorovem vykonu. To uz jsme ale dal od operacnich systemu.
Prijde mi fakt divne jedno mereni shodit ze stolu jako "exhibici" a jine mereni (TPC-C) prosazovat jako prukazne (zvlast kdyz - jak ctu vedle - slo o "umele nahnany vykon" pouzitim SSD .
-Yenya
Huh, dobre, sada vykonostnich testu a vy rozhodnete podle SpecInt? Pro databazovy stroj?SpecINT _rate_, nikoliv SpecINT. Ten prvni je docela dobrym odhadem skalovatelnosti hardwaru samotneho, ten druhy je hruby odhad vykonu jednoho CPU. A ano, nase zkusenosti potvrzuji, ze systemy ktere pro nasi databazovou aplikaci kupujeme, se zhruba podle tech SpecINT rate chovaji.
Pri tak velkem nasazeni je dost obvykle provadet vykonostni testy primo na navrzenem setupu. Takove firmy maji primo prezentacni servrovny (aspon tedy SUN ma), kde se provedou prislusna srovnani a realne vykonnostni testy.
Ja chapu ze o nasi aplikaci toho vite vic nez my, ale nase zkusenosti ukazuji, ze nejvetsi zatez kterou resime nejsme rozumne schopni simulovat ani my sami na hardwaru a softwaru ktery mame plne pod kontrolou, natoz z toho zkouset extrahovat nejake synteticke testy. Pro zajimavost - spicka zateze kterou resime se u nas vyskytuje 2x za rok po dobu cca 10-15 minut.
Dalsi problem je, ze do vyberoveho rizeni musite dat jasne kriterium podle ktereho se bude tridit. Urcite nelze verit vyrobcum ze kdyz jim poskytnete svuj vlastni test (i kdybste ho mel, my nemame), ze se nebudou snazit nadehnat vykon nekde kde to zrovna nemate tim testem postihnute (jako ty TPC-C a SSD zminovane vedle v diskusi). Se SpecINT Rate mame dobrou zkusenost, ze je tezke v nem nejakou "oklikou" dosahnout vyrazne lepsich vysledku nez konkurence.
Takze vse koncilo reverznim inzenyrstvim, coz si SUN nemohl dovolit, protoze na to prodaval podporu.A to je jeden z duvodu, proc Sun dopadl tak jak dopadl. Je to dost lacina vymluva "museli bychom to podporovat", ale ja bych byval tehdy v tom roce 1999 byl rad klidne i za nepodporovany ovladac, nez muset resitt kde sezenu jiny hardware a cim ho zaplatim. Red Hat i Novell/SUSE prodava sve podporovane systemy i s ovladaci vzniklymi reverznim inzenyrstvim (na RHEL5 ted namatkou vidim ovladac forcedeth pro sitove karty NVidia nebo bcm43xx pro WiFi cipsety Broadcom).
Presto tvrzeni, ze Solaris na x86 nebyl 10 let je proste a jednodusse nepravdive.Tento casovy odhad jsem prehnal, omlouvam se.
Co se tyce toho skalovani na 1024 socketech, opet, rozjet lze kde co, ale spravne distribuovat vykon, to hure.Prosim nedezinterpretujte me: u SGI _rozjeli_ pocitac se 16384 CPU (single-image), nebylo to uplne skvele, tak prodavaji "jen" 1024 socketove jednotky (asi 2048 CPU). A tyto se realne pouzivaji nejen pro vypocty ale i pro databaze. Teprve pokud chcete vic socketu, muzete si postavit cluster nekolika malo techto 1024-socketovych single-image systemu.
... nevytezi ze SMP ... konkurencnim pristupem k datovym ulozistim u SMP ... zameril uz pred lety na SMP systemy ...Opet pripominam terminologickou nepresnost: zelezo o kterem se tady bavime rozhodne neni SMP. SMP konci na cca 4 socketech. V podstate kazdy dnesni stroj kde je pametovy radic u procesoru je NUMA. (a teda jeste uplne hnidopisstvi - anglicke slovo "concurrent" se v tomto kontextu nepreklada do cestiny jako "konkurencni", ale jako "paralelni").
Mereni neshazuju ze stolu, ale nemate jedine mereni Solaris vypocetniho clusteru ve stejne konfiguraci, tj. vase porovnani kulha.
Mel jsem za to, ze se nebavime o clusterech, ale o single-image pocitacich. A proc nemam takove mereni? No proto ze Sun zadny stroj s 1024 sockety nedela. Takze bavit se o skalovatelnosti v pripade, kdy se jeden operacni system v praxi pouziva na realne prodavanem zeleze s 1024 sockety a druhy - jak jsme se shodli - nikdo nikdy nevidel na zeleze se 128 sockety fakt nema smysl.
-Yenya
SPECint neobsahuje zadny uzitecny test pro takovy workload.SpecInt rate obsahuje paralelni verze vseho mozneho (napriklad kodovani H.264), kde se projevi jak rychle umite prehazovat radky cache z jednoho CPU na druhy (jinymi slovy, jak rychly umite zkonstruovat mutex/spinlock/zamek). A od toho se odviji skalovatelnost vsech paralelnich aplikaci.
Kde jsem vas dezinterpretoval?Mel jsem pocit ze se me snazite porad interpretovat tak, jako by 1024-socketovy single-image system ktery prodava SGI bylo neco experimentalniho, co se v praxi nepouziva. Treba jsem Vas jen spatne pochopil.
2048 CPU threadu proti 512 CPU threadum neni porovnatelne ...
Tak ono hlavne neni porovnatelne vlakno implementovane jadrem procesoru s vlastni L1 a L2 cache a vlakno coby paralelizace uvnitr jednoho jadra (SMT/CMT/hyperthreading), ktere s ostatnimi vlakny tehoz jadra o tu L2 cache souperi, a dostane se ke slovu pouze v pripade, kdy zrovna je nejaka vypocetni jednotka volna. A ted budto mate stesti, ze se vsechna takovato vlakna vejdou do L2 cache a fakt vyuzijete vic vypocetnich jednotek ktere procesor ma (a pak zalezi kolik takovych jednotek mate volnych - T2 jich ma hodne, Pentium IV malo), nebo stesti nemate, a misto zvyseni rychlosti se vlakna zacnou navzajem vyhazovat z L2 cache, a vysledek je pomalejsi nez by tomu bylo pri jednom vlakne na jedno jadro procesoru.
Dovedu si predstavit, ze pro nektere ulohy (vsechno jsou vlakna _jednoho_ procesu, dohromady spolu resi jednu ulohu a potrebuji casto komunikovat) je SMT vyhodne. Nebo pak kazde vlakno dela uplne neco jineho a zpracovava hodne dat (ruzne SQL dotazy v Oraclu), a pak muze byt vyhodnejsi SMT vubec nemit.
Ale to stale nic nerika o tom, jak kvalitne OS skaluje, jak dobre vytezuje srovnatelne stroje. Ta srovnani jste zaignoroval?
Nikoliv. Jen moc nemam co bych k tomu rekl, ani jsem poradne nezkoumal co tam delaji, jak moc se toho ucastnil treba filesystem, atd. Nechci tady tvrdit ze v tom benchmarku byly nedostatky, ale na druhe strane jsem nezkoumal jak ten benchmark vlastne fungoval. Na pohled to vypada, ze pokud se vytizily presne vsechny procesory (nebo i o kousek vic), tak byl Linux/MySQL rychlejsi. Vic stejne na databazovem serveru poustet nechcete.
Co je nad to strasne zalezi na tom, jak je ta vec nakonfigurovana (napriklad frekvence casovace, ktera muze dat vyssi interaktivitu, ale v pripade vice nez 100 % zatizeni CPU muze znamenat castejsi vylevani cache po prepnuti kontextu, atd. Tak jako nechci investovat cas do zkoumani konkretniho TPC-C co vede v nejake kategorii, nechci investovat cas ani do zkoumani tohoto.
-Yenya
(pochybuju ze se kdy delal HW pro Solaris vetsi nez 128 socketu).
nesmysl, viz. Sun E25k / M9000.
(i Sun koncil na 16 socketech)Bohuzel E25k neznam, na Wikipedii se pise:(pochybuju ze se kdy delal HW pro Solaris vetsi nez 128 socketu).
nesmysl, viz. Sun E25k / M9000.
The E25K supports up to 72 dual-core UltraSPARC IV+ processorsO M9000 jsem na jine strance nasel
32 or 64× SPARC64 VI or VIIVim, je to wikipedia, ale fakt se mi nechce investovat cas. V me oblasti vesmiru je jak 72, tak i 64 mensi nez 128. Pokud mate jiny zdroj, prosim odkazte.
-Yenya
škálovatelná aplikace se prostě nakonfiguruje do clusteru/RAC o x nodech.Vas optimismus bych chtel mit
No a solaris na x86 nebezi, je na ni nasilne nasazen a neni to v zdanem pripade tak dobre, jako na SPRACu, tedy tak leda pro testovani a vetsina programu ani x86 solaris nepodporuje ...
Připomínáte mi jednoho týpka, který v roce 2004 napsal do diskuse o Linuxu: „Linux je na houby.“ A když se ho někdo zeptal, proč si to myslí, odpověděl: „Nechtěl bych systém, který nepodporuje USB a češtinu!“
Vaše tvrzení o „násilném“ nasazení OpenSolarisu na x86 mi tuhle historku připomnělo. Kdybyste ho pronesl kolem roku 1995, možná by dávalo smysl. Podle mě dnes už Solaris „USB a češtinu“ (obrazně řečeno) umí.
No právě... Jenže všechna tato jednostranná a nevyvážená srovnání systémů jsou tak trochu přitažená za vlasy.
Nelze nepřipomenout slavnou zprávu, kde Bryan Cantrill na dlouhý výklad Davida S. Millera o tom, že Linuxu na platformě SPARC stačí většinou jen 18 instrukcí k tomu, aby se dostal od trap table k interrupt handleru v C, odpovídá naprosto geniálně: „Have you ever kissed a girl?“
Když člověk dnes nahlédne do Solaris Internals nebo (nejlépe) přímo do uts
, zjistí, že trap table a obsluhu přerušení sice dělí mnohem víc než 18 instrukcí, ale zato tam je microstate accounting, několik různých statistik, traptrace... Zkrátka věci, které drží Solaris na světové špičce, pokud jde o observability.
Žabomyší války, kde účastníci tvrdí, že ten či onen názor či přístup k věci je lepší než jiný, jsou většinou plné polopravd všeho druhu.
Téměř všechny výroky ze skupiny „Solaris je horší než Linux“ zpravidla po překladu z jazyka naštvaného začátečníka do češtiny zní „na Solaris nejsem zvyklý, proto ho neumím používat tak dobře jako Linux“.
Dnes má každý z nás na stole stonásobně rychlejší hardware než byl ten, o kterém se hádali Bryan Cantrill a David S. Miller. Když se na dnešní rozepře jednou podíváme s odstupem času, někdo si možná řekne „fajn, byli jsme tenkrát o dvě instrukce rychlejší, but have I ever kissed a girl...?“.
Tiskni
Sdílej: