Homebrew (Wikipedie), správce balíčků pro macOS a od verze 2.0.0 také pro Linux, byl vydán ve verzi 4.5.0. Na stránce Homebrew Formulae lze procházet seznamem balíčků. K dispozici jsou také různé statistiky.
Byl vydán Mozilla Firefox 138.0. Přehled novinek v poznámkách k vydání a poznámkách k vydání pro vývojáře. Řešeny jsou rovněž bezpečnostní chyby. Nový Firefox 138 je již k dispozici také na Flathubu a Snapcraftu.
Šestnáctý ročník ne-konference jOpenSpace se koná 3. – 5. října 2025 v Hotelu Antoň v Telči. Pro účast je potřeba vyplnit registrační formulář. Ne-konference neznamená, že se organizátorům nechce připravovat program, ale naopak dává prostor všem pozvaným, aby si program sami složili z toho nejzajímavějšího, čím se v poslední době zabývají nebo co je oslovilo. Obsah, který vytvářejí všichni účastníci, se skládá z desetiminutových
… více »Richard Stallman přednáší ve středu 7. května od 16:30 na Technické univerzitě v Liberci o vlivu technologií na svobodu. Přednáška je určená jak odborné tak laické veřejnosti.
Jean-Baptiste Mardelle se v příspěvku na blogu rozepsal o novinkám v nejnovější verzi 25.04.0 editoru videa Kdenlive (Wikipedie). Ke stažení také na Flathubu.
TmuxAI (GitHub) je AI asistent pro práci v terminálu. Vyžaduje účet na OpenRouter.
Byla vydána nová verze R14.1.4 desktopového prostředí Trinity Desktop Environment (TDE, fork KDE 3.5, Wikipedie). Přehled novinek i s náhledy v poznámkách k vydání. Podrobný přehled v Changelogu.
Bylo vydáno OpenBSD 7.7. Opět bez písničky.
V Tiraně proběhl letošní Linux App Summit (LAS) (Mastodon). Zatím nesestříhané videozáznamy přednášek jsou k dispozici na YouTube.
V každém slušné housingu vás těmito prostory rádi provedou a je to pěkná podívaná (já rád tisíce ampér).No nevím, ale mám pocit že ve slušném hostingu to funguje přesně naopak... do restricted oblastí nepouštím lidi, kteří tam nemusí být. Je to jeden z požadavků bezpečnostní politiky každé rozumné normy pro zabezpečení datových center.
Jenže mě ujištění "máme to či ono", nestačí.Proto existujou normy, audity, auditoři a compliance. Samozřejmě tvrzení jsme Tier IV, je o ničem, ale prohlášení Uptime Institutu - byli jsme u návrhu toho datového centra, jeho stavby a pravidelně ho co půl roku kontrolujeme, že je opravdu ve shodě s normou Tier IV, je poměrně věrohodné. Mnohem věrohodnější, než vidět, že mají diesel, který vyzkoušeli naposledy před spuštěním produkčního provozu.
pravidelně ho co půl roku kontrolujeme, že je opravdu ve shodě s normou Tier IVJenom aby to nebylo "projdeme, jestli jsou v pořádku papíry o prováděných kontrolách"
od různých výrobců
Od těch všech dvou? Je to peklo, dřív jsem měl v políčku 6 disků od 4 výrobců, dnes jsou to dva a je vůbec problém najít nějaký slušný disk.
Imo je tema hardwaru, tak ako ho popisujete, dost old-school. V tejto dobe vobec nema vyznam sa zaoberat len cisto hardwarom ako takym. Nedavno sme testovali u nas kvoli novym projektom najnovsi rack a blade class x86 HW (t.j Cisco UCS, HP G8, a ibm bol tusim nejaky hs20). Z hladiska HW to boli vsetko takmer identicke stroje, zostavou aj vykonom.
Rozdiel robil jednoznacne management software + dalsie ficury.
IBM toho vela nedokazal, HP bolo na tom urcite lepsie (Onboard administrator+VIrtual Connect+flexfabric), ale imo cisco bolo urcite najinovativnejsie. Napr k nodam(blejdam) sa tam pristupovalo skor logicky ako fyzicky, a nody poskytovali len HW pre to co mu management da. Inymi slovami vytvorim si profil, kde chcem minimalne 4xCPU N x Virtualny Ethernet (rychlost portu sa meni online) N x Virtualne HBA (rychlost detto) min tolko RAM a hotovo. Potom profil pripradim k nejakej volnej node, alebo to necham na management samotny. K samotnym blejdam nesli ziadne kable cize prakticky cely konnekt do chasi bol N x elektrika, N x ethernet uplink, a N x SAN uplink. VLANy VSANy sa vsetko dialo na centralnom nexuse. No proste nadhera. ipmi je hodne za opicami oproti tomu co dokazu enterprise class vendori.
D.
Presne tak:)
ono v principe davam za pravdu ze desktop hardware je ok...pac co ho odlisuje od enterprise je to ze ventilatory fukaju ako besne a mozno (ozaj mozno) sa maticna testuje o trocha dlhsie....
D.
JJ, tuhle hračku myslím máme (možná ne přesně tento model), před nějakým časem to bylo jako část zálohovacího serveru (starý Fujitsu-Siemens P4, Centos, PCBackup) a rozhodně to přežilo použité disky. Teď je to odstavené, nahradilo se to malou krychličkou od HP, ale tehdy to účel plnilo celkem dobře.
Správně připomenuto, asi měl bych to zas oživit a použít.
Mimochodem, prima článek.
ZDAR!
- Je opravdu remote management dulezity, nebo to je jen dusledek nevhodneho OS? Osobne bych to resil podobne jako u routeru - mit read-only system na flash (staci CF v PATA redukci, i kdyz dnes uz nove mainboardy casto PATA nemaji) s optimalizovanymi startovacimi skripty (tedy nemit tam nic, co by se mohlo rozbit) a to pouzivat jako 'hypervizor', servery pak pobezi na beznem OS v chrootu/virtualu/... z jineho disku.Je to o pohodlí a jistotě. Stejně jako autor zápisku si nemůžu remote management vynachválit a kdyby to šlo, tak si ho dám na servery, o které se teď starám (desktopový hardware). Pokud má člověk snadný fyzický přístup, tak to nehraje roli. Ale jestliže jsou špatně přístupné - serverovna ve sklepě kam je potřeba si dohodnout vstup předem, nebo vzdálené přes půl města nebo i víc, tak se remote management sakra hodí. Když jsem potřeboval změnit ip adresu stroje na jinou za běhu (s přehazováním route a VLAN), případně s co nejkratším výpadkem, tak se přes remote management dá ledacos zachránit (např. když kvůli chybě v konfiguraci nestartovala síť). Nebo jsem nedávno šel přes půl města, abych ručně opravil ext3 oddíl protože systém nenastartoval a neměl jsem jistotu, že se nepokazilo ještě něco navíc (server z ničeho nic přestal reagovat na cokoliv kromě pingu a po restartu se nevzpamatoval).
Je opravdu remote management dulezity
Je.
nejake napajanie, ktore sa da na dialku spinat (na tvrdy reset stroja)
To bych také považoval za samozřejmost.
Co se tyce lidske chyby tak budiz (i kdyz vzhledem k striktnimu oddeleni 'hypervisora' a bezneho serverovskeho software se to riziko dost minimaluzuje a editovat grub tam uz nedava zas tak moc smysl).
Ano, ovšem ne všechny servery na sobě nesou (mohou nést) hypervizora. Na spoustě HW potřebujete mít OS.
Pokud uz nekdo ma v serverovne cely rack, tak proc radsi nemit terminal server, ktery umozni management serveru pres seriovou konzoli a vzdaleny reset/poweroff, nez mit v serverech potencialni bezpecnostni diru, jakou je IPMI?
Proč bezpečnostní díru? Na to IPMI se dostanete jedině z IPsec / OpenVPN sítě a k tomu zase potřebujete klíč. Úplně stejně na tom bude ten případný terminal server.
Ano, ovšem ne všechny servery na sobě nesou (mohou nést) hypervizora. Na spoustě HW potřebujete mít OS.Nejsem si jist, zda reagujes na mou puvodni otazku, ta neznela zda je dobre mit remote management na serveru z beznym OS, ale zda vhodnost remote managementu neni spis dusledek soucasnych 'nespolehlivych' OS, tedy pokud by byl system od zakladu postaven se spolehlivosti jako s jednim z primarnich cilu (vcetne napr. dusledne oddeleni 'hypervisora' a 'aplikacniho' software), pak by vyznam takoveho managementu byl podstatne mensi.
Proč bezpečnostní díru? Na to IPMI se dostanete jedině z IPsec / OpenVPN sítě a k tomu zase potřebujete klíč.Vychazim z dvou bodu (AFAIK): 1) IPMI sam o sobe neni vyznamne zabezpeceny, zabezpecit je tedy treba primarne management port. Takove reseni je vetsinou dost problematicke. Nerikam, ze to nejde udelat dobre, ale je tam spousta mist, ktere mohou selhat. Pokud mam rack, v nem vlastni nezavisly switch jen pro management pro management porty a k tomu vlastni vyhrazeny VPN server, pak OK, v typickych aplikacich (napr. kdyz ma jen jeden server) se tam asi clovek bude spolehat na daleko vic dalsich promennych. 2) Software bezici na BMC je proprietarni, je tedy otazka, jak moc se mu vubec da duverovat.
Co trochu konkretnejsi odpoved - v kterych pripadech pomuze…To je asi stejná otázka jako "co se rozbije příště". Pokud máš dopředu naplánované poruchy disků, nepotřebuješ disková pole. Pokud víš kdy bude problém se zdrojem, nepotřebuješ redundantní napájení. Et cetera… Pokud víš kdy budeš příště potřebovat židli a KVM, nepotřebuješ management karty. Příklad ze života: Kdysi na casablance zdechla klima a celý horní patro se nažhavilo jako pec. Ne tolik aby všechno rovnou popadalo, ale dost na to aby mašiny začaly náhodně zatuhávat. Právě tehdy jsme našeho šetřivého šéfa přesvědčili že pár tisícovek na mangement kartu je lepší investice než platit lidi za to že jedou stopadesát kilometrů, zmáčknou reset a jedou zpátky. Nebo než nedejbože čekat až se pan Hampl milostivě uvolí ten čudlík zmáčknout sám.
Pokud máš dopředu naplánované poruchy disků, nepotřebuješ disková pole. Pokud víš kdy bude problém se zdrojem, nepotřebuješ redundantní napájení. Et cetera… Pokud víš kdy budeš příště potřebovat židli a KVM, nepotřebuješ management karty.No, poruchy disky ci zdroju je problem z realneho sveta, kteremu se moc vyhnout neda, takze redundance jako reseni je rozumne. Oproti tomu 'je potreba zidli a KVM' je vicemene umely softwarovy problem, ktery v prevazne vetsine pripadu by sel snadno odstranit rozumnym navrhem software (resp. zajistit, aby v takovem pripade krome KVM konzole sla pouzit i sitova konzole). Remote management (specificky tedy spis remote KVM) je proste takovy rovnak na ohybak.
Ne tolik aby všechno rovnou popadalo, ale dost na to aby mašiny začaly náhodně zatuhávat. Právě tehdy jsme našeho šetřivého šéfa přesvědčili že pár tisícovek na mangement kartuA nestacilo by proste zapnout watchdog? Ten je dneska standardni soucasti superIO chipu, a pokud neveris internimu, lze poridit externi za par stovek.
Remote management (specificky tedy spis remote KVM) je proste takovy rovnak na ohybak.S tím souhlasím.
A nestacilo by proste zapnout watchdog? Ten je dneska standardni soucasti superIO chipu, a pokud neveris internimu, lze poridit externi za par stovek.Akorát za pár stovek pořídíš i to ipmi (pokud v tom serveru už není.) S výhodou, že že se můžeš podívat, jestli na obrazovce nezůstal nějaký výpis kernel panic
Je opravdu remote management dulezity…Případně se to dá řešit pomocí null modemu a propojení dvou serverů. Akorát ti nesmí odejít oba najednou a musíš si vystačit se sériovým portem (což se celkem dá: GRUB, GNU/Linux i některé BIOSy/Coreboot).
$ dd if=pack-d0975dc1d1667ecd904faaf20e75a8d4b5aed293.pack of=/dev/null 8985756019 bytes (9.0 GB) copied, 40.4833 s, 222 MB/s
$ dd if=pack-d0975dc1d1667ecd904faaf20e75a8d4b5aed293.pack of=/dev/null 8985756019 bytes (9.0 GB) copied, 1.5159 s, 5.9 GB/s32GB paměti se hodí, protože i když můžete mít SSD disk o rychlosti čtení (tohle je starej disk) i 500MB/s, tak z paměti je to pořád více než 10x rychlejší. Nejlepší použití paměti je jako IO cache.
Treba poustet virtualni masiny na tom ani nema smysl zkouset.Já jsem na něčem takovém, akorát se 3GB RAM, dělal školení, kde každý z účastníků měl k dispozici dva své vlastní virtuály.
Ad Supermicro hate:
jen bych rád podotknul, že servery jedeme prakticky jenom Supermicro, poměr cena výkon je opravdu fajn. Musím ale přiznat, že je jsem slyšel i názory lidí, kterým se Supermicra sypou. Z mého pozorování plyne, že dost potíží bylo se stroji typu Opteron do socketu F, tyhle starší stroje občas vytuhnou. Situace se taky hodně zlepšila od doby, kdy začalo Supermicro dělat AMD desky se síťovkama od Intelu, ty nVidie, co tam dávaly před tím, to byl mor, filcky, svrab a neštovice... všechny tyhle servery mají u nás píchnutou intelí síťovku do slotu.
Jinak FatTwin je miláček, jen mě u tak promyšlený mašiny zarazila tak podivně umístěná baterka + jumper...
monitoring / # cat /var/log/syslog | grep -i vacuu Feb 1 23:23:03 monitoring postgres[512]: [3-1] LOG: autovacuum launcher shutting down Feb 1 23:23:19 monitoring postgres[504]: [1-1] LOG: autovacuum launcher started Feb 2 02:28:53 monitoring postgres[504]: [2-1] LOG: autovacuum launcher shutting down Feb 2 02:31:10 monitoring postgres[512]: [1-1] LOG: autovacuum launcher started Feb 6 08:17:11 monitoring postgres[512]: [2-1] LOG: autovacuum launcher shutting down Feb 6 08:17:28 monitoring postgres[505]: [1-1] LOG: autovacuum launcher started Feb 6 08:17:42 monitoring postgres[505]: [2-1] LOG: autovacuum launcher shutting down Feb 6 08:17:54 monitoring postgres[497]: [1-1] LOG: autovacuum launcher started Feb 17 11:20:02 monitoring postgres[497]: [2-1] LOG: autovacuum launcher shutting down Feb 17 11:20:24 monitoring postgres[505]: [1-1] LOG: autovacuum launcher started Mar 5 08:20:53 monitoring postgres[505]: [2-1] LOG: autovacuum launcher shutting down Mar 5 08:23:33 monitoring postgres[512]: [1-1] LOG: autovacuum launcher started Mar 7 10:13:55 monitoring postgres[611]: [1-1] LOG: autovacuum launcher started Mar 9 09:00:01 monitoring postgres[611]: [2-1] LOG: autovacuum launcher shutting down Mar 9 09:02:10 monitoring postgres[513]: [1-1] LOG: autovacuum launcher started Mar 9 09:13:27 monitoring postgres[513]: [2-1] LOG: autovacuum launcher shutting down Mar 9 09:13:36 monitoring postgres[504]: [1-1] LOG: autovacuum launcher startedAle samozřejmě je otázka, nakolik je tohle srovnatelné s vaším použitím...
Tiskni
Sdílej: