Byla vydána beta verze openSUSE Leap 16. Ve výchozím nastavení s novým instalátorem Agama.
Devadesátková hra Brány Skeldalu prošla portací a je dostupná na platformě Steam. Vyšel i parádní blog autora o portaci na moderní systémy a platformy včetně Linuxu.
Lidi dělají divné věci. Například spouští Linux v Excelu. Využít je emulátor RISC-V mini-rv32ima sestavený jako knihovna DLL, která je volaná z makra VBA (Visual Basic for Applications).
Revolut nabídne neomezený mobilní tarif za 12,50 eur (312 Kč). Aktuálně startuje ve Velké Británii a Německu.
Společnost Amazon miliardáře Jeffa Bezose vypustila na oběžnou dráhu první várku družic svého projektu Kuiper, který má z vesmíru poskytovat vysokorychlostní internetové připojení po celém světě a snažit se konkurovat nyní dominantnímu Starlinku nejbohatšího muže planety Elona Muska.
Poslední aktualizací začal model GPT-4o uživatelům příliš podlézat. OpenAI jej tak vrátila k předchozí verzi.
Google Chrome 136 byl prohlášen za stabilní. Nejnovější stabilní verze 136.0.7103.59 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 8 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře.
Homebrew (Wikipedie), správce balíčků pro macOS a od verze 2.0.0 také pro Linux, byl vydán ve verzi 4.5.0. Na stránce Homebrew Formulae lze procházet seznamem balíčků. K dispozici jsou také různé statistiky.
Byl vydán Mozilla Firefox 138.0. Přehled novinek v poznámkách k vydání a poznámkách k vydání pro vývojáře. Řešeny jsou rovněž bezpečnostní chyby. Nový Firefox 138 je již k dispozici také na Flathubu a Snapcraftu.
Šestnáctý ročník ne-konference jOpenSpace se koná 3. – 5. října 2025 v Hotelu Antoň v Telči. Pro účast je potřeba vyplnit registrační formulář. Ne-konference neznamená, že se organizátorům nechce připravovat program, ale naopak dává prostor všem pozvaným, aby si program sami složili z toho nejzajímavějšího, čím se v poslední době zabývají nebo co je oslovilo. Obsah, který vytvářejí všichni účastníci, se skládá z desetiminutových
… více »Když mi toto řekli, už jsem se dál nesnažil vyjednávat a doteď nechápu, kam se svojí cenovou politikou mířili.Na rozumě velké storage systémy? :) Koupil sis ten nejnižsí model od NetApp s dumpingovým pricingem, tak se nediv, že mu nikdo jiný nedokázal konkurovat
Netapp ale od nich máme, protože v tom je ten fór. První firma, která se dozví o potencionálním zákazníkovi, hodí lock u NetAppu a nikdo jiný ani nesmí nabídnout cenu (prostě žádnou od NetAppu pro nás nedostane, konec), žádná soutěž neexistuje a není tak možnost se dostat níže u konkurence, prostě nulová konkurence.To není pravda, stačí dopis s podpisem statutárního orgánu společnosti, že jste zvoleného partnera byli nuceni vyřadit z výběrového řízení; lhaní ze strany partnera na obchodní schůzce by museli uznat jako validní důvod pro takový krok a kdyby ne, tak od toho je tady Peter Kos...
ení to tedy jako u ZFS, kdy se pro SLOG vyhradí SSD, pro LARC se vyhradí SSD a lze to vždy bez problémů vrátit zpět.NetApp používá pro transakční logy NVRAM, proto není potřeba používat SSD.
První je cluster (je myšlen cluster v rámci jednoho pole = propojení dvou řadičů), pak se lze dostat na konkrétní řadič a přímo do systému, což je ta nejnižší úroveň přístupu. Svému systému říká ONTAP.Ještě je tam Unix shell
Relativně nedávno přišel NetApp se sw řešením, kdy poskytuje jen SW a člověk si to může rozjet na svém HW. Tomuto řešení Netapp říká ONTAP Select (SDS - software defined storage). Je dodáván formou Virtual Appliance a může běžet jak pod ESXi, tak pod KVM.Pokud nedávno myslíš půlku roku 2015
SnapVault, slouží k zálohování, záložní lokalita není 1:1, ale je tam historie záloh SnapVault a lze dělat zálohy na jiné místo. Rozdíl oproti SnapMirror viz Comparison between qtree SnapMirror and SnapVaultTvůj odkazovaný článek pojednává o 7-mode; v cDOT je to už jinak.
SnapRestore - přístup ke snapshotům v rámci produktů třetích stran. Kdo má licenci na SnapRestore, tak může třeba z Veeamu spustit VM přímo ze Snapshotu, kdo ne, má smůlu, nedostane se z Veeamu k datům, musí ručně vykopírovat obsah snapshotuHlavně SnapRestore umožňuje atomický roll-back k nějaké verzi snapshotu...
Migrace na jiný NetApp, upgrade, případně migrace na jiný NetApp a další věci by měly procházet online, bez výpadku. Zatím jsem nic z toho nezkoušel, ONTAP je stále ve verzi 8.3.2 a na devítku jsme ještě nešli. Každopádně známý dělal upgrade na svém FAS2552 a prý online a bez problémů.Jen pokud budeš provádět migraci připojením do existujícího clusteru; já osobně bych to v mission-critical nasazení takhle rozhodně nedělal.
2x FAS2552 2x 24xSAS 1,8TB 10k 1x extra Shelf s 12x SSD 400GB kabely instalace / konfigurace školení licenceZdar Max
Ta v ontape prebieha tak ze sa zapise do RAM, nasledne skopiruje do NVRAM a posle do NVRAM partnera. Vsetko su to zapisy do pamate.NVRAM je namapovaní jako blok pamětového prostoru s přímým přístupem, k zápisu do klasické RAM nedochází; replikace do NVRAM partnera dochází atomicky a transakce se necommitne, dokud není záznam i v transakčním logu partnera; za předpokladu, že je zapojený MPHA pár samozřejmě...
Zapisy su teda rychle a async IO by nemalo zmysel.I NVRAM se dá zaplnit :)
Zapisy su teda rychle a async IO by nemalo zmysel. Malo by to zmysel ak su kontrollery daleko(napriklad MCC alebo 7mode FMC) a s obmedzenou linkouMetroCluster "s pomalou linkou" ale není podporovaná konfigurace :)
Qtree SnapMirror - tento vie o filesysteme a je pomalsi(musi preliezat filesystem.To platilo u 7-mode.
Ahoj,
Pouzivam 3x raidz2 po 8 diskoch. Nepouzivam SLOG, je to full-flash pole. Mame zapnutu lz4 kompresiu s pomerom 1.72x. Na netappe sme ledva mali 1.1x + nam to zabijalo CPU...
# zpool status -v
pool: data
state: ONLINE
scan: scrub repaired 0 in 4186h16m with 0 errors on Sat Feb 3 07:00:13 2018
config: NAME STATE READ WRITE CKSUM
data ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
c0t50000396DC8B773Dd0 ONLINE 0 0 0
c0t50000396DC8B6F3Dd0 ONLINE 0 0 0
c0t50000396DC8B76F9d0 ONLINE 0 0 0
c0t50000396DC8B7701d0 ONLINE 0 0 0
c0t50000396DC8B76E9d0 ONLINE 0 0 0
c0t50000396DC8B76FDd0 ONLINE 0 0 0
c0t50000396DC8B7739d0 ONLINE 0 0 0
c0t50000396DC8B7705d0 ONLINE 0 0 0
raidz2-1 ONLINE 0 0 0
c0t50000396DC8B6F4Dd0 ONLINE 0 0 0
c0t50000396DC8B6F39d0 ONLINE 0 0 0
c0t50000396DC8B76F5d0 ONLINE 0 0 0
c0t50000396DC8B7715d0 ONLINE 0 0 0
c0t50000396DC8B75BDd0 ONLINE 0 0 0
c0t50000396DC8B7721d0 ONLINE 0 0 0
c0t50000396DC8B770Dd0 ONLINE 0 0 0
c0t50000396DC8B7725d0 ONLINE 0 0 0
raidz2-2 ONLINE 0 0 0
c0t50000396DC8B6F49d0 ONLINE 0 0 0
c0t50000396DC8B6F55d0 ONLINE 0 0 0
c0t50000396DC8B7711d0 ONLINE 0 0 0
c0t50000396DC8B76EDd0 ONLINE 0 0 0
c0t50000396DC8B75C5d0 ONLINE 0 0 0
c0t50000396DC8B7719d0 ONLINE 0 0 0
c0t50000396DC8B7729d0 ONLINE 0 0 0
c0t50000396DC8B6F51d0 ONLINE 0 0 0
Config je cca:
2x Dell R730xd (controller)
- 2x Intel 10GE DP x520 - 256 GB RAM
- 2x 12 core XEON v4 high freq (neviem presny model z hlavy)
- 2x SAS3 radic v passthru mode
- 24x Toshiba SX04SR? 1,92TB SSD v JBODe (myslim, ze MD1420)
NexentaStor + HA plugin.
K tomu existuje este dalsia nexenta pre DR backupy, kde su rotacne disky a SLOG na SSD. Ta je ulozena v druhom DC a priamy L2 tunel. Tam sa primarne pole replikuje pre pripad, ze by sa nieco katastrofalne stalo. Replika bezi par krat do dna. Este zaujimavostou je, ze na primarnom poli drzime 3 dni snapshoty (okrem teda zakaznickych) a na sekundarnom 21 dni, cim sa zaujimavo setri miesto a v pripade potreby starsieho snapshotu sa proste posle snapshot spat cez zfs send/receive na primarne pole.
Este priatelska rada:
"Pole má dva řadiče (=prostě servery, hafec jader, hafec ram, každý 2x 10Gbit pro připojení ke storage atd.), kde se definuje, jaký řadič má vlastnit jaký disk. Proto je dobré pole rozdělit do dvou agregátorů, aby disky v jednom agregátoru vlastnil jeden řadič a v druhém agregátoru další řadič a byla tak rozdělena zátěž. Když padne jeden řadič, druhý převezme jeho fci (vlastnictví disků u služeb), to je cajk."
Vyskusaj si to pri plnej produkcii. Z mojej skusenosti su casto oba agregaty az moc zatazene a v pripade padu jedneho z nich ide cele pole do ... v lepsom pripade su jeho odozvy v sekundach. Idealne by sa v peaku teda nemala CPU / Net utilizacia dostat nad 35-40%. Zataz nestupa uplne linearne, ale horsie.
Vyskusaj si to pri plnej produkcii. Z mojej skusenosti su casto oba agregaty az moc zatazene a v pripade padu jedneho z nich ide cele pole do ... v lepsom pripade su jeho odozvy v sekundach. Idealne by sa v peaku teda nemala CPU / Net utilizacia dostat nad 35-40%. Zataz nestupa uplne linearne, ale horsie.presne tak ziadne prevzatie funkcii druhym radicom, sekundove lagy az pad na drzku...
Tiskni
Sdílej: