Homebrew (Wikipedie), správce balíčků pro macOS a od verze 2.0.0 také pro Linux, byl vydán ve verzi 4.5.0. Na stránce Homebrew Formulae lze procházet seznamem balíčků. K dispozici jsou také různé statistiky.
Byl vydán Mozilla Firefox 138.0. Přehled novinek v poznámkách k vydání a poznámkách k vydání pro vývojáře. Řešeny jsou rovněž bezpečnostní chyby. Nový Firefox 138 je již k dispozici také na Flathubu a Snapcraftu.
Šestnáctý ročník ne-konference jOpenSpace se koná 3. – 5. října 2025 v Hotelu Antoň v Telči. Pro účast je potřeba vyplnit registrační formulář. Ne-konference neznamená, že se organizátorům nechce připravovat program, ale naopak dává prostor všem pozvaným, aby si program sami složili z toho nejzajímavějšího, čím se v poslední době zabývají nebo co je oslovilo. Obsah, který vytvářejí všichni účastníci, se skládá z desetiminutových
… více »Richard Stallman přednáší ve středu 7. května od 16:30 na Technické univerzitě v Liberci o vlivu technologií na svobodu. Přednáška je určená jak odborné tak laické veřejnosti.
Jean-Baptiste Mardelle se v příspěvku na blogu rozepsal o novinkám v nejnovější verzi 25.04.0 editoru videa Kdenlive (Wikipedie). Ke stažení také na Flathubu.
TmuxAI (GitHub) je AI asistent pro práci v terminálu. Vyžaduje účet na OpenRouter.
Byla vydána nová verze R14.1.4 desktopového prostředí Trinity Desktop Environment (TDE, fork KDE 3.5, Wikipedie). Přehled novinek i s náhledy v poznámkách k vydání. Podrobný přehled v Changelogu.
Bylo vydáno OpenBSD 7.7. Opět bez písničky.
V Tiraně proběhl letošní Linux App Summit (LAS) (Mastodon). Zatím nesestříhané videozáznamy přednášek jsou k dispozici na YouTube.
Stará NASka praská ve švech. Disky v ní jsou téměř 5 let staré a jsou v RAID5. Hodně blbá kombinace. Navíc na začátku jsem učinil pár nepříliš šťastných rozhodnutí ohledně rozdělení, které mě nyní iritují. Část vyhrazená pro raw iSCSI je příliš malá takže se mezi ostatními daty válejí obří iSCSI soubory a podobně. Ostatně neznám nikoho, kdo měl v tomto směru dobrý odhad, pominu-li šťastlivce, kteří si můžou dovolit mít všechno na jednom svazku. Teoreticky by se daly udělat nějaké shrinky/expandy/přesuny... jenže mě se do experimentů na 7 TiB svazku, navíc z větší části nezálohovaném, příliš nechce.
Zrodil se tedy projekt úložiště pro takové to malé, domácí ukládání v normální domácnosti. No... normální. Pouze pokud se tak dá nazvat dvoučlenná domácnost, kde router i v noci indikuje 25 statických IP adres a 12 přidělených přes DHCP.
Je vidět, že jasný vítěz zde sice není, nicméně použitelní kandidáti zůstali pouze 2. Je to věci osobní volby. BTRFS má navíc výhodu čistější licenci a je vyvíjeno přímo v jádře. ZFS mi zase přijde jako mnohem vyspělejší. A to nakonec převážilo a rozhodl jsem se pro tento systém.
ZFS se dá použít v OpenIndiana nebo jiné variaci OpenSolarisu, FreeBSD nebo nějaké jeho nadstavbě (FreeNAS) ale také v Linuxu díky projektu http://zfsonlinux.org/. Rozhodl jsem se pro Linux, protože ho znám nejlépe.
Rozsah rešerše, které musí člověk podstoupit, když si chce koupit pitomý disk, je neuvěřitelný. Nebudu tím zatěžovat, vydalo by to na samostatný článek. Jako vítěz mi vyšel 3TB WD RED. Oproti třeba WD Green má trojnásobný MTBF. Je to sice číslo cucané z prstu ale při takovém rozdílu by to už něco mohlo znamenat. Navíc rozumí tomu, že poběží v RAIDu a že má tedy jen omezený čas na reakci. Některé disky se pokoušejí přečíst sektor třeba minutu. Řadič pak oprávněně označí celý takový disk jako vadný. Má nízkou spotřebu. Zkrátka z celého startovního pole těch levných šunkoidních disků mi vyšel nejlépe. 3TB varianta je (prý) méně poruchová než 4TB. Z požadované velikosti úložiště a kapacity disku a dvojité patity je zřejmé, že jsem musel pořídit 8 kusů.
Ke koupi disků jedna poznámka- je lepší nakoupit disky z různých sérii. Minimalizuje se tím pravděpodobnost, že se do pole dostanou disky zatížené stejnou výrobní vadou.
Základní desku je lepší koupit rovnou s potřebným počtem SATA portů. Rozšiřující karty jsou problematičtější a ve výsledku většinou i dražší. Je třeba si ověřit podporu řadiče. V případě Linuxu to většinou není problém, s FreeBSD to bývá horší a ESXi ve verzi 5.5 je vyloženě vybíravý a podporu pro většinu běžných řadičů nemá. Další důležitou vlastností je síťovka. Opět je lepší koupit rovnou vhodnou integrovanou kartu a nedokupovat pak zbytečně diskrétní síťovku protože ty bývají zbytečně drahé. Tady bych to charakterizoval takhle: Intel >>> Realtec > hromada hnoje > Broadcom. Pro ZFS potřebujeme hodně pamětí (odůvodnění bude v příští části, doporučuje se 1GiB paměti na 1TiB dat pokud nehodláte hojně použivat deduplikaci. V tom případě ještě mnohem více) a je tedy vhodné zakoupit desku s alespoň čtyřmi sloty. Paměť nejraději ECC. Když už máme checksumy v ZFS tak ať nám to nekazí chyby paměti. Procesor úsporný ale pro kompresi RAIDZ2 (což je ZFS název pro RAID6 s několika fíčurami navíc) to zase úplná plečka nemůže být. Výhodou je interní USB. Zbytek (jako integrovaná zvukovka, firewire a podobné blbosti) je nepodstatný. Já chtěl použit 2600K, který se mi válel v šuplíku spolu s 4x4GiB moduly. Tím jsem byl ve výběru desky značně omezen. Kvalitní desky dělá Supermicro. Já nakonec skončil s MSI Z77A-GD65. Je tam Intel síťovka, ASM1062 řadič pro dva dodatečné SATA porty, je tam tedy celkově 8 SATA portů, umí použít výstup "grafické karty" v procesoru což snižuje spotřebu a náklady na grafickou kartu. Současně to není deska tak úplně z "dolní poličky" takže má o něco málo kvalitnější součástky (s certifikací Military Class III :-p ).
Nastavení BIOSu, příprava disků, rozchození ZFS v Linuxu, konfigurace... v příští části.
Tiskni
Sdílej:
Paměť nejraději ECC. Když už máme checksumy v ZFS tak ať nám to nekazí chyby paměti.
Dodal bych, že Blue řada je na tom stejně jako Green
Moc pekne tesim se na pokracovani
Nejaky podobny servrik na domaci zvykani jsem resitl a nakonec jsem pouzi AsRock C2750D4I procesor je celkem schopny a usporny, ECC RAM, IPMI, sitovky Intel, jsem s tim zatim spokojen.
Ja zas nemel v supliku i5-2600K
Předem: nemám nic proti zálohování celých mašina a asi máš k tomu důvody, ale pár poznámek k některým větám :)…
V mé situaci, kdy mám virtuály na 5 různých OSech, nad některých nemám a nechci mít roota je odpověď myslím jasná.Je pravda že ESXi jen z povzdáli můžu sledovat a nijak se nezajímám, ale pokud bych vzal paralelu s KVM s hosty na LVM (a nectěl bych to dělat jako push zevnitř), tak stačí udělal snapshot „z venku“ připojit read only a od zálohovat libovolnou metodou (tar cjf .... -g ...).
Zálohování uvnitř bych řešil dny. Při každé změně bych musel pořád něco řešit. A pak by se ukázalo, že jsem něco zapomněl zálohovat. Nebo že se něco nezálohovalo kvůli právům nebo nějaké jiné záležitosti, zkrátka bych to musel pořád kontrolovat. Přídání každého VM by mě stálo zase práci.Viz výše a znamenalo by to jen, přidání do nějakého seznamu.
Rozchození zálohy celých VM bylo oproti tomu otázkou deseti minut (nakopírovat ghetto do ESXi, změnit pár věci v konfiguraci a hodit do cronu). Přidání dalšího VM mě stojí přesně 0 vteřin.Je možné že je to nejrychlejší řešeni pro nasazení, ale dost nepříjemné s ohledem na velikost ukládaných dat (nejhorší by asi bylo prosté dd). Přidání dalšího stroje v případě Linuxu by mohlo být pod 1 min pokud není součásti template (vložit skript).
PS: Pokud těch 5 OS zahrnuje Widle a není to jedna/dvě mašiny, tak chápu, že je to tak na jistotu, ale toho místa je mi líto …
zfs send
. U větších řešení je tohle řešeno na SAN úrovni.
Co se týče konzistence dat v RAM, tak 1) je to stejné, jako kdyby ten stroj spadnul, a měl přitom zálohovanou writeback cache = co prošlo před fysnc(), to je bezpečně uloženo - tj. aplikace by s tím neměly mít úplně zásadní problém; a 2) pro samotné aplikace může být nějaký agent, který jim dá vědět, aby udělaly checkpoint. Nevím, jak v linuxu, ale na Windows Server je tohle integrální součást systému/NTFS, se kterou řada aplikací umí pracovat (MSSQL Server, Exchange).
Ano, vše je o požadavcích, ale v situaci, kdy virtualizační systém a guesty spravují jiní lidé je výrazně praktičtější umět VM obnovit bez další práce uvnitř ní. A jak už bylo řečeno, čím jednodušší postup v krizové situaci, tím větší šance, že to vyjde a bude to rychle hotové.
Jenže lepší řešení nejsou zdarma a pochybuji, že by si je kvůli své malé virtualizaci pořídil.
Smazání snapshotu skrz vmware trvá dlouho.
Na SAN úrovni máte zas problém, že se zálohuje všechno nebo nic, což ne vždy může vyhovovat a SAN neví nic o VM nebo aplikačních datech v RAM.
ad 1) ale měl jsem za to, že se tomu se lidi snaží předejít. A v případě backup klienta tomu lze předejít.
ad 2) jo VSS. Vmware to umí s windows OS (quiesce guest FS). Vtipný je, že i když s tím linux nepracuje, tak kernel v RHEL6 měl bug, kvůli kterému ten linux někdy vytuh.
Kdyby tenhle portal za neco jeste stal, i bych se tu na blogu rozepsal, protoze se ZoL mam opravdu dost zkusenosti, o ktere stoji se podelit... Jenom musi byt s kym (mistni banda zarucene kazi chut sem cokoliv inteligentnejsiho psat...)Možná ti to ušlo, ale autor tohohle blogu, se kterým sis vyměnil bezmála deset příspěvků, je taky součástí místní bandy...
krom toho ukazat, jak to nekomu umis nandat.Vidíš, co chceš vidět.
Zajimave, autor se snazi na jednu stranu vybrat co nejspolehlivejsi reseni pro sva data v podobe ZFS, coz je opravdu dobra volba(ne-li dnes nejlepsi mozna), aby pozadovanou spolehlivost hned v zapeti poslal do kopru ignorovanim tak zakladni veci u ZFS jako je potreba ecc ram. U FS ktery je v podstate cely o ram je to pomerne nestastna volba. Staci procist par manualu k ZFS od sun-oracle nebo treba tady http://zfsonlinux.org/faq.html#DoIHaveToUseECCMemory.
Dalsi dulezitou komponentou je cpu...neni moc vhodne zvolit orezane polodpady jako atom ci jine low-watt srandicky. Naopak je potreba zvolit silne cpu, staci spustit na poolu scrub a i 4xcore na 3GHz se zacne poradne potit. Nekde jsem cetl, ze sun doporucoval minimalne dvoujadro. Intel core 2600 je vykonove hodne slusne, bohuzel neumi ecc.
Co se tyce volby OS, tak pro co nejstabilnejsi provoz ZFS se voli bud samotnej solaris(jehoz ultimativne-zasadni vyhodou dneska je nativni podpora sifrovani) nebo a je nejcastejsi volbou v komunitach "domacich kutilu" - openindiana ci BSD. BSD ma jednu zasadni vyhodu oproti openindiana a to, ze neni tak vybiravy po HW strance a je preci jen bliz svetu linuxu co se prace s nim tyce. Linuxu bych se v pripade ZFS vyhnul, ale padnej-zasadni argument nedodam-nemam, jen neznam nikoho, kdo by ZFS provozoval v realu na linuxu, coz neznamena, ze to nemuze nekde stabilne nejak jet :).
Zkratka dlouhodobe jsou v pripade ZFS nejpouzivanejsi a nejspolehlivejsi BSD s openindianou, ale kdyz to autor zkusi na linuxu jeho volba a sam jsem zvedavej.
For home users the additional safety brought by ECC memory might not justify the cost. It's up to you to determine what level of protection your data requires.
I lowend hw raid radice pouzivaji ecc ram. Dovolite si vymenit ecc ramku na raid radici(za predpokladu ze to firmware radice dovoli, coz nedovoli) za klasickou ramku, ktera se prodava za par svestek(128MB-1G)?
A ted kdyz to prevedem na ZFS, ktery bude pouzivat X ram modulu osazenych na zakladni desce, tak se moznost chyb kazdym dalsim modulem nasobi.
Je to jako jezdit v zime na letnich sjetych pneumatikach. I kdyby to bylo po 95-99 procent casu bez problemu a ridic mel stesti, tak prave to jedno procento dela a meni vse a v ten moment se ukaze sila zimnich gum - ecc ram. Je to samospasitelne? Samozrejme, ze ne, ale kdo jednou zazije ledovku na galuskacich, kde muze jit o hodne, tak si da sakra majzla na "pozadavky".
Pokud tvrdite, ze jsem "úplně mimo" predpokladam, ze mate nemale zkusenosti s provozem ZFS na klasickych ram bez ecc a na tom zakladate sva tvrzeni...nikoliv na linku s "might not justify the cost".
Jako vítěz mi vyšel 3TB WD RED. Oproti třeba WD Green má trojnásobný MTBF.Hmm, ty jsem měl v sw raid1 a chcíply mi oba téměř ve stejnou dobu