Microsoft zveřejnil na GitHubu zdrojové kódy MS-DOSu 4.0 pod licencí MIT. Ve stejném repozitáři se nacházejí i před lety zveřejněné zdrojové k kódy MS-DOSu 1.25 a 2.0.
Canonical vydal (email, blog, YouTube) Ubuntu 24.04 LTS Noble Numbat. Přehled novinek v poznámkách k vydání a také příspěvcích na blogu: novinky v desktopu a novinky v bezpečnosti. Vydány byly také oficiální deriváty Edubuntu, Kubuntu, Lubuntu, Ubuntu Budgie, Ubuntu Cinnamon, Ubuntu Kylin, Ubuntu MATE, Ubuntu Studio, Ubuntu Unity a Xubuntu. Jedná se o 10. LTS verzi.
Na YouTube je k dispozici videozáznam z včerejšího Czech Open Source Policy Forum 2024.
Fossil (Wikipedie) byl vydán ve verzi 2.24. Jedná se o distribuovaný systém správy verzí propojený se správou chyb, wiki stránek a blogů s integrovaným webovým rozhraním. Vše běží z jednoho jediného spustitelného souboru a uloženo je v SQLite databázi.
Byla vydána nová stabilní verze 6.7 webového prohlížeče Vivaldi (Wikipedie). Postavena je na Chromiu 124. Přehled novinek i s náhledy v příspěvku na blogu. Vypíchnout lze Spořič paměti (Memory Saver) automaticky hibernující karty, které nebyly nějakou dobu používány nebo vylepšené Odběry (Feed Reader).
OpenJS Foundation, oficiální projekt konsorcia Linux Foundation, oznámila vydání verze 22 otevřeného multiplatformního prostředí pro vývoj a běh síťových aplikací napsaných v JavaScriptu Node.js (Wikipedie). V říjnu se verze 22 stane novou aktivní LTS verzí. Podpora je plánována do dubna 2027.
Byla vydána verze 8.2 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a v informačním videu. Zdůrazněn je průvodce migrací hostů z VMware ESXi do Proxmoxu.
R (Wikipedie), programovací jazyk a prostředí určené pro statistickou analýzu dat a jejich grafické zobrazení, bylo vydáno ve verzi 4.4.0. Její kódové jméno je Puppy Cup.
IBM kupuje společnost HashiCorp (Terraform, Packer, Vault, Boundary, Consul, Nomad, Waypoint, Vagrant, …) za 6,4 miliardy dolarů, tj. 35 dolarů za akcii.
Byl vydán TrueNAS SCALE 24.04 “Dragonfish”. Přehled novinek této open source storage platformy postavené na Debianu v poznámkách k vydání.
Takže radši RAID 10.Ten zase nezajišťuje stejnou úroveň redundance, takže asi záleží na tom, co chceš.
[...] R6 se ti bude rebuildovat uplne stejne, jen mas posychrovanej vypadek dvou disku. [...]jenze o to "jen..dvou" prave ze jde ;)
Potom namietaš, že aj redundancia dvoch diskov je málo.Nikoliv.
[...R5...] spare disk, kterej ho nahradi driv nez umre, takze se to chova velmi podobne jako R6 [...]podobne neni stejne, kdyz spare mas i u raid6, pak uz to neni ani podobne...
A nebo pokus jsi labužník a máš dost ram, tak nalaď ZFSonLinux.Osobně bych raději doporučil rovnou FreeBSD. Prostě nemám nejlepší pocit nasazovat ZFS na Linux za situace, kdy:
Supermicro Board : X10DRW-iT (2x CPU, Intel® X540 Dual port 10GBase-T, 10x SATA3, IPMI, SUB3), Bios : 2.0 (17.12.2015) Case : SuperChassis 847BE1C-R1K28WB, 36x (24 front + 12 rear) 3.5" hot-swap, Redundant 1280W Platinum Level (1+1) 2x Intel Xeon E5-2620 v3 @ 2.40GHz (6 core, 12 threads) 1x Areca 1883i (LSI3108), 2GiB (fw: 1.53 - 13.5.2016) 1x Areca SuperCap Flash Back Up Unity 4x 16GiB DDR4 2133MHz 2Rx4 (64GiB) - (Samsung M393A2G40DB0-CPB) 4x 32GiB DDR4 2133MHz 2Rx4 (64GiB) - (Samsung M393A4K40BB0-CPB) 13x 4TB WD RE4 (ZFS RAID 10) 12x 4TB WD RE4 (ZRAID3) 1x HP SC08e 6Gb 2-ports Ext PCIe SAS HBA = LSI SAS2008-IT (fw:20.00.07.00) 1x MSA P2000 G3 SAS SATA 3,5" (2x RAID6 - 2x 10TB = RAID60 20TB) 1x Intel X520-DA2 (Cabling Type - SFP+ Direct Attached Twin Axial Cabling up to 10m) Left riser card : [RSC-R2UW-4E8] Right riser card: [RSC-R1UW-E8R] U této WIO desky fungují s jedním CPU jen sloty 3 a 4 na levé strany, proto bylo nutné dokoupit další CPU a k němu další ram.Teď ještě na budu přesouvat backup server pro Oracle databáze na tento storage do jailu, abych zrychlil kompresi dumpů a další věci a ty CPU se tak neflákaly.
FreeBSD si teď nejsem jistý, zda je pro něj dostupná taková sw výbava jako pro linuxTo neumím posoudit, zatím jsem v portech našel vše, co jsem potřeboval pro serverové nasazení.
VPSFree dokazuje, že to se ZFSonLinux jde i produkčně.Jistě, to jsem nerozporoval, pro produkční nasazení je to ok, ale po stránce řekněme morální s tím mám trochu problém.
Každopádně už se těším, až bude u btrfs dostupné RAID5/6No mě dost chybí podpora pro flash cache. Doporučení vývojářů btrfs používat prostě ssd na všechno (i na datovou storage) je jistě vtipné, ale cenově zatím trochu mimo. ZFS má SLOG (+ cache, ale tam je lepší mít dost ram) a to z těch obyč rotačních disků v našich testech udělalo úplně jinou kategorii (naschvál jsme testovali na starých green diskách + intel dc 36xx ssd a nestačili se divit, jakej to má výkon). Takže toto je pro mě důvod pro zfs, i z levných disků + ssd to udělá obstojný storage. raid56 mi ani tak moc nechybí, stejně všechno stavím jako raid10 (v zfs potom jako mirror vdevy vkládané do zpoolu).
aspoň 3 nodyNo tohle je absolutní minimum, kde riskuješ, že při výpadku libovolného nodu ti nepojede nic. Za rozumné minimum se považuje 5 nodů.
To už je celkem dost železa.Neříkej, že by to nebylo levnější, než ty netappy.
Když tedy padne jedna napájecí větev, tak padne i jeden řadič a druhý online převezme jeho fci.Geniální řešení ... Přiznávám, že k posouzení stavu hw u nabízených komerčních řešení jsme se ani nedostali. Úplně mi stačilo jednání s HP, kde nebyli schopni dodat jedinou nabídku správně (tj. tak, aby to šlo z dodaných dílů vůbec poskládat).
Další důvod pro NetApp byla dobrá podpora NFS4.1 (to nemá FreeBSD ani OpenIndiana). Jako hypervisor mám ESXi 6 a tam je NFS4.1 také ok.No my pravděpodobně (to ještě nevím), budeme do vmware strkat iscsi a nikoliv nfs. Protože ceph má takovou malou nepříjemnost a to pouze jeden metadata server (což nechápu, kdo to takto navrhoval), takže při jeho výpadku ti vypadne i ten exportovaný cephfs. Zatímco exportovaná bloková zařízení běží dál a můžeš si vypínat nody jak chceš (s přihlédnutím na redundanci). Na NFS považuji za lepší variantu GlusterFS (který má ovšem tunu jiných nevýhod).
urcite umi i nfs3, jen je tam omezej feature set
promin, pozdej mi doslo ze si to myslel takhle.
OT kdyz uz jsme u vmware. doporucuji vyzkouset vsan. Nasazoval jsem to ted s nsx. Dokonce nam to vmware doporucil na management cluster. Uz to chrousta vic jak rok, vypadky disku i nodu probehli bez jakychkoliv potizi, vykon excelentni... jen ty licence, no ale to uz neni tak hrozny oproti nsx.
Taktez zaplnenim FS odstrelite jakkykoliv system.Je obrovský rozdíl mezi tím, když plný FS okamžitě vrátí chybu, že je plný, a tím, když deset minut hledá volné místo a pak teprve řekne, že nenašel.
Taktez zaplnenim FS odstrelite jakkykoliv system.Nestalo se.
Je mozne u BTRFS zapnout neco co mi zaruci, ze se mi FS neposkodi (i za cenu snizeni vykonu?).Příčetný admin. Těžko se reaguje bez konkrétních chybových hlášení a popisů stavů.
- kdyz jsem ho pouzil jako FS pro praci, tak v porovnani s ext4 to byla super bida. vse o 25% pomalejsi (mereno vlastnimi testy)25% je super bída ve srovnání s tím, co ten FS nabízí za funkce? Já mohu posloužit testy, kdy jen ten FS ještě pomalejší (obecně to má pomalý fsync, což se ale ví), ale přes to jej používám, protože možnost snapshotů a reflink kopií je pro mě větším přínosem a uspoří mi víc času, než spálí ty pomalé operace.
- kdyz se FS zaplnil, casto na dlouhe chvile zatuhnul a tim vsechny procesy co spolehali na ten FS.Nezaplňovat FS. Jako vážně, když jsem přicházel do světa linuxu, byla dobrá rada zaplňovat max. do 80%. A to tehdy (1998) bylo na scéně jen ext2 (plus nějaké obskurní pokusy). Stále to považuju za dobrou radu a žádný fs bych nenechal dojít do stavu 100% zaplnění.
- obecne s poctem snapshotu a probehnuvsich diskovych operacich cely FS zpomaluje.Toho jsem si nevšiml, snapshotů mám obecně tisíce. Jediný "problém", který nastane je úklid (btrfs-cleaner) po odstranění několika desítek snapshotů současně - to je potom fs hůře dostupné, ale to se dá řešit tak, že se ty snapshoty budou mazat postupně v čase. (Nehledě na to, že na normálním FS bych tam ty adresáře ani mít tolikrát nemohl, protože by se to tam nevešlo, a nebo pokud by to byly skutečné kopie na nějakém celkově obrovském fs, tak by to trvalo nejšpíš stejně dlouho - ty záznamy se v těch strukturách fs stejně tak jako tak změnit musí).
Nezaplňovat FS. ?S ext4 se mi bezne stava ze ho zaplnim az po strop a nestalo se mi ze by mi zatuhnul system. Abych to upresnil: Pokud jsem rekl zaplnoval, mel jsem na mysli FS, ktery nebylpripojeny jako / nebo cast stromu kde jsou systemove programy/knihovny/zdroje (/usr*, /lib*, /etc* atp.). Data na ktere se ty procesy spolehali byli data se kterymi pracovali (obrazky, hudba, gitlab data, nextcloud data, atp.). Muj prispevek nemel byt konfrontacni, jen jsem chte dat zkusenost. V naslednych postech by mne fakt zajimalo, jak spravne pouzivat BTRFS, aby mi dobre spolehlive a predvidatelne slouzil. Rad bych poskytnul konkretni hlaseni, dokonce jsem si to nekam i ulozil, ale bohuzel to uz nemuzu najit.
S ext4 se mi bezne stava ze ho zaplnim az po strop a nestalo se mi ze by mi zatuhnul system.Ok, rozumím, ale stejně bych to nedělal. Už jen proto, že nalézt volné bloky je pro ten fs čím dál větší problém a ty bloky už rozhodně nebudou v souvislých oblastech. Takže se značně zvyšuje fragmentace souborů. Což je věc, která se na ext4 blbě řeší (ne že by to vůbec nešlo, ale proč si přidávat starosti).
Muj prispevek nemel byt konfrontacni, jen jsem chte dat zkusenost. V naslednych postech by mne fakt zajimalo, jak spravne pouzivat BTRFS, aby mi dobre spolehlive a predvidatelne slouzil.Já mám nejstarší BTRFS někdy z roku 2010, už přežilo výměnu několika disků (celkem postupně 9). Chvílemi tam bylo i desítky tisíc snapshotů, teď jsem se "uklidnil" na tisíce. Pravdou ale je, že zaplnění nikdy nepřerostlo 80% (po pravdě, aktuálně 83%, ale mám tam data, o kterých vím, že se brzo zbavím), normální zaplnění je tak 70%. Aktuálně to používám (kromě home adresářů a adresářů s projekty) hlavně na běh kontejnerů (nspawn). Tam se hodí snapshoty (před update, jako záloha - v kombinaci se send na jiný server, před náročnější akcí apod.) O data jsem s BTRFS nikdy nepřišel, rozpadl se mi jen jednou, když zahaproval řadič a polovina disků náhle zmizela. I potom šel ten fs namountovat, data šla překopírovat a btrfs do logu vesele psal corruption detected and repaired (nebo tak něco). I tak jsem ta data obnovil raději ze zálohy.
Jak se divate na btrfs jako fs ve VM?Komplikovaně. Záleží na konkrétním provozu. U nás jsem navrhoval použití BTRFS ve vm z důvodů snadného natahovaní a zmenšování (kdykoliv lze přidat další disk a kdykoliv lze disk zase odebrat), takže na rozdíl od ostatních fs by bylo možné vmko za běhu zbavit disků, které už nejsou potřeba. Tohle třeba s ext4 bez výpadku nelze udělat a třeba xfs nenabízí shrink vůbec. Jenže postupně tento důvod nějak ustal, protože thin provisioning "prostě funguje", takže disk navíc ve vmku nehraje takovou roli.
Resim ted, ze na ext4 po ztrate sitoveho storageJakoze VMko přišlo (na chvíli) o disky? Tomu, obávám se, žádný fs odolný není.
Takovy PSQL se obnovil bez problemu, ale Berkeley db ne.V tom případě udělat revizi zálohovacího řešení. FreeIPA neznám, možná nabízí nějakou formu replikace, ovšem v každém případě je nutné mít řádnou zálohu.
truncate --size=0 /cesta/k/souboru_na_btrfs
smrskne jeho velikost na 0 bajtů, a pak už jde smazat bez problémů.
25% je super bída ve srovnání s tím, co ten FS nabízí za funkce? Já mohu posloužit testy, kdy jen ten FS ještě pomalejší (obecně to má pomalý fsync, což se ale ví), ale přes to jej používám, protože možnost snapshotů a reflink kopií je pro mě větším přínosem a uspoří mi víc času, než spálí ty pomalé operace.No proto jsem psal kontext pouziti. Pokud s nim chci aktivne pracovat, musim se s tim smirit a nebo to nepouzivat. Ja si zvolil nepouzivat, ale na inkrementalni zalohy mi 25% horsi vykon nevadil. Jen pokud bych se na neho mohl opravdu spolehnout. Viz dalsi zkusenosti.
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT zroot 5.44T 4.66T 792G - 29% 85% 1.00x ONLINE -
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT datastore-e1 18.1T 16.6T 1.56T - 50% 91% 1.00x ONLINE /mnt datastore1 21.8T 17.4T 4.38T - 49% 79% 1.00x ONLINE /mnt datastore2 43.5T 40.6T 2.86T - 41% 93% 1.00x ONLINE /mntZdar Max
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT data 1.67T 1.61T 65.2G - 57% 96% 1.00x ONLINE - sys 9.75G 6.06G 3.69G - 50% 62% 1.00x ONLINE -
Aktivuj si počítání kvót a budeš to vědět přesně.Jo, a taky si počká. Měl jsem zapnuté kvóty (protože s tím umí spolupracovat
machinectl
a u kontejneru zobrazuje velikost), ale potom bylo mazání snapshotu o dost pomalejší (nemyslím v userspace, to vždy proběhne hned, ale potom cleaner běžel o poznání déle). Po vypnutí opět ok. Znát přesnou velikost subvolume zase tak nutně nepotřebuju.
Myslel jsem si ze snapshoty jsou jen nove pohledy na stav toho FSOvšem je důležité vědět, jak takový pohled na stav fs vznikne. FS ukládá data souborů do bloků na disku. Tradiční fs to dělaly tak, že při přepisu obsahu souborů prostě rovnou přepsal ty bloky. Toto řešení je jednoduché, přímočaré a velmi rychlé. Jenže v případě výpadku (třeba napájení) došlo k poškození dat toho naposledy zapisovaného souboru. Journal (typicky) řeší pouze metadata, takže po fsck je fs "v pořádku", ale data mohou být poškozená (zápis souboru prostě nedoběhl). COW toto řeší trochu jinak. Soubor má data opět v blocích. Ale každý blok, pokud se má přepsat, tak se "zkopíruje" na nové umístění a teprve tam se zapíšou data. Až je tohle hotové, atomicky se přehodí ukazatel a soubor má náhle jiné bloky s novými daty. Teoreticky tak nemůže dojít k poškození souboru, protože soubor je po výpadku buď ve stavu před výpadkem (prostě nedošlo k přehození ukazatelů), nebo po zápisu (vše proběhlo ok). No a když už má FS tohle, tak je poměrně jednoduché udělat snapshot souboru (reflink). Prostě se udělá "kopie" seznamu bloků. Takže snapshot ukazuje na staré bloky a soubor ukazuje na nové bloky. Těchto reflinků tam může být "neomezený počet", prostě každý z nich ukazuje na své bloky, přičemž většina z nich pravděpodobně bude sdílena. Tedy tato kopie šetří místo. Problém je samozřejmě v tom, že ty nové bloky už čistě z principu nemohou být na stejném místě jako ty původní, tedy automaticky dochází ke fragmentaci - disk musí seekovat mezi různými bloky a není možné, aby každý reflink (což je prostě z hlediska user space normální samostatný soubor, není to ani hardlink ani softlink) byl uložen souvisle na disku. COW tedy automaticky vede k větší fragmentaci. Proto se také doporučuje používat SSD.
Jinak mazani na BTRFS je sranda a clovek nikdy nevi kolik a kdy se mu posmazani uvolni mista , ale to chapu a s tim problem nemam.Ano, tohle je z důvodu viz výše. Pokud smažete soubor s reflinky (snapshoty), tak není jasné, kolik bloků bude skutečně možno uvolnit - což jsou pouze ty, na které už nikdo další neodkazuje.
Tiskni Sdílej: