Microsoft v příspěvku na svém blogu věnovaném open source oznámil, že textové adventury Zork I, Zork II a Zork III (Wikipedie) jsou oficiálně open source pod licencí MIT.
První prosincový týden proběhne SUSE Hack Week 25. Zaměstnanci SUSE mohou věnovat svůj pracovní čas libovolným open source projektům, například přidání AI agenta do Bugzilly, implementaci SSH v programovacím jazyce Zig nebo portaci klasických her na Linux. Připojit se může kdokoli.
Google oznámil, že Quick Share na Androidu funguje s AirDropem na iOS. Zatím na telefonech Pixel 10. Uživatelé tak mohou snadno přenášet soubory z telefonů s Androidem na iPhony a obráceně.
Byla vydána nová verze 8.5 (8.5.0) skriptovacího jazyka PHP používaného zejména k vývoji dynamických webových stránek. Přináší řadu novinek a vylepšení (URI Extension, Pipe Operator, Clone With, …). Vydána byla také příručka pro přechod z předchozích verzí.
Evropská komise zahájila tři vyšetřování týkající se cloudových platforem Amazon Web Services (AWS) a Microsoft Azure. Evropská exekutiva, která plní také funkci unijního antimonopolního orgánu, chce mimo jiné určit, zda jsou americké společnosti Microsoft a Amazon v cloudových službách takzvanými gatekeepery, tedy hráči, kteří významně ovlivňují provoz internetu a musí dle nařízení o digitálních trzích (DMA) na společném trhu
… více »Společnost Meta Platforms vyhrála ostře sledovaný spor o akvizici sítě pro sdílení fotografií Instagram a komunikační aplikace WhatsApp. Podle amerického soudu firma jejich převzetím neporušila antimonopolní zákon, protože si tak nemonopolizovala trh sociálních sítí. Žalobu na Metu podala před pěti lety americká Federální obchodní komise (FTC). FTC argumentovala, že Meta, tehdy známá jako Facebook, koupila tyto dvě společnosti v letech 2012 a 2014 proto, aby s nimi nemusela soutěžit.
Home Assistant včera představil svůj nejnovější oficiální hardware: Home Assistant Connect ZBT-2 pro připojení zařízení na sítích Zigbee nebo Thread.
Byla vydána verze 9.1 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a informačním videu.
Byl aktualizován seznam 500 nejvýkonnějších superpočítačů na světě TOP500. Nejvýkonnějším superpočítačem zůstává El Capitan od HPE (Cray) s výkonem 1,809 exaFLOPS. Druhý Frontier má výkon 1,353 exaFLOPS. Třetí Aurora má výkon 1,012 exaFLOPS. Nejvýkonnější superpočítač v Evropě JUPITER Booster s výkonem 1,000 exaFLOPS je na čtvrtém místě. Nejvýkonnější český superpočítač C24 klesl na 192. místo. Karolina, GPU partition klesla na 224. místo a Karolina, CPU partition na 450. místo. Další přehledy a statistiky na stránkách projektu.
Microsoft představil Azure Cobalt 200, tj. svůj vlastní SoC (System-on-Chip) postavený na ARM a optimalizovaný pro cloud.
) EDIT: disky budú 3, zabudol som na to pri písaní
SWITCH
Vôbec netuším, nechám si poradiť. TP-LINK vždy u nás fungoval, ale tu som vyberal podľa ceny a GLAN.
PSU
350 W, 80+ Bronze, mohlo by byť OK, nechám si poradiť.
Čo sa týka OS, zahrávam sa s myšlienkou BSD a UFS2 FS. Nejaké výrazné +- pre toto riešenie, prípadne pre Linux + EXT(3,4)?
Vďaka vopred za komentáre. Odporúčania prosím dávať s ohľadom na cenu (nižšia = lepšia).
Tiskni
Sdílej:
Pro KVM to, ale zatím není.. (intenzivně testováno)I v blokovém módu (nebo jaxe tomu nadává, kdy to jede nad LVM místo nad systémem souborů) a s nativním backendem v qemu?
MD: Gigabyte F2A85XM-D3H (8 x SATA 6Gb/s portov, 4 USB 3.0 porty) - 67 eur CPU: AMD A4-5300, 3.40 GHz - 44 eur RAM: 2x2 GB za 25 eur HDD: 3x2TB - 264 eur + skrinka a zdroj lubovolny.dobre startovacie parametre, primerany vykon, rozsiritelnost a spotreba do 30 W v idle vsetko cakom-prask aj s diskami.
Kdyžtak se tam dá dát Debian.
** WD MyBook cosi, možná je v pořádku a špatný je jen ten převodník, ale to zjistím až jestli se mi podaří dostat dovnitř. Zatím se mi to nepodařilo ani s video návody na youtube. Konstruktéry z WD by asi zabilo, kdyby k externím HDD navrhli kryt, který se dá normálně otevřít...
.
Já mám pole RAID6 ze čtyř 2TB
Když už jsi ochotný jít na 50% kapacity disků, tak bych šel raději do RAID10 s tím, že mohou umřít až dva disky (každý z jednoho zrcadla). Kapacita bude stejná a jako odměna mnohem vyšší rychlost.
Podle mého názoru a zkušeností nemá příliš smysl u NAS řešit možnost výpadků dvou disků současně, ale mnohem rozumnější využít ty disky (které by jinak tvořili redundanci) na offline zálohu těch dat, protože největší procento vytažení zálohy není ani tak v selhání HW, ale k vůli chybě administrátora.
Já mám doma políčko z pěti 1T disků v Raid5 + všechna data na zálohách na externích diskách. Jednou, dvakrát do roka v tom poli chcípne jeden disku, ale to se vymění (dá to se vyměnit v podstatě do druhého dne). Jednou se stalo, že odešly dva různé disky 14 dnů po sobě. I kdyby to pole chcíplo (v případě, že bych nestihl vyměnit disk), tak mám zálohy.
Ehm. Zásadní rozdíl je v tom, že u RAID 6 ti mohou chcípnout kterékoliv dva disky. Kdežto u RAID10 sázíš na to, že ti pojde z každé půlky pouze jeden. Pokud se trefí oba na tu jednu půlku, tak prostě ostrouháš.
To je samozřejmě pravda, ovšem otázkou je, jak často se stane, že odejdou dva disky současně (v časovém rozmezí 1 den) a jak je náročné ta data vytáhnout ze zálohy. Pořád mi vychází, že je lépe ty disky věnovat na beztak nutnou zálohu, než na redundanci.
Momentálně jsem zvědav, jak dopadne raid6 v rámci Btrfs.
Já též. Za pár měsíců chtě nechtě budu muset nakoupit 4x3TB disky a pokud bych tam mohl dát BTRFS R5, byl bych moc rád. Aktuálně je to ext4 nad md, a moc mi tam chybí snapshoty.
Opravdu mi hlava nebere jak formátování jednoho zařízení může rozbít jiné, na které se mohl maximálně zapisovat log.Poté, co jsem viděl bug ve virtio-blk a v kernelu, kdy virtuálka (kvm) přepisovala bloky VG, které vůbec nepatřily , bych si opravdu nebyl jistej, že za to může zrovna ext.
V KVM mám všechny stroje bezdiskovéTakže si připojují FS samy zevnit přes NFS/iSCSI/...?
Robustnější řešení (co je mi známo) nikdo nemá.V takhle malém asi ne, ale u větších nasazení RHEVu je něco podobného standardem, a u kritických se to replikuje do dalšího datacentra, kde čekají stroje na příležitost zasáhnout...
Tuhle jsem to propočítal - za stávajícího stavu to může běžet cca 4 roky, aniž by došlo místo.Tak to mi připadá jako vlastnost tenkých obrazů (thin provisioning) obecně, bez ohledu na implementaci. Dnes tomu ubližuje to, že ne všechny články řetězce FS ve VM --> úložiště umí zahazovat nepoužívané bloky (TRIM, SAME_WRITE, ...), tudíž se obrazy neustále zvětšují a velká část snapshotů se tak na disk zapisuje zbytečně.