Ondsel, tj. vylepšený FreeCAD, po dvou letech skončil. Cílem Ondselu bylo vylepšit UX/UI FreeCADu a nabízet jej komerčně. Od začátku věděli, že konkurovat komerčním CADům bude těžké. Bylo to ale těžší, než si mysleli. Proprietární CADy se vyučují na školách a jsou hluboce zakořeněny v průmyslu. Většina vylepšení od Ondselu se dostane do FreeCADu.
Desktopové prostředí LXQt (Lightweight Qt Desktop Environment, Wikipedie) vzniklé sloučením projektů Razor-qt a LXDE bylo vydáno ve verzi 2.1.0. Přehled novinek v poznámkách k vydání.
Aplikace LocalSend, tj. multiplatformní open source alternativa k AirDropu, tj. bezpečné sdílení souborů a zpráv s okolními zařízeními přes lokální síť, bez potřeby připojení k internetu, byla vydána ve verzi 1.16, aktuálně 1.16.1. Instalovat lze také z Flathubu a Snapcraftu.
Nejnovější publikace v knižní edici správce české národní domény nese název ESP32 prakticky a jejím autorem je Martin Malý. Kniha je průvodcem ve světě výkonných a velmi bohatě vybavených mikrokontrolérů společnosti Espressif. V knize se naučíte, jak využít tento čip pro různé projekty, od základního nastavení a programování ESP32 v Arduino IDE, přes připojení k Wi-Fi a Bluetooth, až po pokročilé techniky, jako je realtime operační systém FreeRTOS, příjem signálu z družic nebo programování v ESP-IDF.
Byl představen nový oficiální 7palcový Raspberry Pi Touch Display 2. Rozlišení 720 × 1280 pixelů. Cena 60 dolarů.
Na čem aktuálně pracují vývojáři webového prohlížeče Ladybird (GitHub)? Byl publikován přehled vývoje za říjen (YouTube).
Byla vydána verze 0.4.0 v Rustu napsaného frameworku Pingora pro vytváření rychlých, spolehlivých a programovatelných síťových systémů. Z novinek lze vypíchnout počáteční podporu Rustls, tj. implementaci TLS v Rustu. Společnost Cloudflare uvolnila framework Pingora letos v únoru pod licencí Apache 2.0.
Byla vydána první pre-release verze desktopového prostředí Xfce (Wikipedie). Vydání ostré verze je plánováno na 15. prosince. Současně byla vyhlášena soutěž o výchozí wallpaper pro Xfce 4.20. Uzávěrka přihlášek je 15. listopadu.
Přímý přenos z konference OpenAlt 2024, jež probíhá tento víkend v prostorách FIT VUT v Brně. Na programu je spousta zajímavých přednášek. Pokud jste v Brně, stavte se. Vstup zdarma.
V Coloradu unikla hesla k volebním počítačům. Více než 2 měsíce byla tabulka se stovkami hesel do BIOSu volně na webových stránkách. Dle úřadu je potřeba ještě druhé heslo, takže se o žádnou bezprostřední bezpečnostní hrozbu pro volby nejedná [Ars Technica].
Zdravím,
toto téma je hlavně teoretické, zajímá mě každý váš názor. Můžete psát i věci u kterých si nejste 100% jisti, že to tak jde :). Takže moc se mi líbí přístup ZFS, to vytváření filesystémů je prostě nádherné :), už teď jsem spokojen s LVM, ale ZFS je ještě lepší :). Líbí se mi taky, že umí "online" zapojit další disk. Což mě přivádí k myšlence, jak to rozdělit na více strojů?
Představa je následující. Mám 4 storage servery (každý 25TB) a 5 klientů. Výsledek: 4 storage servery budou zapojeny jako jeden, tím mi vznikne 100TB pole. Každý klient bude mít toto pole k dispozici pro čtení/ukládání uživatelských dat. Jako filesystem by mel být použit ZFS.
Máte nějaké návrhy? Jak byste to řešili?
No maximálně podle nadpisu, ale o tomhle toho téma není.
Představa je následující. Mám 4 storage servery (každý 25TB) a 5 klientů. Výsledek: 4 storage servery budou zapojeny jako jeden, tím mi vznikne 100TB pole. Každý klient bude mít toto pole k dispozici pro čtení/ukládání uživatelských dat. Jako filesystem by mel být použit ZFSMožná jsem otázku zcela nepochopil (s nadpisem nemá nic společného), ale co ti brání vzít ta 4 disková pole (export např přes FC, iSCSI apod), zkrátka mít ve výsledku 4 bloková zařízení po 25TB, a nad těmito udělat jeden 100TB ZFS pool?
Do téhle problematiky tolik nevidím, zatím ji oťukávám. Jdu provést nějaké testy :). Jen pro ujištění. Aby to tedy šlo neustále rozšiřovat, musí být každý iSCSI nastaven na každém klientovi. K jednomu souboru pak může přistupovat několik serverů. Ohlídá si to nějak nebo může nastat problém? Řešení jednoho serveru, kde budou všechny iSCSI připojeny a dále exportovat např. přes NFS by mohlo být za čas nedostačující.
PS: Ještě jednou upozorňuji, jedná se čistě jen o teorii. V žádném případě výsledek této diskuse nebudu závádět někde v produkčním prostředí. Jen chci více proniknout do této problematiky a zkušenosti zde získané použít v budoucnu. Vše to testuji ve virtuálním prostředí, takže se nebráním žádným experimentům.
Aby to tedy šlo neustále rozšiřovat, musí být každý iSCSI nastaven na každém klientovi.
Nikoliv. To co jsem popisoval já je stav, kdy nad diskovými poli vytvoříš jedno jediné a to potom předáváš klientů (pomocí NFS, případně SAMBy). Pochopitelně tam můžeš přidat další pole a to zastřešující jednoduše rozšířit (ZFS, LVM, to už je jedno).
Ohlídá si to nějak nebo může nastat problém?
Za předpokladu, že na daném blokovém zařízení (iSCSI se na straně Iniciátoru - klienta - tváří jako úplně obyčejný disk), je nějaký systém souborů, který umí být sdílen. Znám jenom jeden, VMFS.
U normálních FS nastane problém po prvním zápisu.
To jsem si myslel. No dobře, každopádně jak to myslíš s tím rozšiřováním? Je to tak jak si to myslím? Tedy budu mít jeden hlavní server a další např. 4 připojený přes iSCSI do toho jednoho. Ten to vyexportuje třeba přes NFS ostatním. V případě potřeby připojím k tomu serveru přes iSCSI další. A až nebude ten hlavní stíhat, tak sestavím nové pole.
Tedy budu mít jeden hlavní server a další např. 4 připojený přes iSCSI do toho jednoho.
V podstatě takhle jsem to myslel s tím, že těch serverů nemusí být nutně 5. Export toho jednoho pole může klidně dělat jedno z těch diskových polí -- to pokud to chceme mít levné.
Případně ty jednotící servery mohou být dva v clusteru a ty storage budou zrcadlené -- v případě, že nám jde trochu o data. Tedy celkem 10 strojů.
Ten to vyexportuje třeba přes NFS ostatním.
Přesně tak, na tom jednotícím ty iSCSI mohou být spojeny klidně do RAID0 (pokud nám fakt nejde o data a chceme to mít pekelně rychlé), případně jen jako další disk ve VG či ZFS poolu. A nad touto vrstvou pak export přes síťové sdílené FS.
No dobře, každopádně jak to myslíš s tím rozšiřováním?
Přidám další pole, přes FC/iSCSI dotáhnu do toho jednotícího serveru a tam ho prostě přidám do R0, ZFS poolu, VG
S tím si lze hrát poměrně hodně, záleží na co to člověk potřebuje. Bohužel to se často zjistí až po roce provozu a celý storage je potřeba od základů překopat.
Umoznit viacerym klientom zapisovat do jednej nazvyme to partition by malo zvladnut kazde lepsie pole.
Pole jistě, ale systém souborů už ne. Nebo je vícenásobné připojení FS pro zápis v unixovém světě standardem?
Mna by len zaujimalo, na co potrebujete 100TB uceleneho priestoru.
Tazatel to bere jako teoretické cvičení. V mailing listech XFS se ale nezřídka objevují požadavky na 100TB. Nepřijde mi to tak přehnané.
Díky za příspěvek ;). Samozřejmě v produkčním prostředí je to nutné řešit jinak. Každopádně tady mi jde o postup. Ostatní záležitosti jako redudanci teď můžeme nechat stranou.
Tiskni Sdílej: