Open source modální textový editor Helix, inspirovaný editory Vim, Neovim či Kakoune, byl vydán ve verzi 25.07. Přehled novinek se záznamy terminálových sezení v asciinema v oznámení na webu. Detailně v CHANGELOGu na GitHubu.
Americký výrobce čipů Nvidia získal od vlády prezidenta Donalda Trumpa souhlas s prodejem svých pokročilých počítačových čipů používaných k vývoji umělé inteligence (AI) H20 do Číny. Prodej těchto čipů speciálně upravených pro čínský trh by tak mohl být brzy obnoven, uvedla firma na svém blogu. Americká vláda zakázala prodej v dubnu, v době eskalace obchodního sporu mezi oběma zeměmi. Tehdy to zdůvodnila obavami, že by čipy mohla využívat čínská armáda.
3D software Blender byl vydán ve verzi 4.5 s prodlouženou podporou. Podrobnosti v poznámkách k vydání. Videopředstavení na YouTube.
Open source webový aplikační framework Django slaví 20. narozeniny.
V Brestu dnes začala konference vývojářů a uživatelů linuxové distribuce Debian DebConf25. Na programu je řada zajímavých přednášek. Sledovat je lze online.
Před 30 lety, tj. 14. července 1995, se začala používat přípona .mp3 pro soubory s hudbou komprimovanou pomocí MPEG-2 Audio Layer 3.
Výroba 8bitových domácích počítačů Commodore 64 byla ukončena v dubnu 1994. Po více než 30 letech byl představen nový oficiální Commodore 64 Ultimate (YouTube). S deskou postavenou na FPGA. Ve 3 edicích v ceně od 299 dolarů a plánovaným dodáním v říjnu a listopadu letošního roku.
Společnost Hugging Face ve spolupráci se společností Pollen Robotics představila open source robota Reachy Mini (YouTube). Předobjednat lze lite verzi za 299 dolarů a wireless verzi s Raspberry Pi 5 za 449 dolarů.
Dnes v 17:30 bude oficiálně vydána open source počítačová hra DOGWALK vytvořena v 3D softwaru Blender a herním enginu Godot. Release party proběhne na YouTube od 17:00.
McDonald's se spojil se společností Paradox a pracovníky nabírá také pomocí AI řešení s virtuální asistentkou Olivii běžící na webu McHire. Ian Carroll a Sam Curry se na toto AI řešení blíže podívali a opravdu je překvapilo, že se mohli přihlásit pomocí jména 123456 a hesla 123456 a získat přístup k údajům o 64 milionech uchazečů o práci.
Zdravím,
toto téma je hlavně teoretické, zajímá mě každý váš názor. Můžete psát i věci u kterých si nejste 100% jisti, že to tak jde :). Takže moc se mi líbí přístup ZFS, to vytváření filesystémů je prostě nádherné :), už teď jsem spokojen s LVM, ale ZFS je ještě lepší :). Líbí se mi taky, že umí "online" zapojit další disk. Což mě přivádí k myšlence, jak to rozdělit na více strojů?
Představa je následující. Mám 4 storage servery (každý 25TB) a 5 klientů. Výsledek: 4 storage servery budou zapojeny jako jeden, tím mi vznikne 100TB pole. Každý klient bude mít toto pole k dispozici pro čtení/ukládání uživatelských dat. Jako filesystem by mel být použit ZFS.
Máte nějaké návrhy? Jak byste to řešili?
No maximálně podle nadpisu, ale o tomhle toho téma není.
Představa je následující. Mám 4 storage servery (každý 25TB) a 5 klientů. Výsledek: 4 storage servery budou zapojeny jako jeden, tím mi vznikne 100TB pole. Každý klient bude mít toto pole k dispozici pro čtení/ukládání uživatelských dat. Jako filesystem by mel být použit ZFSMožná jsem otázku zcela nepochopil (s nadpisem nemá nic společného), ale co ti brání vzít ta 4 disková pole (export např přes FC, iSCSI apod), zkrátka mít ve výsledku 4 bloková zařízení po 25TB, a nad těmito udělat jeden 100TB ZFS pool?
Do téhle problematiky tolik nevidím, zatím ji oťukávám. Jdu provést nějaké testy :). Jen pro ujištění. Aby to tedy šlo neustále rozšiřovat, musí být každý iSCSI nastaven na každém klientovi. K jednomu souboru pak může přistupovat několik serverů. Ohlídá si to nějak nebo může nastat problém? Řešení jednoho serveru, kde budou všechny iSCSI připojeny a dále exportovat např. přes NFS by mohlo být za čas nedostačující.
PS: Ještě jednou upozorňuji, jedná se čistě jen o teorii. V žádném případě výsledek této diskuse nebudu závádět někde v produkčním prostředí. Jen chci více proniknout do této problematiky a zkušenosti zde získané použít v budoucnu. Vše to testuji ve virtuálním prostředí, takže se nebráním žádným experimentům.
Aby to tedy šlo neustále rozšiřovat, musí být každý iSCSI nastaven na každém klientovi.
Nikoliv. To co jsem popisoval já je stav, kdy nad diskovými poli vytvoříš jedno jediné a to potom předáváš klientů (pomocí NFS, případně SAMBy). Pochopitelně tam můžeš přidat další pole a to zastřešující jednoduše rozšířit (ZFS, LVM, to už je jedno).
Ohlídá si to nějak nebo může nastat problém?
Za předpokladu, že na daném blokovém zařízení (iSCSI se na straně Iniciátoru - klienta - tváří jako úplně obyčejný disk), je nějaký systém souborů, který umí být sdílen. Znám jenom jeden, VMFS.
U normálních FS nastane problém po prvním zápisu.
To jsem si myslel. No dobře, každopádně jak to myslíš s tím rozšiřováním? Je to tak jak si to myslím? Tedy budu mít jeden hlavní server a další např. 4 připojený přes iSCSI do toho jednoho. Ten to vyexportuje třeba přes NFS ostatním. V případě potřeby připojím k tomu serveru přes iSCSI další. A až nebude ten hlavní stíhat, tak sestavím nové pole.
Tedy budu mít jeden hlavní server a další např. 4 připojený přes iSCSI do toho jednoho.
V podstatě takhle jsem to myslel s tím, že těch serverů nemusí být nutně 5. Export toho jednoho pole může klidně dělat jedno z těch diskových polí -- to pokud to chceme mít levné.
Případně ty jednotící servery mohou být dva v clusteru a ty storage budou zrcadlené -- v případě, že nám jde trochu o data. Tedy celkem 10 strojů.
Ten to vyexportuje třeba přes NFS ostatním.
Přesně tak, na tom jednotícím ty iSCSI mohou být spojeny klidně do RAID0 (pokud nám fakt nejde o data a chceme to mít pekelně rychlé), případně jen jako další disk ve VG či ZFS poolu. A nad touto vrstvou pak export přes síťové sdílené FS.
No dobře, každopádně jak to myslíš s tím rozšiřováním?
Přidám další pole, přes FC/iSCSI dotáhnu do toho jednotícího serveru a tam ho prostě přidám do R0, ZFS poolu, VG
S tím si lze hrát poměrně hodně, záleží na co to člověk potřebuje. Bohužel to se často zjistí až po roce provozu a celý storage je potřeba od základů překopat.
Umoznit viacerym klientom zapisovat do jednej nazvyme to partition by malo zvladnut kazde lepsie pole.
Pole jistě, ale systém souborů už ne. Nebo je vícenásobné připojení FS pro zápis v unixovém světě standardem?
Mna by len zaujimalo, na co potrebujete 100TB uceleneho priestoru.
Tazatel to bere jako teoretické cvičení. V mailing listech XFS se ale nezřídka objevují požadavky na 100TB. Nepřijde mi to tak přehnané.
Díky za příspěvek ;). Samozřejmě v produkčním prostředí je to nutné řešit jinak. Každopádně tady mi jde o postup. Ostatní záležitosti jako redudanci teď můžeme nechat stranou.
Tiskni
Sdílej: