Byla vydána verze 1.0 editoru kódů Gram. Jedná se o fork editoru Zed bez telemetrie a umělé inteligence.
Byla oznámena spolupráce GrapheneOS s Motorolou. Podrobnosti v tiskové zprávě. GrapheneOS (Wikpedie) je varianta Androidu zaměřující se na bezpečnost a soukromí.
Armbian, tj. linuxová distribuce založená na Debianu a Ubuntu optimalizovaná pro jednodeskové počítače na platformě ARM a RISC-V, ke stažení ale také pro Intel a AMD, byl vydán ve verzi 26.2.1. Přehled novinek v Changelogu.
Volí se dvě místa v Radě openSUSE. Seznamte se se čtyřmi kandidáty. Členové projektu openSUSE mohou hlasovat od 1. do 8. března. Výsledky budou oznámeny 9. března.
Společnost OpenAI uzavřela dohodu s americkým ministerstvem obrany o poskytování technologií umělé inteligence (AI) pro utajované sítě americké armády. Firma to oznámila několik hodin poté, co prezident Donald Trump nařídil vládě, aby přestala využívat služby společnosti Anthropic.
Technologická společnost Anthropic v noci na dnešek oznámila, že se obrátí na soud kvůli rozhodnutí ministerstva obrany označit ji za bezpečnostní riziko dodavatelského řetězce poté, co nevyhověla jeho požadavkům týkajícím se používání umělé inteligence (AI). Prezident Donald Trump krátce před tím uvedl, že nařídil federálním úřadům postupně ukončit využívání jejích AI technologií. Spor mezi firmou vyvíjející chatbot Claude a
… více »Zemřel Rob Grant, spolutvůrce kultovního sci-fi seriálu Červený trpaslík.
Apple oznámil, že iPhone a iPad jako první a jediná zařízení pro koncové uživatele splňují požadavky členských států NATO na zabezpečení informací. Díky tomu je možné je používat pro práci s utajovanými informacemi až do stupně „NATO Restricted“, a to bez nutnosti instalovat speciální software nebo měnit nastavení. Žádné jiné běžně dostupné mobilní zařízení tak vysokou úroveň státní certifikace dosud nezískalo.
Americký provozovatel streamovací platformy Netflix odmítl zvýšit nabídku na převzetí filmových studií a streamovací divize konglomerátu Warner Bros. Discovery (WBD). Netflix to ve čtvrtek oznámil v tiskové zprávě. Jeho krok po několikaměsíčním boji o převzetí otevírá dveře k akvizici WBD mediální skupině Paramount Skydance, a to zhruba za 111 miliard dolarů (2,28 bilionu Kč).
Americká společnosti Apple přesune část výroby svého malého stolního počítače Mac mini z Asie do Spojených států. Výroba v závodě v Houstonu by měla začít ještě v letošním roce, uvedla firma na svém webu. Apple také plánuje rozšířit svůj závod v Houstonu o nové školicí centrum pro pokročilou výrobu. V Houstonu by měly vzniknout tisíce nových pracovních míst.
pool: rpool
state: ONLINE
scan: scrub repaired 0B in 0 days 00:00:49 with 0 errors on Sun Dec 13 00:24:50 2020
config:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-Patriot_P200_256GB_AA000000000000000978-part3 ONLINE 0 0 0
ata-Patriot_P200_256GB_AA000000000000000025-part3 ONLINE 0 0 0
errors: No known data errors
Instalator automaticky vytvoril rpool s vdev mirror-0. Ja som dokupil dalsi disk 1TB (bohuzial zatial len jeden (viem, ze jeden disk nie je idealne, ale ...)).
zfs list
NAME USED AVAIL REFER MOUNTPOINT rpool 13.8G 215G 96K /rpool rpool/ROOT 7.87G 215G 96K /rpool/ROOT rpool/ROOT/pve-1 7.87G 215G 7.87G / rpool/data 5.89G 215G 96K /rpool/data rpool/data/subvol-101-disk-0 2.32G 29.7G 2.32G /rpool/data/subvol-101-disk-0 rpool/data/vm-100-disk-0 958M 215G 958M - rpool/data/vm-102-disk-0 2.63G 215G 2.63G -Chcel by som to asi takto. Na vdev mirror-0 mam cely system, kde mam zatial 2xVM a 1x LXC vid zfs list (po case budem instalovat dalsie VM/LXC). Novy disk 1TB by som chcel vyuzit na data, ktore budu v VM/LXC. Dajme tomu, v jednom LXC mam LAMP kde sedi aj nextcloud a chcem mu vyclenit napr. 200GB na data. V bucnosti by som chcel nejaky VM s NFS, prip FreeNAS, kde budu zase medialne subory urcene na streamovanie v LAN, pre tu VM by som chcel vyclenit napr. 400GB atd ... Ako je to najlepsie spravit s jednym novym diskom? Vytvorit novy vdev v rpoole, alebo vytvorit novy pool (pojde vobec novy pool vytvorit)? Ono je problem, ze nemam to kde skusat fyzicky, takze realne neviem ako to bude fungovat (nemam realne skusenosti a musim to davat na zelezo v produkcii (produkciu myslim moj domaci proxmox, kde uz co to bezi)). Prip. ake riesenie by ste mi doporucili. Cital som toho celkom hodne, napr. aj tu na abclinuxu (toto je skor vseobecne ako funguje zfs). Ale aj vela praktickych veci, ale zacina sa tazko
Řešení dotazu:
Ako je to najlepsie spravit s jednym novym diskom? Vytvorit novy vdev v rpoole, alebo vytvorit novy pool (pojde vobec novy pool vytvorit)?Je nutné si uvědomit, že data se ukládají na celý zpool a redundance se tvoří na úrovni vdev. Když přidáte single disk vdev do stávajícího zpoolu (kde je jeden mirror), ohrozíte všechna data na daném poolu. Pool funguje něco jako raid-0 nad všemi vdevy. vdev nesou redundaci (mirror, raidz). Tedy buď vytvořte další zpool s jedním diskem (ke kterému lze potom přidat další a vytvořit tak mirror (
zpool attach)), nebo do stávajícího zpoolu přidejte rovnou dva disky jako další mirror.
Tj s jedním novým diskem toho u stávajího poolu moc neuděláte, pokud nechcete ohrozit stávající data.
Navíc je otázka, jestli chcete v poolu kombinovat ssd a hdd, obojí jako datové disky. SSD můžete použít na cache.
/: Bus 02.Port 1: Dev 1, Class=root_hub, Driver=xhci_hcd/7p, 5000M
|__ Port 2: Dev 2, If 0, Class=Mass Storage, Driver=uas, 5000M
Urcite som uz cital aj o cache, ale zatial mam z toho gulas :). Viem ze je najaka L2ARC a ZIL/SLOG, ale to mozno v dalsich kapitolach. Je mozne na SSD nechat nejake volne miesto (napr. 32GB) a cache urobit tam ? Mam fyzickych 32GB RAM a budem mat 1 TB disk (oplati sa mi robit cache na SSD ?). Zo studijneho hladiska urcite, ale z fyzickeho asi nie, kedze som cital, ze ZFS sice zhltne vela RAM, ale na 1TB raw sa pocita 1GB.
tak rotacne disky nemam a ani nebudem matOk.
Viem ze je najaka L2ARC a ZIL/SLOG, ale to mozno v dalsich kapitolach.LOG a CACHE jsou dvě různé věci. Ale pokud budete mít všechny datové disky na SSD, tak je to ve vašem případě vlastně pasé. LOG se používá pro zvýšení zápisů u některých operacích (zejména db), cache potom pro čtení. Ale ve vašem případě to nedává žádný smysl, ten pool bude rychlejší než samostatný cache disk (jedině, že by to byl NVMe, ale i to by bylo spíše plýtvání).
Zo studijneho hladiska urcite, ale z fyzickeho asi nie, kedze som cital, ze ZFS sice zhltne vela RAM, ale na 1TB raw sa pocita 1GB.Viz výše. Ve vašem případě cache nedává smysl, ledaže by byla na mnohem rychlejším zařízení. Co se týče využití ram, tak každý FS používá volnou ram jako cache, neplatí tedy počet GB na TB velikosti pole. Tahle hodnota je spíš minimální množství paměti potřebné pro různé operace a datové struktury, ale je spíše orientační. Obecně se samozřejmě vyplatí mít paměti co nejvíce.
Celkom dobre info je aj na heronovo, takze dik za skvely web.Díky.
Ono je problem, ze nemam to kde skusat fyzickyTak si to vyzkoušejte ve virtuálce. Od toho to je. Na desktopu, ve vaší oblíbené virtualizaci si naklikejte virtuálku, dejte si tam hromadu disků a zkoušejte si různé scénáře a příkazy.
Ked najlepsie sa to skusa fyzicky :)No já nevím. Ve virtuálce si to naklikám za pár sekund, boot je taky pár sekund. Tj lze vyzkoušet hromadu věcí ve velmi krátkém čase. Ale každému podle jeho gusta.
Tiskni
Sdílej: