Ubuntu 26.04 patrně bude ve výchozím nastavení zobrazovat hvězdičky při zadávání hesla příkazu sudo, změna vychází z nové verze sudo-rs. Ta sice zlepší použitelnost systému pro nové uživatele, na které mohlo 'tiché sudo' působit dojmem, že systém 'zamrzl' a nijak nereaguje na stisky kláves, na druhou stranu se jedná o možnou bezpečnostní slabinu, neboť zobrazování hvězdiček v terminálu odhaluje délku hesla. Původní chování příkazu sudo
… více »Projekt systemd schválil kontroverzní pull request, který do JSON záznamů uživatelů přidává nové pole 'birthDate', datum narození, tedy údaj vyžadovaný zákony o ověřování věku v Kalifornii, Coloradu a Brazílii. Jiný pull request, který tuto změnu napravoval, byl správcem projektu Lennartem Poetteringem zamítnut s následujícím zdůvodněním:
… více »Nové číslo časopisu Raspberry Pi zdarma ke čtení: Raspberry Pi Official Magazine 163 (pdf).
Eric Lengyel dobrovolně uvolnil jako volné dílo svůj patentovaný algoritmus Slug. Algoritmus vykresluje text a vektorovou grafiku na GPU přímo z dat Bézierových křivek, aniž by využíval texturové mapy obsahující jakékoli předem vypočítané nebo uložené obrázky a počítá přesné pokrytí pro ostré a škálovatelné zobrazení písma, referenční ukázka implementace v HLSL shaderech je na GitHubu. Slug je volným dílem od 17. března letošního
… více »Sashiko (GitHub) je open source automatizovaný systém pro revizi kódu linuxového jádra. Monitoruje veřejné mailing listy a hodnotí navrhované změny pomocí umělé inteligence. Výpočetní zdroje a LLM tokeny poskytuje Google.
Cambalache, tj. RAD (rapid application development) nástroj pro GTK 4 a GTK 3, dospěl po pěti letech vývoje do verze 1.0. Instalovat jej lze i z Flathubu.
KiCad (Wikipedie), sada svobodných softwarových nástrojů pro počítačový návrh elektronických zařízení (EDA), byl vydán v nové major verzi 10.0.0 (𝕏). Přehled novinek v příspěvku na blogu.
Letošní Turingovou cenu (2025 ACM A.M. Turing Award, Nobelova cena informatiky) získali Charles H. Bennett a Gilles Brassard za základní přínosy do oboru kvantové informatiky, které převrátily pojetí bezpečné neprolomitelné komunikace a výpočetní techniky. Jejich protokol BB84 z roku 1984 umožnil fyzikálně zaručený bezpečný přenos šifrovacích klíčů, zatímco jejich práce o kvantové teleportaci položila teoretické základy pro budoucí kvantový internet. Jejich práce spojila fyziku s informatikou a ovlivnila celou generaci vědců.
Firefox 149 dostupný od 24. března přinese bezplatnou vestavěnou VPN s 50 GB přenesených dat měsíčně (s CZ a SK se zatím nepočítá) a zobrazení dvou webových stránek vedle sebe v jednom panelu (split view). Firefox Labs 149 umožní přidat poznámky k panelům (tab notes, videoukázka).
Byla vydána nová stabilní verze 7.9 webového prohlížeče Vivaldi (Wikipedie). Postavena je na Chromiu 146. Přehled novinek i s náhledy v příspěvku na blogu.
pool: rpool
state: ONLINE
scan: scrub repaired 0B in 0 days 00:00:49 with 0 errors on Sun Dec 13 00:24:50 2020
config:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-Patriot_P200_256GB_AA000000000000000978-part3 ONLINE 0 0 0
ata-Patriot_P200_256GB_AA000000000000000025-part3 ONLINE 0 0 0
errors: No known data errors
Instalator automaticky vytvoril rpool s vdev mirror-0. Ja som dokupil dalsi disk 1TB (bohuzial zatial len jeden (viem, ze jeden disk nie je idealne, ale ...)).
zfs list
NAME USED AVAIL REFER MOUNTPOINT rpool 13.8G 215G 96K /rpool rpool/ROOT 7.87G 215G 96K /rpool/ROOT rpool/ROOT/pve-1 7.87G 215G 7.87G / rpool/data 5.89G 215G 96K /rpool/data rpool/data/subvol-101-disk-0 2.32G 29.7G 2.32G /rpool/data/subvol-101-disk-0 rpool/data/vm-100-disk-0 958M 215G 958M - rpool/data/vm-102-disk-0 2.63G 215G 2.63G -Chcel by som to asi takto. Na vdev mirror-0 mam cely system, kde mam zatial 2xVM a 1x LXC vid zfs list (po case budem instalovat dalsie VM/LXC). Novy disk 1TB by som chcel vyuzit na data, ktore budu v VM/LXC. Dajme tomu, v jednom LXC mam LAMP kde sedi aj nextcloud a chcem mu vyclenit napr. 200GB na data. V bucnosti by som chcel nejaky VM s NFS, prip FreeNAS, kde budu zase medialne subory urcene na streamovanie v LAN, pre tu VM by som chcel vyclenit napr. 400GB atd ... Ako je to najlepsie spravit s jednym novym diskom? Vytvorit novy vdev v rpoole, alebo vytvorit novy pool (pojde vobec novy pool vytvorit)? Ono je problem, ze nemam to kde skusat fyzicky, takze realne neviem ako to bude fungovat (nemam realne skusenosti a musim to davat na zelezo v produkcii (produkciu myslim moj domaci proxmox, kde uz co to bezi)). Prip. ake riesenie by ste mi doporucili. Cital som toho celkom hodne, napr. aj tu na abclinuxu (toto je skor vseobecne ako funguje zfs). Ale aj vela praktickych veci, ale zacina sa tazko
Řešení dotazu:
Ako je to najlepsie spravit s jednym novym diskom? Vytvorit novy vdev v rpoole, alebo vytvorit novy pool (pojde vobec novy pool vytvorit)?Je nutné si uvědomit, že data se ukládají na celý zpool a redundance se tvoří na úrovni vdev. Když přidáte single disk vdev do stávajícího zpoolu (kde je jeden mirror), ohrozíte všechna data na daném poolu. Pool funguje něco jako raid-0 nad všemi vdevy. vdev nesou redundaci (mirror, raidz). Tedy buď vytvořte další zpool s jedním diskem (ke kterému lze potom přidat další a vytvořit tak mirror (
zpool attach)), nebo do stávajícího zpoolu přidejte rovnou dva disky jako další mirror.
Tj s jedním novým diskem toho u stávajího poolu moc neuděláte, pokud nechcete ohrozit stávající data.
Navíc je otázka, jestli chcete v poolu kombinovat ssd a hdd, obojí jako datové disky. SSD můžete použít na cache.
/: Bus 02.Port 1: Dev 1, Class=root_hub, Driver=xhci_hcd/7p, 5000M
|__ Port 2: Dev 2, If 0, Class=Mass Storage, Driver=uas, 5000M
Urcite som uz cital aj o cache, ale zatial mam z toho gulas :). Viem ze je najaka L2ARC a ZIL/SLOG, ale to mozno v dalsich kapitolach. Je mozne na SSD nechat nejake volne miesto (napr. 32GB) a cache urobit tam ? Mam fyzickych 32GB RAM a budem mat 1 TB disk (oplati sa mi robit cache na SSD ?). Zo studijneho hladiska urcite, ale z fyzickeho asi nie, kedze som cital, ze ZFS sice zhltne vela RAM, ale na 1TB raw sa pocita 1GB.
tak rotacne disky nemam a ani nebudem matOk.
Viem ze je najaka L2ARC a ZIL/SLOG, ale to mozno v dalsich kapitolach.LOG a CACHE jsou dvě různé věci. Ale pokud budete mít všechny datové disky na SSD, tak je to ve vašem případě vlastně pasé. LOG se používá pro zvýšení zápisů u některých operacích (zejména db), cache potom pro čtení. Ale ve vašem případě to nedává žádný smysl, ten pool bude rychlejší než samostatný cache disk (jedině, že by to byl NVMe, ale i to by bylo spíše plýtvání).
Zo studijneho hladiska urcite, ale z fyzickeho asi nie, kedze som cital, ze ZFS sice zhltne vela RAM, ale na 1TB raw sa pocita 1GB.Viz výše. Ve vašem případě cache nedává smysl, ledaže by byla na mnohem rychlejším zařízení. Co se týče využití ram, tak každý FS používá volnou ram jako cache, neplatí tedy počet GB na TB velikosti pole. Tahle hodnota je spíš minimální množství paměti potřebné pro různé operace a datové struktury, ale je spíše orientační. Obecně se samozřejmě vyplatí mít paměti co nejvíce.
Celkom dobre info je aj na heronovo, takze dik za skvely web.Díky.
Ono je problem, ze nemam to kde skusat fyzickyTak si to vyzkoušejte ve virtuálce. Od toho to je. Na desktopu, ve vaší oblíbené virtualizaci si naklikejte virtuálku, dejte si tam hromadu disků a zkoušejte si různé scénáře a příkazy.
Ked najlepsie sa to skusa fyzicky :)No já nevím. Ve virtuálce si to naklikám za pár sekund, boot je taky pár sekund. Tj lze vyzkoušet hromadu věcí ve velmi krátkém čase. Ale každému podle jeho gusta.
Tiskni
Sdílej: