Laboratoře CZ.NIC vydaly Datovku 4.28.0 a Mobilní Datovku 2.6.0. Hlavní novinkou je ukládání rozpracovaných datových zpráv do konceptů. Datovka je svobodné multiplatformní aplikace pro přístup k datovým schránkám a k trvalému uchovávání datových zpráv v lokální databázi.
Unix Pipe Game je vzdělávací karetní hra zaměřená na děti a rodiče, která děti učí používat unixové příkazy prostřednictvím interaktivních úkolů. Klíčovým prvkem hry je využití symbolu | pro pipeline neboli 'rouru', který umožňuje propojit výstupy a vstupy jednotlivých unixových příkazů, v tomto případě vytištěných na kartičkách. Předpokládá se, že rodič má alespoň nějaké povědomí o unixových příkazech a jejich provazování pomocí |.
… více »PCIem je linuxový framework, který vytváří virtuální zařízení PCIe pomocí technik, které umožňují hostitelskému operačnímu systému rozpoznat tyto syntetické 'neexistující' karty jako fyzické zařízení přítomné na sběrnici. Framework PCIem je primárně zamýšlen jako pomůcka pro vývoj a testování ovladačů bez nutnosti použít skutečný hardware. Dle tvrzení projektu si fungování PCIem můžeme představit jako MITM (Man-in-the-Middle), který se nachází mezi ovladači a kernelem.
Byla nalezena vážná bezpečnostní chyba v telnetd z balíčku GNU InetUtils. Týká se verzí GNU InetUtils od 1.9.3 z 12. května 2015 až po aktuální 2.7 z 14. prosince 2025. Útočník může obejít autentizaci a získat root přístup, jelikož telnetd nekontroluje předaný obsah proměnné prostředí USER a pokud obsahuje "-f root"…
Stanislav Aleksandrov předložil patch rozšiřující KWin (KDE Plasma) na 3D virtuální desktopové prostředí (videoukázka v mp4).
Digg (Wikipedie), "místo, kde můžete sdílet a objevovat to nejlepší z internetu – a nejen to", je zpět. Ve veřejné betě.
Po .deb balíčcích Mozilla nově poskytuje také .rpm balíčky Firefoxu Nightly.
Vývojové prostředí IntelliJ IDEA slaví 25. narozeniny (YouTube).
Vedení společnosti NVIDIA údajně povolilo použití milionů knih ze známého 'warez' archivu Anna's Archive k výcviku umělé inteligence, ačkoliv vědělo, že archiv tyto knihy nezískal legální cestou. Žaloba, ve které se objevují i citace interních dokumentů společnosti NVIDIA, tvrdí, že NVIDIA přímo kontaktovala Anna's Archive a požadovala vysokorychlostní přístup k datům knihovny.
Grafický správce balíčků Myrlyn pro SUSE a openSUSE, původně YQPkg, dospěl do stabilní verze 1.0.0. Postaven je nad libzypp a Qt 6. Projekt začal na SUSE Hack Weeku 24.
pool: rpool
state: ONLINE
scan: scrub repaired 0B in 0 days 00:00:49 with 0 errors on Sun Dec 13 00:24:50 2020
config:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-Patriot_P200_256GB_AA000000000000000978-part3 ONLINE 0 0 0
ata-Patriot_P200_256GB_AA000000000000000025-part3 ONLINE 0 0 0
errors: No known data errors
Instalator automaticky vytvoril rpool s vdev mirror-0. Ja som dokupil dalsi disk 1TB (bohuzial zatial len jeden (viem, ze jeden disk nie je idealne, ale ...)).
zfs list
NAME USED AVAIL REFER MOUNTPOINT rpool 13.8G 215G 96K /rpool rpool/ROOT 7.87G 215G 96K /rpool/ROOT rpool/ROOT/pve-1 7.87G 215G 7.87G / rpool/data 5.89G 215G 96K /rpool/data rpool/data/subvol-101-disk-0 2.32G 29.7G 2.32G /rpool/data/subvol-101-disk-0 rpool/data/vm-100-disk-0 958M 215G 958M - rpool/data/vm-102-disk-0 2.63G 215G 2.63G -Chcel by som to asi takto. Na vdev mirror-0 mam cely system, kde mam zatial 2xVM a 1x LXC vid zfs list (po case budem instalovat dalsie VM/LXC). Novy disk 1TB by som chcel vyuzit na data, ktore budu v VM/LXC. Dajme tomu, v jednom LXC mam LAMP kde sedi aj nextcloud a chcem mu vyclenit napr. 200GB na data. V bucnosti by som chcel nejaky VM s NFS, prip FreeNAS, kde budu zase medialne subory urcene na streamovanie v LAN, pre tu VM by som chcel vyclenit napr. 400GB atd ... Ako je to najlepsie spravit s jednym novym diskom? Vytvorit novy vdev v rpoole, alebo vytvorit novy pool (pojde vobec novy pool vytvorit)? Ono je problem, ze nemam to kde skusat fyzicky, takze realne neviem ako to bude fungovat (nemam realne skusenosti a musim to davat na zelezo v produkcii (produkciu myslim moj domaci proxmox, kde uz co to bezi)). Prip. ake riesenie by ste mi doporucili. Cital som toho celkom hodne, napr. aj tu na abclinuxu (toto je skor vseobecne ako funguje zfs). Ale aj vela praktickych veci, ale zacina sa tazko
Řešení dotazu:
Ako je to najlepsie spravit s jednym novym diskom? Vytvorit novy vdev v rpoole, alebo vytvorit novy pool (pojde vobec novy pool vytvorit)?Je nutné si uvědomit, že data se ukládají na celý zpool a redundance se tvoří na úrovni vdev. Když přidáte single disk vdev do stávajícího zpoolu (kde je jeden mirror), ohrozíte všechna data na daném poolu. Pool funguje něco jako raid-0 nad všemi vdevy. vdev nesou redundaci (mirror, raidz). Tedy buď vytvořte další zpool s jedním diskem (ke kterému lze potom přidat další a vytvořit tak mirror (
zpool attach)), nebo do stávajícího zpoolu přidejte rovnou dva disky jako další mirror.
Tj s jedním novým diskem toho u stávajího poolu moc neuděláte, pokud nechcete ohrozit stávající data.
Navíc je otázka, jestli chcete v poolu kombinovat ssd a hdd, obojí jako datové disky. SSD můžete použít na cache.
/: Bus 02.Port 1: Dev 1, Class=root_hub, Driver=xhci_hcd/7p, 5000M
|__ Port 2: Dev 2, If 0, Class=Mass Storage, Driver=uas, 5000M
Urcite som uz cital aj o cache, ale zatial mam z toho gulas :). Viem ze je najaka L2ARC a ZIL/SLOG, ale to mozno v dalsich kapitolach. Je mozne na SSD nechat nejake volne miesto (napr. 32GB) a cache urobit tam ? Mam fyzickych 32GB RAM a budem mat 1 TB disk (oplati sa mi robit cache na SSD ?). Zo studijneho hladiska urcite, ale z fyzickeho asi nie, kedze som cital, ze ZFS sice zhltne vela RAM, ale na 1TB raw sa pocita 1GB.
tak rotacne disky nemam a ani nebudem matOk.
Viem ze je najaka L2ARC a ZIL/SLOG, ale to mozno v dalsich kapitolach.LOG a CACHE jsou dvě různé věci. Ale pokud budete mít všechny datové disky na SSD, tak je to ve vašem případě vlastně pasé. LOG se používá pro zvýšení zápisů u některých operacích (zejména db), cache potom pro čtení. Ale ve vašem případě to nedává žádný smysl, ten pool bude rychlejší než samostatný cache disk (jedině, že by to byl NVMe, ale i to by bylo spíše plýtvání).
Zo studijneho hladiska urcite, ale z fyzickeho asi nie, kedze som cital, ze ZFS sice zhltne vela RAM, ale na 1TB raw sa pocita 1GB.Viz výše. Ve vašem případě cache nedává smysl, ledaže by byla na mnohem rychlejším zařízení. Co se týče využití ram, tak každý FS používá volnou ram jako cache, neplatí tedy počet GB na TB velikosti pole. Tahle hodnota je spíš minimální množství paměti potřebné pro různé operace a datové struktury, ale je spíše orientační. Obecně se samozřejmě vyplatí mít paměti co nejvíce.
Celkom dobre info je aj na heronovo, takze dik za skvely web.Díky.
Ono je problem, ze nemam to kde skusat fyzickyTak si to vyzkoušejte ve virtuálce. Od toho to je. Na desktopu, ve vaší oblíbené virtualizaci si naklikejte virtuálku, dejte si tam hromadu disků a zkoušejte si různé scénáře a příkazy.
Ked najlepsie sa to skusa fyzicky :)No já nevím. Ve virtuálce si to naklikám za pár sekund, boot je taky pár sekund. Tj lze vyzkoušet hromadu věcí ve velmi krátkém čase. Ale každému podle jeho gusta.
Tiskni
Sdílej: