abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
AbcLinuxu hledá autory!
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
    dnes 18:00 | Nová verze

    Byla vydána (Mastodon, 𝕏) nová stabilní verze 2.0 otevřeného operačního systému pro chytré hodinky AsteroidOS (Wikipedie). Přehled novinek v oznámení o vydání a na YouTube.

    Ladislav Hagara | Komentářů: 0
    dnes 16:00 | Zajímavý software

    WoWee je open-source klient pro MMORPG hru World of Warcraft, kompatibilní se základní verzí a rozšířeními The Burning Crusade a Wrath of the Lich King. Klient je napsaný v C++ a využívá vlastní OpenGL renderer, pro provoz vyžaduje modely, grafiku, hudbu, zvuky a další assety z originální kopie hry od Blizzardu. Zdrojový kód je na GitHubu, dostupný pod licencí MIT.

    NUKE GAZA! 🎆 | Komentářů: 3
    dnes 13:33 | IT novinky

    Byl představen ICT Supply Chain Security Toolbox, společný nezávazný rámec EU pro posuzování a snižování kybernetických bezpečnostních rizik v ICT dodavatelských řetězcích. Toolbox identifikuje možné rizikové scénáře ovlivňující ICT dodavatelské řetězce a na jejich podkladě nabízí koordinovaná doporučení k hodnocení a mitigaci rizik. Doporučení se dotýkají mj. podpory multi-vendor strategií a snižování závislostí na vysoce

    … více »
    Ladislav Hagara | Komentářů: 4
    dnes 12:22 | Humor

    Nizozemský ministr obrany Gijs Tuinman prohlásil, že je možné stíhací letouny F-35 'jailbreaknout stejně jako iPhony', tedy upravit jejich software bez souhlasu USA nebo spolupráce s výrobcem Lockheed Martin. Tento výrok zazněl v rozhovoru na BNR Nieuwsradio, kde Tuinman naznačil, že evropské země by mohly potřebovat větší nezávislost na americké technologii. Jak by bylo jailbreak možné technicky provést pan ministr nijak nespecifikoval, nicméně je známé, že izraelské letectvo ve svých modifikovaných stíhačkách F-35 používá vlastní software.

    NUKE GAZA! 🎆 | Komentářů: 8
    dnes 06:00 | Zajímavý článek

    Nové číslo časopisu Raspberry Pi zdarma ke čtení: Raspberry Pi Official Magazine 162 (pdf).

    Ladislav Hagara | Komentářů: 0
    dnes 05:55 | IT novinky

    Sdružení CZ.NIC, správce české národní domény, zveřejnilo Domain Report za rok 2025 s klíčovými daty o vývoji domény .CZ. Na konci roku 2025 bylo v registru české národní domény celkem 1 515 860 s koncovkou .CZ. Průměrně bylo měsíčně zaregistrováno 16 222 domén, přičemž nejvíce registrací proběhlo v lednu (18 722) a nejméně pak v červnu (14 559). Podíl domén zabezpečených pomocí technologie DNSSEC se po několika letech stagnace výrazně

    … více »
    Ladislav Hagara | Komentářů: 9
    včera 18:33 | IT novinky

    Google představil telefon Pixel 10a. S funkci Satelitní SOS, která vás spojí se záchrannými složkami i v místech bez signálu Wi-Fi nebo mobilní sítě. Cena telefonu je od 13 290 Kč.

    Ladislav Hagara | Komentářů: 7
    včera 16:22 | Komunita

    Byl publikován přehled dění a novinek z vývoje Asahi Linuxu, tj. Linuxu pro Apple Silicon. Fedora 43 Asahi Remix s KDE Plasma už funguje na M3. Zatím ale bez GPU akcelerace. Vývojáře lze podpořit na Open Collective a GitHub Sponsors.

    Ladislav Hagara | Komentářů: 0
    včera 14:00 | IT novinky

    Red Hat představil nový nástroj Digital Sovereignty Readiness Assessment (GitHub), který organizacím umožní vyhodnotit jejich aktuální schopnosti v oblasti digitální suverenity a nastavit strategii pro nezávislé a bezpečné řízení IT prostředí.

    Ladislav Hagara | Komentářů: 0
    včera 12:22 | Zajímavý software

    BarraCUDA je neoficiální open-source CUDA kompilátor, ale pro grafické karty AMD (CUDA je proprietární technologie společnosti NVIDIA). BarraCUDA dokáže přeložit zdrojové *.cu soubory (prakticky C/C++) přímo do strojového kódu mikroarchitektury GFX11 a vytvořit tak ELF *.hsaco binární soubory, spustitelné na grafické kartě AMD. Zdrojový kód (převážně C99) je k dispozici na GitHubu, pod licencí Apache-2.0.

    NUKE GAZA! 🎆 | Komentářů: 1
    Které desktopové prostředí na Linuxu používáte?
     (18%)
     (6%)
     (0%)
     (11%)
     (27%)
     (3%)
     (4%)
     (2%)
     (12%)
     (27%)
    Celkem 907 hlasů
     Komentářů: 25, poslední 3.2. 19:50
    Rozcestník

    Administrace komentářů

    Jste na stránce určené pro řešení chyb a problémů týkajících se diskusí a komentářů. Můžete zde našim administrátorům reportovat špatně zařazenou či duplicitní diskusi, vulgární či osočující příspěvek a podobně. Děkujeme vám za vaši pomoc, více očí více vidí, společně můžeme udržet vysokou kvalitu AbcLinuxu.cz.

    Příspěvek
    14.12.2015 17:08 Max | skóre: 72 | blog: Max_Devaine
    Rozbalit Rozbalit vše ZFS - deduplikace a jiné problémy
    Sestavil jsem celkem pěkný storage, který vychází z tohoto : Návrh škálovatelného Enterprise Storage za hubičku
    Tzn. Areca řadič s 2GiB cache + baterie + 13x4TiB WD RED (ZFS RAID10 + 1x spare) + 64GiB DDR4 ECC
    Vyzkoušel jsem si, že vše běží rychle (zálohy celých VM, rychlost přes LACP 1,5Gb/s). Po pár týdnech jsem zkusil zapnout deduplikaci. Celkem to ještě šlapalo, nepoznával jsem rozdíl. Pak ovšem přišel výpadek proudu a selhání UPS.
    To mělo za následek, že vypadl asi jeden disk z řadiče, přidal jsem ho zpět, ZFS zahlásil health ok a vše vypadalo dobře. Po pár dnech se storage padnul. Zjistil jsem, že se Areca řadič odpojil a FreeNAS ho nevidí. Provedl jsem úplně odpojení napájení serveru a od té doby vše ok. Tedy jen po HW stránce. Pole nejdříve dva dny nešlo připojit, FreeNAS ležel na importování poolu a kernel padal dokola a dokola a vyhazoval backtrace. Nabootoval jsem FreeBSD, postupně připojoval a zjistil, že je problém s připojením jednoho datasetu, tak jsem ho smazal. Kvůli problémům s výkonem jsem vypnul deduplikaci, ale stále jsem ve stavu, kdy pole zlobí. A to následovně :
    Pool hlásí, že jsou na něm ještě nějaká dedup data (což lze asi chápat):
    [root@bs1-ph] ~# zpool list datastore1
    NAME         SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
    datastore1  21.8T  17.6T  4.17T         -    65%    80%  1.03x  ONLINE  /mnt
    
    A problém je takový, že když o víkendu pustím dump 2,7TiB databáze přes NFS rovnou na storage, tak celý server padne. Pád nastane i v případě, že chci smazat starým 2,7TiB dump db. Chvíli server běží, ale poté se asi procesy na pozadí rozhodnou soubor skutečně smazat a jde to dolu. Občas se i stane to, že jiné mašiny, co zálohuji přes NFS zahlásí problémy s nedostupností NFS (storage se tak zpomalí, že neodpovídá).
    V logu FreeNASu jsem i zahlédl problém s nedostatkem swap (to když šel FreeNAS na hubu a přes kvm jsem viděl na obrazovce log, stalo se mi to i při bootu).
    [root@bs1-ph] ~# zpool history datastore1
    History for 'datastore1':
    2015-09-14.17:18:22 zpool create -o cachefile=/data/zfs/zpool.cache -o failmode=continue -o autoexpand=on -O compression=lz4 -O aclmode=passthrough -O aclinherit=passthrough -f -m /datastore1 -o altroot=/mnt datastore1 mirror /dev/gptid/d33bdf38-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d37672d0-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d3b099a3-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d3ebf665-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d426e367-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d4624a7b-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d49effcc-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d4d9eb20-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d5181f27-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d554313e-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d591a58d-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d5ccb0a0-5af3-11e5-8367-0cc47a34a53a spare /dev/gptid/d60b9953-5af3-11e5-8367-0cc47a34a53a
    2015-09-14.17:18:27 zfs inherit mountpoint datastore1
    2015-09-14.17:18:27 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-15.16:13:10 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-15.16:13:10 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-15.16:35:47 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-15.16:35:47 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-16.11:35:59 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-16.11:35:59 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-16.11:58:09 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-16.11:58:09 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-16.12:10:02 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-16.12:10:02 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-16.12:43:38 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-16.12:43:38 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-17.15:21:19 zfs create -o casesensitivity=sensitive datastore1/partimaged_storage
    2015-09-17.15:21:46 zfs create -o casesensitivity=sensitive datastore1/partimaged_storage/VM-backup
    2015-09-17.15:22:01 zfs destroy -r datastore1/partimaged_storage/VM-backup
    2015-09-17.15:22:23 zfs create -o casesensitivity=sensitive datastore1/VM-backup
    2015-09-23.16:20:02 zfs rename datastore1/partimaged_storage datastore1/parted
    2015-09-23.16:37:00 zfs rename datastore1/parted datastore1/partimag
    2015-09-24.21:03:14 zfs create -o casesensitivity=sensitive -o aclmode=restricted datastore1/Helios-dump
    2015-09-24.21:05:39 zfs inherit compression datastore1/Helios-dump
    2015-09-24.21:05:39 zfs inherit atime datastore1/Helios-dump
    2015-09-24.21:05:39 zfs inherit dedup datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set reservation=0 datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set refreservation=0 datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set quota=none datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set refquota=none datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set aclmode=restricted datastore1/Helios-dump
    2015-09-24.21:15:53 zfs create -o casesensitivity=sensitive datastore1/helios-db
    2015-09-24.23:08:07 zfs create -o casesensitivity=sensitive datastore1/rail-data-backup
    2015-10-03.12:03:45 zfs destroy -r datastore1/Helios-dump
    2015-10-03.12:04:58 zfs create -o casesensitivity=sensitive datastore1/dms-db
    2015-10-03.12:16:22 zfs inherit compression datastore1/dms-db
    2015-10-03.12:16:23 zfs inherit atime datastore1/dms-db
    2015-10-03.12:16:23 zfs set dedup=verify datastore1/dms-db
    2015-10-03.12:16:23 zfs set reservation=0 datastore1/dms-db
    2015-10-03.12:16:23 zfs set refreservation=0 datastore1/dms-db
    2015-10-03.12:16:23 zfs set quota=none datastore1/dms-db
    2015-10-03.12:16:23 zfs set refquota=none datastore1/dms-db
    2015-10-03.12:16:28 zfs set aclmode=passthrough datastore1/dms-db
    2015-10-04.00:31:52 zfs create -o casesensitivity=sensitive datastore1/gfi-backup
    2015-10-04.11:35:39 zfs inherit compression datastore1/gfi-backup
    2015-10-04.11:35:39 zfs inherit atime datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set dedup=verify datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set reservation=0 datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set refreservation=0 datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set quota=none datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set refquota=none datastore1/gfi-backup
    2015-10-04.11:35:44 zfs set aclmode=restricted datastore1/gfi-backup
    2015-10-04.11:35:58 zfs inherit compression datastore1/helios-db
    2015-10-04.11:35:58 zfs inherit atime datastore1/helios-db
    2015-10-04.11:35:58 zfs set dedup=verify datastore1/helios-db
    2015-10-04.11:35:58 zfs set reservation=0 datastore1/helios-db
    2015-10-04.11:35:58 zfs set refreservation=0 datastore1/helios-db
    2015-10-04.11:35:58 zfs set quota=none datastore1/helios-db
    2015-10-04.11:35:58 zfs set refquota=none datastore1/helios-db
    2015-10-04.11:36:03 zfs set aclmode=passthrough datastore1/helios-db
    2015-10-06.23:26:46 zfs create -o casesensitivity=sensitive -o dedup=verify datastore1/rail-backup
    2015-10-06.23:27:48 zfs inherit compression datastore1/partimag
    2015-10-06.23:27:49 zfs inherit atime datastore1/partimag
    2015-10-06.23:27:49 zfs set dedup=verify datastore1/partimag
    2015-10-06.23:27:49 zfs set reservation=0 datastore1/partimag
    2015-10-06.23:27:49 zfs set refreservation=0 datastore1/partimag
    2015-10-06.23:27:49 zfs set quota=none datastore1/partimag
    2015-10-06.23:27:49 zfs set refquota=none datastore1/partimag
    2015-10-06.23:27:50 zfs set aclmode=passthrough datastore1/partimag
    2015-10-07.00:01:57 zfs create -o casesensitivity=sensitive datastore1/scripts
    2015-10-09.12:14:35 zfs create -o casesensitivity=sensitive datastore1/sap-backup
    2015-10-09.15:22:13 zfs snapshot datastore1/rail-backup@manual-20151009
    2015-10-09.15:35:00 zfs snapshot datastore1/rail-backup@manual-2015-10-09
    2015-10-09.21:42:21 zfs snapshot datastore1/rail-backup@manual-
    2015-10-10.01:06:40 zfs destroy datastore1/rail-backup@bkp-2015-10-10-010420
    2015-10-10.01:06:59 zfs destroy datastore1/rail-backup@manual-
    2015-10-10.01:15:23 zfs snapshot datastore1/rail-backup@bkp-2015-10-10-011412
    2015-10-10.20:03:08 zfs snapshot datastore1/rail-backup@bkp-2015-10-10-200308
    2015-10-11.20:03:21 zfs snapshot datastore1/rail-backup@bkp-2015-10-11-200320
    2015-10-12.20:03:38 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-12-200336
    2015-10-12.20:27:52 zfs set compression=lz4 datastore1
    2015-10-12.20:27:52 zfs inherit atime datastore1
    2015-10-12.20:27:53 zfs set dedup=verify datastore1
    2015-10-12.20:27:54 zfs set reservation=0 datastore1
    2015-10-12.20:27:55 zfs set refreservation=0 datastore1
    2015-10-12.20:27:55 zfs set quota=none datastore1
    2015-10-12.20:27:56 zfs set refquota=none datastore1
    2015-10-12.20:27:58 zfs set aclmode=passthrough datastore1
    2015-10-12.20:28:14 zfs inherit compression datastore1/VM-backup
    2015-10-12.20:28:15 zfs inherit atime datastore1/VM-backup
    2015-10-12.20:28:16 zfs set dedup=off datastore1/VM-backup
    2015-10-12.20:28:17 zfs set reservation=0 datastore1/VM-backup
    2015-10-12.20:28:17 zfs set refreservation=0 datastore1/VM-backup
    2015-10-12.20:28:18 zfs set quota=none datastore1/VM-backup
    2015-10-12.20:28:18 zfs set refquota=none datastore1/VM-backup
    2015-10-12.20:28:19 zfs set aclmode=passthrough datastore1/VM-backup
    2015-10-12.20:28:32 zfs inherit compression datastore1/helios-db
    2015-10-12.20:28:32 zfs inherit atime datastore1/helios-db
    2015-10-12.20:28:32 zfs inherit dedup datastore1/helios-db
    2015-10-12.20:28:33 zfs set reservation=0 datastore1/helios-db
    2015-10-12.20:28:33 zfs set refreservation=0 datastore1/helios-db
    2015-10-12.20:28:33 zfs set quota=none datastore1/helios-db
    2015-10-12.20:28:33 zfs set refquota=none datastore1/helios-db
    2015-10-12.20:28:34 zfs set aclmode=passthrough datastore1/helios-db
    2015-10-12.20:28:43 zfs inherit compression datastore1/partimag
    2015-10-12.20:28:43 zfs inherit atime datastore1/partimag
    2015-10-12.20:28:43 zfs inherit dedup datastore1/partimag
    2015-10-12.20:28:44 zfs set reservation=0 datastore1/partimag
    2015-10-12.20:28:44 zfs set refreservation=0 datastore1/partimag
    2015-10-12.20:28:44 zfs set quota=none datastore1/partimag
    2015-10-12.20:28:44 zfs set refquota=none datastore1/partimag
    2015-10-12.20:28:45 zfs set aclmode=passthrough datastore1/partimag
    2015-10-12.20:28:53 zfs inherit compression datastore1/rail-backup
    2015-10-12.20:28:53 zfs inherit atime datastore1/rail-backup
    2015-10-12.20:28:53 zfs inherit dedup datastore1/rail-backup
    2015-10-12.20:28:54 zfs set reservation=0 datastore1/rail-backup
    2015-10-12.20:28:54 zfs set refreservation=0 datastore1/rail-backup
    2015-10-12.20:28:54 zfs set quota=none datastore1/rail-backup
    2015-10-12.20:28:54 zfs set refquota=none datastore1/rail-backup
    2015-10-12.20:28:55 zfs set aclmode=passthrough datastore1/rail-backup
    2015-10-12.20:29:05 zfs inherit compression datastore1/dms-db
    2015-10-12.20:29:05 zfs inherit atime datastore1/dms-db
    2015-10-12.20:29:05 zfs inherit dedup datastore1/dms-db
    2015-10-12.20:29:05 zfs set reservation=0 datastore1/dms-db
    2015-10-12.20:29:05 zfs set refreservation=0 datastore1/dms-db
    2015-10-12.20:29:06 zfs set quota=none datastore1/dms-db
    2015-10-12.20:29:06 zfs set refquota=none datastore1/dms-db
    2015-10-12.20:29:07 zfs set aclmode=passthrough datastore1/dms-db
    2015-10-12.20:29:20 zfs inherit compression datastore1/gfi-backup
    2015-10-12.20:29:22 zfs inherit atime datastore1/gfi-backup
    2015-10-12.20:29:24 zfs inherit dedup datastore1/gfi-backup
    2015-10-12.20:29:25 zfs set reservation=0 datastore1/gfi-backup
    2015-10-12.20:29:26 zfs set refreservation=0 datastore1/gfi-backup
    2015-10-12.20:29:27 zfs set quota=none datastore1/gfi-backup
    2015-10-12.20:29:28 zfs set refquota=none datastore1/gfi-backup
    2015-10-12.20:29:30 zfs set aclmode=restricted datastore1/gfi-backup
    2015-10-13.14:59:55 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-13-145948
    2015-10-13.20:04:39 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-13-200437
    2015-10-14.20:04:22 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-14-200421
    2015-10-15.20:04:07 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-15-200407
    2015-10-16.20:03:44 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-16-200344
    2015-10-17.20:03:22 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-17-200321
    2015-10-18.20:03:44 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-18-200327
    2015-10-19.20:03:24 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-19-200323
    2015-10-20.20:04:24 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-20-200421
    2015-10-21.14:28:34 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-21.14:28:34 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-21.14:45:23 zpool scrub datastore1
    2015-10-21.21:20:36 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-21-211848
    2015-10-21.21:20:49 zfs create -o casesensitivity=sensitive datastore1/oracle-backups
    2015-10-22.20:03:45 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-22-200339
    2015-10-23.13:27:54 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-23.13:27:54 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-24.18:43:14 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-24.18:43:14 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-24.19:03:55 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-24.19:03:55 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-24.19:13:43 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-24.19:13:43 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-24.21:26:41 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-24-212634
    2015-10-25.19:40:27 zfs set mountpoint=/tmp/zfs datastore1/dms-db
    2015-10-25.20:49:23 zpool import -N -f datastore1
    2015-10-26.23:49:24 zpool import -N -f datastore1
    2015-10-26.23:53:07 zfs set mountpoint=/tmp/zfs datastore1/scripts
    2015-10-26.23:53:14 zfs set mountpoint=/tmp/zfs datastore1/dms-db
    2015-10-26.23:53:21 zfs set mountpoint=/tmp/zfs datastore1/VM-backup
    2015-10-27.10:37:16 zpool import -N -f datastore1
    2015-10-27.10:52:12 zfs set mountpoint=/mnt/datastore1/scripts datastore1/scripts
    2015-10-27.10:55:50 zfs set mountpoint=/mnt/datastore1/partimag datastore1/partimag
    2015-10-27.10:56:18 zfs set mountpoint=/mnt/datastore1/rail-backup datastore1/rail-backup
    2015-10-27.10:56:31 zfs set mountpoint=/mnt/datastore1/oracle-backups datastore1/oracle-backups
    2015-10-27.10:56:44 zfs set mountpoint=/mnt/datastore1/gfi-backup datastore1/gfi-backup
    2015-10-27.10:57:03 zfs set mountpoint=/mnt/datastore1/rail-data-backup datastore1/rail-data-backup
    2015-10-27.10:57:19 zfs set mountpoint=/mnt/datastore1/sap-backup datastore1/sap-backup
    2015-10-27.10:57:37 zfs set mountpoint=/mnt/datastore1/helios-db datastore1/helios-db
    2015-10-27.10:59:05 zfs set mountpoint=/mnt/datastore1/VM-backup datastore1/VM-backup
    2015-10-27.10:59:15 zfs set mountpoint=/mnt/datastore1/dms-db datastore1/dms-db
    2015-10-27.14:09:45 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-27.14:09:45 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-27.18:18:37 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-27.20:12:31 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-27-200534
    2015-10-27.23:08:26 zfs set compression=lz4 datastore1
    2015-10-27.23:09:15 zfs inherit atime datastore1
    2015-10-27.23:10:31 zfs set dedup=off datastore1
    2015-10-27.23:14:15 zfs set reservation=0 datastore1
    2015-10-27.23:21:37 zfs set refreservation=0 datastore1
    2015-10-27.23:30:39 zfs set quota=none datastore1
    2015-10-27.23:42:48 zfs set refquota=none datastore1
    2015-10-28.00:19:05 zfs set aclmode=passthrough datastore1
    2015-10-28.20:56:48 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-28-200350
    2015-10-28.21:37:27 zfs set compression=lz4 datastore1
    2015-10-28.22:04:19 zfs inherit atime datastore1
    2015-10-28.22:20:21 zfs set mountpoint=/mnt/datastore1/VM-backup datastore1/VM-backup
    2015-10-28.22:27:31 zfs set dedup=off datastore1
    2015-10-28.23:18:02 zfs set reservation=0 datastore1
    2015-10-28.23:18:20 zfs set refreservation=0 datastore1
    2015-10-29.01:38:33 zfs set quota=none datastore1
    2015-10-29.01:40:15 zfs set refquota=none datastore1
    2015-10-29.01:42:04 zfs set aclmode=passthrough datastore1
    2015-10-29.20:04:40 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-29-200440
    2015-10-30.20:04:12 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-30-200411
    2015-10-31.20:04:06 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-31-200405
    2015-11-01.20:03:54 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-01-200353
    2015-11-02.14:53:58 zfs create -o casesensitivity=sensitive datastore1/horak
    2015-11-02.14:58:02 zfs destroy -r datastore1/horak
    2015-11-02.14:59:55 zfs create -o casesensitivity=sensitive datastore1/horak
    2015-11-02.15:01:36 zfs set mountpoint=/mnt/datastore1/horak datastore1/horak
    2015-11-02.20:03:53 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-02-200353
    2015-11-02.23:50:22 zfs create -o casesensitivity=sensitive datastore1/dms-backup
    2015-11-02.23:51:23 zfs set mountpoint=/mnt/datastore1/dms-backup datastore1/dms-backup
    2015-11-03.09:39:04 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-03.09:39:04 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-11-03.09:39:10 zfs inherit -r mountpoint datastore1
    2015-11-04.00:22:25 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-04-002224
    2015-11-04.20:04:16 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-04-200415
    2015-11-05.20:04:02 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-05-200401
    2015-11-06.20:03:46 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-06-200346
    2015-11-07.20:03:54 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-07-200353
    2015-11-08.20:03:29 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-08-200328
    2015-11-09.20:04:06 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-09-200405
    2015-11-10.20:03:43 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-10-200342
    2015-11-11.20:03:51 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-11-200351
    2015-11-12.20:04:43 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-12-200442
    2015-11-13.08:22:26 zpool import -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-13.08:22:26 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-11-13.22:48:28 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-13-224828
    2015-11-14.20:03:49 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-14-200348
    2015-11-15.20:03:34 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-15-200333
    2015-11-16.20:03:42 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-16-200342
    2015-11-17.20:03:35 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-17-200334
    2015-11-18.12:39:07 zpool import -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-18.12:39:07 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-11-18.13:10:22 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-18.13:10:22 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-11-19.00:16:52 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-19-001650
    2015-11-19.20:03:50 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-19-200349
    2015-11-20.20:04:16 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-20-200415
    2015-11-21.20:04:27 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-21-200426
    2015-11-22.20:04:03 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-22-200402
    2015-11-23.20:05:08 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-23-200507
    2015-11-24.20:04:29 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-24-200428
    2015-11-25.20:04:32 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-25-200431
    2015-11-26.20:04:20 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-26-200420
    2015-11-27.20:04:18 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-27-200418
    2015-11-28.20:06:00 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-28-200556
    2015-11-29.00:01:34 zpool scrub datastore1
    2015-11-29.20:03:56 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-29-200353
    2015-11-30.15:16:42 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-30.15:16:42 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-12-05.22:38:06 zpool import -o cachefile=none -R /mnt -f 2626378954000273008
    2015-12-05.22:38:06 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-12-05.22:41:47 zfs destroy -r datastore1/horak
    2015-12-06.20:07:48 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-06-200739
    2015-12-07.20:04:00 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-07-200359
    2015-12-08.20:04:04 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-08-200402
    2015-12-09.20:03:52 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-09-200351
    2015-12-10.20:04:00 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-10-200359
    2015-12-11.20:04:13 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-11-200411
    2015-12-12.20:03:51 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-12-200350
    2015-12-13.20:03:54 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-13-200351
    
    FreeNAS jsem zvolil jednak kvůli kolegům nelinuxákům, tak kvůli tomu, abych rychle pochopil filosofii ZFS (a díky zmíněným problémům už jsem ve fázi, kdy webgui nepotřebuji) + je to BSD, tudíž lepší implementace ZFS, jak v linuxu.
    ZFS jsem zvolil kvůli kompresi, snapshotům a chtěl jsem i vyzkoušet deduplikaci + do budoucna jsem plánoval mít dva storage a dělat replikaci zálohy na druhý storage, kdyby se první nějak vysypal.

    Otázka do placu, zda se někdo setkal s podobných chováním? Osobně si totiž myslím, že mám ram víc, než dost a zaplnění do 80% kapacity také dodržuji.
    Případně zda by někdo neměl nápad, jak pool vyléčit, než ho celý dropnout a vytvořit nový.
    Díky
    Zdar Max
    Měl jsem sen ... :(

    V tomto formuláři můžete formulovat svou stížnost ohledně příspěvku. Nejprve vyberte typ akce, kterou navrhujete provést s diskusí či příspěvkem. Potom do textového pole napište důvody, proč by měli admini provést vaši žádost, problém nemusí být patrný na první pohled. Odkaz na příspěvek bude přidán automaticky.

    Vaše jméno
    Váš email
    Typ požadavku
    Slovní popis
    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.