abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
    dnes 04:44 | Nová verze

    Nová čísla časopisů od nakladatelství Raspberry Pi: MagPi 140 (pdf) a HackSpace 77 (pdf).

    Ladislav Hagara | Komentářů: 0
    dnes 01:00 | Nová verze

    ESPHome, tj. open source systém umožňující nastavovat zařízení s čipy ESP (i dalšími) pomocí konfiguračních souborů a připojit je do domácí automatizace, například do Home Assistantu, byl vydán ve verzi 2024.4.0.

    Ladislav Hagara | Komentářů: 0
    včera 22:11 | IT novinky Ladislav Hagara | Komentářů: 0
    včera 20:55 | Nová verze

    Neziskové průmyslové konsorcium Khronos Group vydalo verzi 1.1 specifikace OpenXR (Wikipedie), tj. standardu specifikujícího přístup k platformám a zařízením pro XR, tj. platformám a zařízením pro AR (rozšířenou realitu) a VR (virtuální realitu). Do základu se z rozšíření dostalo XR_EXT_local_floor. Společnost Collabora implementuje novou verzi specifikace do platformy Monado, tj. open source implementace OpenXR.

    Ladislav Hagara | Komentářů: 2
    včera 17:22 | Nová verze

    Byla vydána nová verze 0.38.0 multimediálního přehrávače mpv (Wikipedie) vycházejícího z přehrávačů MPlayer a mplayer2. Přehled novinek, změn a oprav na GitHubu. Požadován je FFmpeg 4.4 nebo novější a také libplacebo 6.338.2 nebo novější.

    Ladislav Hagara | Komentářů: 3
    včera 17:11 | Nová verze

    ClamAV (Wikipedie), tj. multiplatformní antivirový engine s otevřeným zdrojovým kódem pro detekci trojských koní, virů, malwaru a dalších škodlivých hrozeb, byl vydán ve verzích 1.3.1, 1.2.3 a 1.0.6. Ve verzi 1.3.1 je mimo jiné řešena bezpečnostní chyba CVE-2024-20380.

    Ladislav Hagara | Komentářů: 2
    včera 12:11 | IT novinky

    Digitální a informační agentura (DIA) oznámila (PDF, X a Facebook), že mobilní aplikace Portál občana je ode dneška oficiálně venku.

    Ladislav Hagara | Komentářů: 8
    včera 05:11 | Komunita

    #HACKUJBRNO 2024, byly zveřejněny výsledky a výstupy hackathonu města Brna nad otevřenými městskými daty, který se konal 13. a 14. dubna 2024.

    Ladislav Hagara | Komentářů: 2
    17.4. 17:55 | IT novinky

    Společnost Volla Systeme stojící za telefony Volla spustila na Kickstarteru kampaň na podporu tabletu Volla Tablet s Volla OS nebo Ubuntu Touch.

    Ladislav Hagara | Komentářů: 3
    17.4. 17:44 | IT novinky

    Společnost Boston Dynamics oznámila, že humanoidní hydraulický robot HD Atlas šel do důchodu (YouTube). Nastupuje nová vylepšená elektrická varianta (YouTube).

    Ladislav Hagara | Komentářů: 1
    KDE Plasma 6
     (68%)
     (10%)
     (2%)
     (19%)
    Celkem 560 hlasů
     Komentářů: 4, poslední 6.4. 15:51
    Rozcestník

    Administrace komentářů

    Jste na stránce určené pro řešení chyb a problémů týkajících se diskusí a komentářů. Můžete zde našim administrátorům reportovat špatně zařazenou či duplicitní diskusi, vulgární či osočující příspěvek a podobně. Děkujeme vám za vaši pomoc, více očí více vidí, společně můžeme udržet vysokou kvalitu AbcLinuxu.cz.

    Příspěvek
    14.12.2015 17:08 Max | skóre: 72 | blog: Max_Devaine
    Rozbalit Rozbalit vše ZFS - deduplikace a jiné problémy
    Sestavil jsem celkem pěkný storage, který vychází z tohoto : Návrh škálovatelného Enterprise Storage za hubičku
    Tzn. Areca řadič s 2GiB cache + baterie + 13x4TiB WD RED (ZFS RAID10 + 1x spare) + 64GiB DDR4 ECC
    Vyzkoušel jsem si, že vše běží rychle (zálohy celých VM, rychlost přes LACP 1,5Gb/s). Po pár týdnech jsem zkusil zapnout deduplikaci. Celkem to ještě šlapalo, nepoznával jsem rozdíl. Pak ovšem přišel výpadek proudu a selhání UPS.
    To mělo za následek, že vypadl asi jeden disk z řadiče, přidal jsem ho zpět, ZFS zahlásil health ok a vše vypadalo dobře. Po pár dnech se storage padnul. Zjistil jsem, že se Areca řadič odpojil a FreeNAS ho nevidí. Provedl jsem úplně odpojení napájení serveru a od té doby vše ok. Tedy jen po HW stránce. Pole nejdříve dva dny nešlo připojit, FreeNAS ležel na importování poolu a kernel padal dokola a dokola a vyhazoval backtrace. Nabootoval jsem FreeBSD, postupně připojoval a zjistil, že je problém s připojením jednoho datasetu, tak jsem ho smazal. Kvůli problémům s výkonem jsem vypnul deduplikaci, ale stále jsem ve stavu, kdy pole zlobí. A to následovně :
    Pool hlásí, že jsou na něm ještě nějaká dedup data (což lze asi chápat):
    [root@bs1-ph] ~# zpool list datastore1
    NAME         SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
    datastore1  21.8T  17.6T  4.17T         -    65%    80%  1.03x  ONLINE  /mnt
    
    A problém je takový, že když o víkendu pustím dump 2,7TiB databáze přes NFS rovnou na storage, tak celý server padne. Pád nastane i v případě, že chci smazat starým 2,7TiB dump db. Chvíli server běží, ale poté se asi procesy na pozadí rozhodnou soubor skutečně smazat a jde to dolu. Občas se i stane to, že jiné mašiny, co zálohuji přes NFS zahlásí problémy s nedostupností NFS (storage se tak zpomalí, že neodpovídá).
    V logu FreeNASu jsem i zahlédl problém s nedostatkem swap (to když šel FreeNAS na hubu a přes kvm jsem viděl na obrazovce log, stalo se mi to i při bootu).
    [root@bs1-ph] ~# zpool history datastore1
    History for 'datastore1':
    2015-09-14.17:18:22 zpool create -o cachefile=/data/zfs/zpool.cache -o failmode=continue -o autoexpand=on -O compression=lz4 -O aclmode=passthrough -O aclinherit=passthrough -f -m /datastore1 -o altroot=/mnt datastore1 mirror /dev/gptid/d33bdf38-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d37672d0-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d3b099a3-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d3ebf665-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d426e367-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d4624a7b-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d49effcc-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d4d9eb20-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d5181f27-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d554313e-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d591a58d-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d5ccb0a0-5af3-11e5-8367-0cc47a34a53a spare /dev/gptid/d60b9953-5af3-11e5-8367-0cc47a34a53a
    2015-09-14.17:18:27 zfs inherit mountpoint datastore1
    2015-09-14.17:18:27 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-15.16:13:10 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-15.16:13:10 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-15.16:35:47 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-15.16:35:47 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-16.11:35:59 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-16.11:35:59 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-16.11:58:09 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-16.11:58:09 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-16.12:10:02 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-16.12:10:02 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-16.12:43:38 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-16.12:43:38 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-17.15:21:19 zfs create -o casesensitivity=sensitive datastore1/partimaged_storage
    2015-09-17.15:21:46 zfs create -o casesensitivity=sensitive datastore1/partimaged_storage/VM-backup
    2015-09-17.15:22:01 zfs destroy -r datastore1/partimaged_storage/VM-backup
    2015-09-17.15:22:23 zfs create -o casesensitivity=sensitive datastore1/VM-backup
    2015-09-23.16:20:02 zfs rename datastore1/partimaged_storage datastore1/parted
    2015-09-23.16:37:00 zfs rename datastore1/parted datastore1/partimag
    2015-09-24.21:03:14 zfs create -o casesensitivity=sensitive -o aclmode=restricted datastore1/Helios-dump
    2015-09-24.21:05:39 zfs inherit compression datastore1/Helios-dump
    2015-09-24.21:05:39 zfs inherit atime datastore1/Helios-dump
    2015-09-24.21:05:39 zfs inherit dedup datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set reservation=0 datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set refreservation=0 datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set quota=none datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set refquota=none datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set aclmode=restricted datastore1/Helios-dump
    2015-09-24.21:15:53 zfs create -o casesensitivity=sensitive datastore1/helios-db
    2015-09-24.23:08:07 zfs create -o casesensitivity=sensitive datastore1/rail-data-backup
    2015-10-03.12:03:45 zfs destroy -r datastore1/Helios-dump
    2015-10-03.12:04:58 zfs create -o casesensitivity=sensitive datastore1/dms-db
    2015-10-03.12:16:22 zfs inherit compression datastore1/dms-db
    2015-10-03.12:16:23 zfs inherit atime datastore1/dms-db
    2015-10-03.12:16:23 zfs set dedup=verify datastore1/dms-db
    2015-10-03.12:16:23 zfs set reservation=0 datastore1/dms-db
    2015-10-03.12:16:23 zfs set refreservation=0 datastore1/dms-db
    2015-10-03.12:16:23 zfs set quota=none datastore1/dms-db
    2015-10-03.12:16:23 zfs set refquota=none datastore1/dms-db
    2015-10-03.12:16:28 zfs set aclmode=passthrough datastore1/dms-db
    2015-10-04.00:31:52 zfs create -o casesensitivity=sensitive datastore1/gfi-backup
    2015-10-04.11:35:39 zfs inherit compression datastore1/gfi-backup
    2015-10-04.11:35:39 zfs inherit atime datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set dedup=verify datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set reservation=0 datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set refreservation=0 datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set quota=none datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set refquota=none datastore1/gfi-backup
    2015-10-04.11:35:44 zfs set aclmode=restricted datastore1/gfi-backup
    2015-10-04.11:35:58 zfs inherit compression datastore1/helios-db
    2015-10-04.11:35:58 zfs inherit atime datastore1/helios-db
    2015-10-04.11:35:58 zfs set dedup=verify datastore1/helios-db
    2015-10-04.11:35:58 zfs set reservation=0 datastore1/helios-db
    2015-10-04.11:35:58 zfs set refreservation=0 datastore1/helios-db
    2015-10-04.11:35:58 zfs set quota=none datastore1/helios-db
    2015-10-04.11:35:58 zfs set refquota=none datastore1/helios-db
    2015-10-04.11:36:03 zfs set aclmode=passthrough datastore1/helios-db
    2015-10-06.23:26:46 zfs create -o casesensitivity=sensitive -o dedup=verify datastore1/rail-backup
    2015-10-06.23:27:48 zfs inherit compression datastore1/partimag
    2015-10-06.23:27:49 zfs inherit atime datastore1/partimag
    2015-10-06.23:27:49 zfs set dedup=verify datastore1/partimag
    2015-10-06.23:27:49 zfs set reservation=0 datastore1/partimag
    2015-10-06.23:27:49 zfs set refreservation=0 datastore1/partimag
    2015-10-06.23:27:49 zfs set quota=none datastore1/partimag
    2015-10-06.23:27:49 zfs set refquota=none datastore1/partimag
    2015-10-06.23:27:50 zfs set aclmode=passthrough datastore1/partimag
    2015-10-07.00:01:57 zfs create -o casesensitivity=sensitive datastore1/scripts
    2015-10-09.12:14:35 zfs create -o casesensitivity=sensitive datastore1/sap-backup
    2015-10-09.15:22:13 zfs snapshot datastore1/rail-backup@manual-20151009
    2015-10-09.15:35:00 zfs snapshot datastore1/rail-backup@manual-2015-10-09
    2015-10-09.21:42:21 zfs snapshot datastore1/rail-backup@manual-
    2015-10-10.01:06:40 zfs destroy datastore1/rail-backup@bkp-2015-10-10-010420
    2015-10-10.01:06:59 zfs destroy datastore1/rail-backup@manual-
    2015-10-10.01:15:23 zfs snapshot datastore1/rail-backup@bkp-2015-10-10-011412
    2015-10-10.20:03:08 zfs snapshot datastore1/rail-backup@bkp-2015-10-10-200308
    2015-10-11.20:03:21 zfs snapshot datastore1/rail-backup@bkp-2015-10-11-200320
    2015-10-12.20:03:38 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-12-200336
    2015-10-12.20:27:52 zfs set compression=lz4 datastore1
    2015-10-12.20:27:52 zfs inherit atime datastore1
    2015-10-12.20:27:53 zfs set dedup=verify datastore1
    2015-10-12.20:27:54 zfs set reservation=0 datastore1
    2015-10-12.20:27:55 zfs set refreservation=0 datastore1
    2015-10-12.20:27:55 zfs set quota=none datastore1
    2015-10-12.20:27:56 zfs set refquota=none datastore1
    2015-10-12.20:27:58 zfs set aclmode=passthrough datastore1
    2015-10-12.20:28:14 zfs inherit compression datastore1/VM-backup
    2015-10-12.20:28:15 zfs inherit atime datastore1/VM-backup
    2015-10-12.20:28:16 zfs set dedup=off datastore1/VM-backup
    2015-10-12.20:28:17 zfs set reservation=0 datastore1/VM-backup
    2015-10-12.20:28:17 zfs set refreservation=0 datastore1/VM-backup
    2015-10-12.20:28:18 zfs set quota=none datastore1/VM-backup
    2015-10-12.20:28:18 zfs set refquota=none datastore1/VM-backup
    2015-10-12.20:28:19 zfs set aclmode=passthrough datastore1/VM-backup
    2015-10-12.20:28:32 zfs inherit compression datastore1/helios-db
    2015-10-12.20:28:32 zfs inherit atime datastore1/helios-db
    2015-10-12.20:28:32 zfs inherit dedup datastore1/helios-db
    2015-10-12.20:28:33 zfs set reservation=0 datastore1/helios-db
    2015-10-12.20:28:33 zfs set refreservation=0 datastore1/helios-db
    2015-10-12.20:28:33 zfs set quota=none datastore1/helios-db
    2015-10-12.20:28:33 zfs set refquota=none datastore1/helios-db
    2015-10-12.20:28:34 zfs set aclmode=passthrough datastore1/helios-db
    2015-10-12.20:28:43 zfs inherit compression datastore1/partimag
    2015-10-12.20:28:43 zfs inherit atime datastore1/partimag
    2015-10-12.20:28:43 zfs inherit dedup datastore1/partimag
    2015-10-12.20:28:44 zfs set reservation=0 datastore1/partimag
    2015-10-12.20:28:44 zfs set refreservation=0 datastore1/partimag
    2015-10-12.20:28:44 zfs set quota=none datastore1/partimag
    2015-10-12.20:28:44 zfs set refquota=none datastore1/partimag
    2015-10-12.20:28:45 zfs set aclmode=passthrough datastore1/partimag
    2015-10-12.20:28:53 zfs inherit compression datastore1/rail-backup
    2015-10-12.20:28:53 zfs inherit atime datastore1/rail-backup
    2015-10-12.20:28:53 zfs inherit dedup datastore1/rail-backup
    2015-10-12.20:28:54 zfs set reservation=0 datastore1/rail-backup
    2015-10-12.20:28:54 zfs set refreservation=0 datastore1/rail-backup
    2015-10-12.20:28:54 zfs set quota=none datastore1/rail-backup
    2015-10-12.20:28:54 zfs set refquota=none datastore1/rail-backup
    2015-10-12.20:28:55 zfs set aclmode=passthrough datastore1/rail-backup
    2015-10-12.20:29:05 zfs inherit compression datastore1/dms-db
    2015-10-12.20:29:05 zfs inherit atime datastore1/dms-db
    2015-10-12.20:29:05 zfs inherit dedup datastore1/dms-db
    2015-10-12.20:29:05 zfs set reservation=0 datastore1/dms-db
    2015-10-12.20:29:05 zfs set refreservation=0 datastore1/dms-db
    2015-10-12.20:29:06 zfs set quota=none datastore1/dms-db
    2015-10-12.20:29:06 zfs set refquota=none datastore1/dms-db
    2015-10-12.20:29:07 zfs set aclmode=passthrough datastore1/dms-db
    2015-10-12.20:29:20 zfs inherit compression datastore1/gfi-backup
    2015-10-12.20:29:22 zfs inherit atime datastore1/gfi-backup
    2015-10-12.20:29:24 zfs inherit dedup datastore1/gfi-backup
    2015-10-12.20:29:25 zfs set reservation=0 datastore1/gfi-backup
    2015-10-12.20:29:26 zfs set refreservation=0 datastore1/gfi-backup
    2015-10-12.20:29:27 zfs set quota=none datastore1/gfi-backup
    2015-10-12.20:29:28 zfs set refquota=none datastore1/gfi-backup
    2015-10-12.20:29:30 zfs set aclmode=restricted datastore1/gfi-backup
    2015-10-13.14:59:55 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-13-145948
    2015-10-13.20:04:39 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-13-200437
    2015-10-14.20:04:22 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-14-200421
    2015-10-15.20:04:07 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-15-200407
    2015-10-16.20:03:44 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-16-200344
    2015-10-17.20:03:22 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-17-200321
    2015-10-18.20:03:44 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-18-200327
    2015-10-19.20:03:24 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-19-200323
    2015-10-20.20:04:24 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-20-200421
    2015-10-21.14:28:34 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-21.14:28:34 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-21.14:45:23 zpool scrub datastore1
    2015-10-21.21:20:36 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-21-211848
    2015-10-21.21:20:49 zfs create -o casesensitivity=sensitive datastore1/oracle-backups
    2015-10-22.20:03:45 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-22-200339
    2015-10-23.13:27:54 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-23.13:27:54 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-24.18:43:14 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-24.18:43:14 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-24.19:03:55 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-24.19:03:55 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-24.19:13:43 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-24.19:13:43 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-24.21:26:41 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-24-212634
    2015-10-25.19:40:27 zfs set mountpoint=/tmp/zfs datastore1/dms-db
    2015-10-25.20:49:23 zpool import -N -f datastore1
    2015-10-26.23:49:24 zpool import -N -f datastore1
    2015-10-26.23:53:07 zfs set mountpoint=/tmp/zfs datastore1/scripts
    2015-10-26.23:53:14 zfs set mountpoint=/tmp/zfs datastore1/dms-db
    2015-10-26.23:53:21 zfs set mountpoint=/tmp/zfs datastore1/VM-backup
    2015-10-27.10:37:16 zpool import -N -f datastore1
    2015-10-27.10:52:12 zfs set mountpoint=/mnt/datastore1/scripts datastore1/scripts
    2015-10-27.10:55:50 zfs set mountpoint=/mnt/datastore1/partimag datastore1/partimag
    2015-10-27.10:56:18 zfs set mountpoint=/mnt/datastore1/rail-backup datastore1/rail-backup
    2015-10-27.10:56:31 zfs set mountpoint=/mnt/datastore1/oracle-backups datastore1/oracle-backups
    2015-10-27.10:56:44 zfs set mountpoint=/mnt/datastore1/gfi-backup datastore1/gfi-backup
    2015-10-27.10:57:03 zfs set mountpoint=/mnt/datastore1/rail-data-backup datastore1/rail-data-backup
    2015-10-27.10:57:19 zfs set mountpoint=/mnt/datastore1/sap-backup datastore1/sap-backup
    2015-10-27.10:57:37 zfs set mountpoint=/mnt/datastore1/helios-db datastore1/helios-db
    2015-10-27.10:59:05 zfs set mountpoint=/mnt/datastore1/VM-backup datastore1/VM-backup
    2015-10-27.10:59:15 zfs set mountpoint=/mnt/datastore1/dms-db datastore1/dms-db
    2015-10-27.14:09:45 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-27.14:09:45 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-27.18:18:37 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-27.20:12:31 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-27-200534
    2015-10-27.23:08:26 zfs set compression=lz4 datastore1
    2015-10-27.23:09:15 zfs inherit atime datastore1
    2015-10-27.23:10:31 zfs set dedup=off datastore1
    2015-10-27.23:14:15 zfs set reservation=0 datastore1
    2015-10-27.23:21:37 zfs set refreservation=0 datastore1
    2015-10-27.23:30:39 zfs set quota=none datastore1
    2015-10-27.23:42:48 zfs set refquota=none datastore1
    2015-10-28.00:19:05 zfs set aclmode=passthrough datastore1
    2015-10-28.20:56:48 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-28-200350
    2015-10-28.21:37:27 zfs set compression=lz4 datastore1
    2015-10-28.22:04:19 zfs inherit atime datastore1
    2015-10-28.22:20:21 zfs set mountpoint=/mnt/datastore1/VM-backup datastore1/VM-backup
    2015-10-28.22:27:31 zfs set dedup=off datastore1
    2015-10-28.23:18:02 zfs set reservation=0 datastore1
    2015-10-28.23:18:20 zfs set refreservation=0 datastore1
    2015-10-29.01:38:33 zfs set quota=none datastore1
    2015-10-29.01:40:15 zfs set refquota=none datastore1
    2015-10-29.01:42:04 zfs set aclmode=passthrough datastore1
    2015-10-29.20:04:40 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-29-200440
    2015-10-30.20:04:12 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-30-200411
    2015-10-31.20:04:06 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-31-200405
    2015-11-01.20:03:54 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-01-200353
    2015-11-02.14:53:58 zfs create -o casesensitivity=sensitive datastore1/horak
    2015-11-02.14:58:02 zfs destroy -r datastore1/horak
    2015-11-02.14:59:55 zfs create -o casesensitivity=sensitive datastore1/horak
    2015-11-02.15:01:36 zfs set mountpoint=/mnt/datastore1/horak datastore1/horak
    2015-11-02.20:03:53 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-02-200353
    2015-11-02.23:50:22 zfs create -o casesensitivity=sensitive datastore1/dms-backup
    2015-11-02.23:51:23 zfs set mountpoint=/mnt/datastore1/dms-backup datastore1/dms-backup
    2015-11-03.09:39:04 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-03.09:39:04 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-11-03.09:39:10 zfs inherit -r mountpoint datastore1
    2015-11-04.00:22:25 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-04-002224
    2015-11-04.20:04:16 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-04-200415
    2015-11-05.20:04:02 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-05-200401
    2015-11-06.20:03:46 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-06-200346
    2015-11-07.20:03:54 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-07-200353
    2015-11-08.20:03:29 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-08-200328
    2015-11-09.20:04:06 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-09-200405
    2015-11-10.20:03:43 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-10-200342
    2015-11-11.20:03:51 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-11-200351
    2015-11-12.20:04:43 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-12-200442
    2015-11-13.08:22:26 zpool import -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-13.08:22:26 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-11-13.22:48:28 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-13-224828
    2015-11-14.20:03:49 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-14-200348
    2015-11-15.20:03:34 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-15-200333
    2015-11-16.20:03:42 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-16-200342
    2015-11-17.20:03:35 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-17-200334
    2015-11-18.12:39:07 zpool import -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-18.12:39:07 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-11-18.13:10:22 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-18.13:10:22 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-11-19.00:16:52 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-19-001650
    2015-11-19.20:03:50 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-19-200349
    2015-11-20.20:04:16 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-20-200415
    2015-11-21.20:04:27 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-21-200426
    2015-11-22.20:04:03 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-22-200402
    2015-11-23.20:05:08 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-23-200507
    2015-11-24.20:04:29 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-24-200428
    2015-11-25.20:04:32 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-25-200431
    2015-11-26.20:04:20 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-26-200420
    2015-11-27.20:04:18 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-27-200418
    2015-11-28.20:06:00 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-28-200556
    2015-11-29.00:01:34 zpool scrub datastore1
    2015-11-29.20:03:56 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-29-200353
    2015-11-30.15:16:42 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-30.15:16:42 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-12-05.22:38:06 zpool import -o cachefile=none -R /mnt -f 2626378954000273008
    2015-12-05.22:38:06 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-12-05.22:41:47 zfs destroy -r datastore1/horak
    2015-12-06.20:07:48 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-06-200739
    2015-12-07.20:04:00 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-07-200359
    2015-12-08.20:04:04 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-08-200402
    2015-12-09.20:03:52 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-09-200351
    2015-12-10.20:04:00 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-10-200359
    2015-12-11.20:04:13 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-11-200411
    2015-12-12.20:03:51 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-12-200350
    2015-12-13.20:03:54 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-13-200351
    
    FreeNAS jsem zvolil jednak kvůli kolegům nelinuxákům, tak kvůli tomu, abych rychle pochopil filosofii ZFS (a díky zmíněným problémům už jsem ve fázi, kdy webgui nepotřebuji) + je to BSD, tudíž lepší implementace ZFS, jak v linuxu.
    ZFS jsem zvolil kvůli kompresi, snapshotům a chtěl jsem i vyzkoušet deduplikaci + do budoucna jsem plánoval mít dva storage a dělat replikaci zálohy na druhý storage, kdyby se první nějak vysypal.

    Otázka do placu, zda se někdo setkal s podobných chováním? Osobně si totiž myslím, že mám ram víc, než dost a zaplnění do 80% kapacity také dodržuji.
    Případně zda by někdo neměl nápad, jak pool vyléčit, než ho celý dropnout a vytvořit nový.
    Díky
    Zdar Max
    Měl jsem sen ... :(

    V tomto formuláři můžete formulovat svou stížnost ohledně příspěvku. Nejprve vyberte typ akce, kterou navrhujete provést s diskusí či příspěvkem. Potom do textového pole napište důvody, proč by měli admini provést vaši žádost, problém nemusí být patrný na první pohled. Odkaz na příspěvek bude přidán automaticky.

    Vaše jméno
    Váš email
    Typ požadavku
    Slovní popis
    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.