abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
    dnes 13:11 | Zajímavý software

    Kevin Bentley zveřejnil na GitHubu zdrojové kódy počítačové hry Descent 3 z roku 1999: "Někdo se nedávno zeptal, zda budou zveřejněny zdrojové kódy Descent 3. Oslovil jsem svého bývalého šéfa (Matt Toschlog) z Outrage Entertainment a ten mi to povolil. Budu pracovat na tom, aby se to znovu rozběhlo a hledám spolusprávce." [Hacker News]

    Ladislav Hagara | Komentářů: 0
    dnes 04:33 | Bezpečnostní upozornění

    Byla vydána verze 0.81 telnet a ssh klienta PuTTY. Opravena je kritická bezpečnostní chyba CVE-2024-31497 obsažena ve verzích 0.68 až 0.80. Používáte-li klíč ECDSA NIST P521 a použili jste jej v PuTTY nebo Pageantu, považujte jej za kompromitovaný.

    Ladislav Hagara | Komentářů: 0
    včera 21:44 | Komunita

    Hra MineClone2 postavena nad voxelovým herním enginem Minetest byla přejmenována na VoxeLibre.

    Ladislav Hagara | Komentářů: 0
    včera 19:11 | IT novinky

    Společnosti Avast Software s.r.o. byla pravomocně uložena pokuta ve výši 351 milionů Kč. Tu uložil Úřad pro ochranu osobních údajů za neoprávněné zpracování osobních údajů uživatelů jejího antivirového programu Avast a jeho rozšíření internetových prohlížečů (Browser Extensions), k čemuž docházelo prokazatelně po část roku 2019.

    … více »
    Ladislav Hagara | Komentářů: 4
    včera 15:55 | Zajímavý článek

    Bylo vydáno do češtiny přeložené číslo 714 týdeníku WeeklyOSM přinášející zprávy ze světa OpenStreetMap.

    Ladislav Hagara | Komentářů: 0
    včera 15:44 | Pozvánky

    V sobotu 20. dubna lze navštívit Maker Faire Jihlava, festival plný workshopů, interaktivních činností a především nadšených a zvídavých lidí.

    Ladislav Hagara | Komentářů: 0
    včera 14:44 | Zajímavý software

    Knihovna pro potlačení šumu RNNoise byla vydána ve verzi 0.2. Kvalitu potlačení lze vyzkoušet na webovém demu.

    Ladislav Hagara | Komentářů: 0
    včera 04:33 | Nová verze

    FRRouting (FRR) (Wikipedie), tj. softwarová sada pro směrování síťové komunikace, fork Quagga, byl vydán ve verzi 10.0.

    Ladislav Hagara | Komentářů: 0
    včera 03:22 | Nová verze

    Julian Andres Klode vydal APT (Advanced Packaging Tool) ve verzích 2.9.0 a 2.9.1. Jedná se o vývojové verze nové větve APT 3.0. Vylepšuje se uživatelské rozhraní. Přidány byly barvičky. Aktuální náhledy a vývoj lze sledovat na Mastodonu.

    Ladislav Hagara | Komentářů: 3
    14.4. 17:00 | Komunita

    Miguel de Icaza se na svém blogu rozepsal o vložitelných herních enginech. Kdysi slibné projekty UrhoSharp a Urho3D jsou již mrtvé. Zůstává Godot. Aktuálně vývojáři řeší Pull request #90510 s návrhem knihovny LibGodot.

    Ladislav Hagara | Komentářů: 0
    KDE Plasma 6
     (60%)
     (13%)
     (2%)
     (24%)
    Celkem 415 hlasů
     Komentářů: 4, poslední 6.4. 15:51
    Rozcestník

    Administrace komentářů

    Jste na stránce určené pro řešení chyb a problémů týkajících se diskusí a komentářů. Můžete zde našim administrátorům reportovat špatně zařazenou či duplicitní diskusi, vulgární či osočující příspěvek a podobně. Děkujeme vám za vaši pomoc, více očí více vidí, společně můžeme udržet vysokou kvalitu AbcLinuxu.cz.

    Příspěvek
    14.12.2015 17:08 Max | skóre: 72 | blog: Max_Devaine
    Rozbalit Rozbalit vše ZFS - deduplikace a jiné problémy
    Sestavil jsem celkem pěkný storage, který vychází z tohoto : Návrh škálovatelného Enterprise Storage za hubičku
    Tzn. Areca řadič s 2GiB cache + baterie + 13x4TiB WD RED (ZFS RAID10 + 1x spare) + 64GiB DDR4 ECC
    Vyzkoušel jsem si, že vše běží rychle (zálohy celých VM, rychlost přes LACP 1,5Gb/s). Po pár týdnech jsem zkusil zapnout deduplikaci. Celkem to ještě šlapalo, nepoznával jsem rozdíl. Pak ovšem přišel výpadek proudu a selhání UPS.
    To mělo za následek, že vypadl asi jeden disk z řadiče, přidal jsem ho zpět, ZFS zahlásil health ok a vše vypadalo dobře. Po pár dnech se storage padnul. Zjistil jsem, že se Areca řadič odpojil a FreeNAS ho nevidí. Provedl jsem úplně odpojení napájení serveru a od té doby vše ok. Tedy jen po HW stránce. Pole nejdříve dva dny nešlo připojit, FreeNAS ležel na importování poolu a kernel padal dokola a dokola a vyhazoval backtrace. Nabootoval jsem FreeBSD, postupně připojoval a zjistil, že je problém s připojením jednoho datasetu, tak jsem ho smazal. Kvůli problémům s výkonem jsem vypnul deduplikaci, ale stále jsem ve stavu, kdy pole zlobí. A to následovně :
    Pool hlásí, že jsou na něm ještě nějaká dedup data (což lze asi chápat):
    [root@bs1-ph] ~# zpool list datastore1
    NAME         SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
    datastore1  21.8T  17.6T  4.17T         -    65%    80%  1.03x  ONLINE  /mnt
    
    A problém je takový, že když o víkendu pustím dump 2,7TiB databáze přes NFS rovnou na storage, tak celý server padne. Pád nastane i v případě, že chci smazat starým 2,7TiB dump db. Chvíli server běží, ale poté se asi procesy na pozadí rozhodnou soubor skutečně smazat a jde to dolu. Občas se i stane to, že jiné mašiny, co zálohuji přes NFS zahlásí problémy s nedostupností NFS (storage se tak zpomalí, že neodpovídá).
    V logu FreeNASu jsem i zahlédl problém s nedostatkem swap (to když šel FreeNAS na hubu a přes kvm jsem viděl na obrazovce log, stalo se mi to i při bootu).
    [root@bs1-ph] ~# zpool history datastore1
    History for 'datastore1':
    2015-09-14.17:18:22 zpool create -o cachefile=/data/zfs/zpool.cache -o failmode=continue -o autoexpand=on -O compression=lz4 -O aclmode=passthrough -O aclinherit=passthrough -f -m /datastore1 -o altroot=/mnt datastore1 mirror /dev/gptid/d33bdf38-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d37672d0-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d3b099a3-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d3ebf665-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d426e367-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d4624a7b-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d49effcc-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d4d9eb20-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d5181f27-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d554313e-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d591a58d-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d5ccb0a0-5af3-11e5-8367-0cc47a34a53a spare /dev/gptid/d60b9953-5af3-11e5-8367-0cc47a34a53a
    2015-09-14.17:18:27 zfs inherit mountpoint datastore1
    2015-09-14.17:18:27 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-15.16:13:10 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-15.16:13:10 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-15.16:35:47 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-15.16:35:47 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-16.11:35:59 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-16.11:35:59 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-16.11:58:09 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-16.11:58:09 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-16.12:10:02 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-16.12:10:02 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-16.12:43:38 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-09-16.12:43:38 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-09-17.15:21:19 zfs create -o casesensitivity=sensitive datastore1/partimaged_storage
    2015-09-17.15:21:46 zfs create -o casesensitivity=sensitive datastore1/partimaged_storage/VM-backup
    2015-09-17.15:22:01 zfs destroy -r datastore1/partimaged_storage/VM-backup
    2015-09-17.15:22:23 zfs create -o casesensitivity=sensitive datastore1/VM-backup
    2015-09-23.16:20:02 zfs rename datastore1/partimaged_storage datastore1/parted
    2015-09-23.16:37:00 zfs rename datastore1/parted datastore1/partimag
    2015-09-24.21:03:14 zfs create -o casesensitivity=sensitive -o aclmode=restricted datastore1/Helios-dump
    2015-09-24.21:05:39 zfs inherit compression datastore1/Helios-dump
    2015-09-24.21:05:39 zfs inherit atime datastore1/Helios-dump
    2015-09-24.21:05:39 zfs inherit dedup datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set reservation=0 datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set refreservation=0 datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set quota=none datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set refquota=none datastore1/Helios-dump
    2015-09-24.21:05:39 zfs set aclmode=restricted datastore1/Helios-dump
    2015-09-24.21:15:53 zfs create -o casesensitivity=sensitive datastore1/helios-db
    2015-09-24.23:08:07 zfs create -o casesensitivity=sensitive datastore1/rail-data-backup
    2015-10-03.12:03:45 zfs destroy -r datastore1/Helios-dump
    2015-10-03.12:04:58 zfs create -o casesensitivity=sensitive datastore1/dms-db
    2015-10-03.12:16:22 zfs inherit compression datastore1/dms-db
    2015-10-03.12:16:23 zfs inherit atime datastore1/dms-db
    2015-10-03.12:16:23 zfs set dedup=verify datastore1/dms-db
    2015-10-03.12:16:23 zfs set reservation=0 datastore1/dms-db
    2015-10-03.12:16:23 zfs set refreservation=0 datastore1/dms-db
    2015-10-03.12:16:23 zfs set quota=none datastore1/dms-db
    2015-10-03.12:16:23 zfs set refquota=none datastore1/dms-db
    2015-10-03.12:16:28 zfs set aclmode=passthrough datastore1/dms-db
    2015-10-04.00:31:52 zfs create -o casesensitivity=sensitive datastore1/gfi-backup
    2015-10-04.11:35:39 zfs inherit compression datastore1/gfi-backup
    2015-10-04.11:35:39 zfs inherit atime datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set dedup=verify datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set reservation=0 datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set refreservation=0 datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set quota=none datastore1/gfi-backup
    2015-10-04.11:35:39 zfs set refquota=none datastore1/gfi-backup
    2015-10-04.11:35:44 zfs set aclmode=restricted datastore1/gfi-backup
    2015-10-04.11:35:58 zfs inherit compression datastore1/helios-db
    2015-10-04.11:35:58 zfs inherit atime datastore1/helios-db
    2015-10-04.11:35:58 zfs set dedup=verify datastore1/helios-db
    2015-10-04.11:35:58 zfs set reservation=0 datastore1/helios-db
    2015-10-04.11:35:58 zfs set refreservation=0 datastore1/helios-db
    2015-10-04.11:35:58 zfs set quota=none datastore1/helios-db
    2015-10-04.11:35:58 zfs set refquota=none datastore1/helios-db
    2015-10-04.11:36:03 zfs set aclmode=passthrough datastore1/helios-db
    2015-10-06.23:26:46 zfs create -o casesensitivity=sensitive -o dedup=verify datastore1/rail-backup
    2015-10-06.23:27:48 zfs inherit compression datastore1/partimag
    2015-10-06.23:27:49 zfs inherit atime datastore1/partimag
    2015-10-06.23:27:49 zfs set dedup=verify datastore1/partimag
    2015-10-06.23:27:49 zfs set reservation=0 datastore1/partimag
    2015-10-06.23:27:49 zfs set refreservation=0 datastore1/partimag
    2015-10-06.23:27:49 zfs set quota=none datastore1/partimag
    2015-10-06.23:27:49 zfs set refquota=none datastore1/partimag
    2015-10-06.23:27:50 zfs set aclmode=passthrough datastore1/partimag
    2015-10-07.00:01:57 zfs create -o casesensitivity=sensitive datastore1/scripts
    2015-10-09.12:14:35 zfs create -o casesensitivity=sensitive datastore1/sap-backup
    2015-10-09.15:22:13 zfs snapshot datastore1/rail-backup@manual-20151009
    2015-10-09.15:35:00 zfs snapshot datastore1/rail-backup@manual-2015-10-09
    2015-10-09.21:42:21 zfs snapshot datastore1/rail-backup@manual-
    2015-10-10.01:06:40 zfs destroy datastore1/rail-backup@bkp-2015-10-10-010420
    2015-10-10.01:06:59 zfs destroy datastore1/rail-backup@manual-
    2015-10-10.01:15:23 zfs snapshot datastore1/rail-backup@bkp-2015-10-10-011412
    2015-10-10.20:03:08 zfs snapshot datastore1/rail-backup@bkp-2015-10-10-200308
    2015-10-11.20:03:21 zfs snapshot datastore1/rail-backup@bkp-2015-10-11-200320
    2015-10-12.20:03:38 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-12-200336
    2015-10-12.20:27:52 zfs set compression=lz4 datastore1
    2015-10-12.20:27:52 zfs inherit atime datastore1
    2015-10-12.20:27:53 zfs set dedup=verify datastore1
    2015-10-12.20:27:54 zfs set reservation=0 datastore1
    2015-10-12.20:27:55 zfs set refreservation=0 datastore1
    2015-10-12.20:27:55 zfs set quota=none datastore1
    2015-10-12.20:27:56 zfs set refquota=none datastore1
    2015-10-12.20:27:58 zfs set aclmode=passthrough datastore1
    2015-10-12.20:28:14 zfs inherit compression datastore1/VM-backup
    2015-10-12.20:28:15 zfs inherit atime datastore1/VM-backup
    2015-10-12.20:28:16 zfs set dedup=off datastore1/VM-backup
    2015-10-12.20:28:17 zfs set reservation=0 datastore1/VM-backup
    2015-10-12.20:28:17 zfs set refreservation=0 datastore1/VM-backup
    2015-10-12.20:28:18 zfs set quota=none datastore1/VM-backup
    2015-10-12.20:28:18 zfs set refquota=none datastore1/VM-backup
    2015-10-12.20:28:19 zfs set aclmode=passthrough datastore1/VM-backup
    2015-10-12.20:28:32 zfs inherit compression datastore1/helios-db
    2015-10-12.20:28:32 zfs inherit atime datastore1/helios-db
    2015-10-12.20:28:32 zfs inherit dedup datastore1/helios-db
    2015-10-12.20:28:33 zfs set reservation=0 datastore1/helios-db
    2015-10-12.20:28:33 zfs set refreservation=0 datastore1/helios-db
    2015-10-12.20:28:33 zfs set quota=none datastore1/helios-db
    2015-10-12.20:28:33 zfs set refquota=none datastore1/helios-db
    2015-10-12.20:28:34 zfs set aclmode=passthrough datastore1/helios-db
    2015-10-12.20:28:43 zfs inherit compression datastore1/partimag
    2015-10-12.20:28:43 zfs inherit atime datastore1/partimag
    2015-10-12.20:28:43 zfs inherit dedup datastore1/partimag
    2015-10-12.20:28:44 zfs set reservation=0 datastore1/partimag
    2015-10-12.20:28:44 zfs set refreservation=0 datastore1/partimag
    2015-10-12.20:28:44 zfs set quota=none datastore1/partimag
    2015-10-12.20:28:44 zfs set refquota=none datastore1/partimag
    2015-10-12.20:28:45 zfs set aclmode=passthrough datastore1/partimag
    2015-10-12.20:28:53 zfs inherit compression datastore1/rail-backup
    2015-10-12.20:28:53 zfs inherit atime datastore1/rail-backup
    2015-10-12.20:28:53 zfs inherit dedup datastore1/rail-backup
    2015-10-12.20:28:54 zfs set reservation=0 datastore1/rail-backup
    2015-10-12.20:28:54 zfs set refreservation=0 datastore1/rail-backup
    2015-10-12.20:28:54 zfs set quota=none datastore1/rail-backup
    2015-10-12.20:28:54 zfs set refquota=none datastore1/rail-backup
    2015-10-12.20:28:55 zfs set aclmode=passthrough datastore1/rail-backup
    2015-10-12.20:29:05 zfs inherit compression datastore1/dms-db
    2015-10-12.20:29:05 zfs inherit atime datastore1/dms-db
    2015-10-12.20:29:05 zfs inherit dedup datastore1/dms-db
    2015-10-12.20:29:05 zfs set reservation=0 datastore1/dms-db
    2015-10-12.20:29:05 zfs set refreservation=0 datastore1/dms-db
    2015-10-12.20:29:06 zfs set quota=none datastore1/dms-db
    2015-10-12.20:29:06 zfs set refquota=none datastore1/dms-db
    2015-10-12.20:29:07 zfs set aclmode=passthrough datastore1/dms-db
    2015-10-12.20:29:20 zfs inherit compression datastore1/gfi-backup
    2015-10-12.20:29:22 zfs inherit atime datastore1/gfi-backup
    2015-10-12.20:29:24 zfs inherit dedup datastore1/gfi-backup
    2015-10-12.20:29:25 zfs set reservation=0 datastore1/gfi-backup
    2015-10-12.20:29:26 zfs set refreservation=0 datastore1/gfi-backup
    2015-10-12.20:29:27 zfs set quota=none datastore1/gfi-backup
    2015-10-12.20:29:28 zfs set refquota=none datastore1/gfi-backup
    2015-10-12.20:29:30 zfs set aclmode=restricted datastore1/gfi-backup
    2015-10-13.14:59:55 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-13-145948
    2015-10-13.20:04:39 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-13-200437
    2015-10-14.20:04:22 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-14-200421
    2015-10-15.20:04:07 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-15-200407
    2015-10-16.20:03:44 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-16-200344
    2015-10-17.20:03:22 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-17-200321
    2015-10-18.20:03:44 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-18-200327
    2015-10-19.20:03:24 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-19-200323
    2015-10-20.20:04:24 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-20-200421
    2015-10-21.14:28:34 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-21.14:28:34 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-21.14:45:23 zpool scrub datastore1
    2015-10-21.21:20:36 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-21-211848
    2015-10-21.21:20:49 zfs create -o casesensitivity=sensitive datastore1/oracle-backups
    2015-10-22.20:03:45 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-22-200339
    2015-10-23.13:27:54 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-23.13:27:54 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-24.18:43:14 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-24.18:43:14 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-24.19:03:55 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-24.19:03:55 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-24.19:13:43 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-24.19:13:43 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-24.21:26:41 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-24-212634
    2015-10-25.19:40:27 zfs set mountpoint=/tmp/zfs datastore1/dms-db
    2015-10-25.20:49:23 zpool import -N -f datastore1
    2015-10-26.23:49:24 zpool import -N -f datastore1
    2015-10-26.23:53:07 zfs set mountpoint=/tmp/zfs datastore1/scripts
    2015-10-26.23:53:14 zfs set mountpoint=/tmp/zfs datastore1/dms-db
    2015-10-26.23:53:21 zfs set mountpoint=/tmp/zfs datastore1/VM-backup
    2015-10-27.10:37:16 zpool import -N -f datastore1
    2015-10-27.10:52:12 zfs set mountpoint=/mnt/datastore1/scripts datastore1/scripts
    2015-10-27.10:55:50 zfs set mountpoint=/mnt/datastore1/partimag datastore1/partimag
    2015-10-27.10:56:18 zfs set mountpoint=/mnt/datastore1/rail-backup datastore1/rail-backup
    2015-10-27.10:56:31 zfs set mountpoint=/mnt/datastore1/oracle-backups datastore1/oracle-backups
    2015-10-27.10:56:44 zfs set mountpoint=/mnt/datastore1/gfi-backup datastore1/gfi-backup
    2015-10-27.10:57:03 zfs set mountpoint=/mnt/datastore1/rail-data-backup datastore1/rail-data-backup
    2015-10-27.10:57:19 zfs set mountpoint=/mnt/datastore1/sap-backup datastore1/sap-backup
    2015-10-27.10:57:37 zfs set mountpoint=/mnt/datastore1/helios-db datastore1/helios-db
    2015-10-27.10:59:05 zfs set mountpoint=/mnt/datastore1/VM-backup datastore1/VM-backup
    2015-10-27.10:59:15 zfs set mountpoint=/mnt/datastore1/dms-db datastore1/dms-db
    2015-10-27.14:09:45 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-10-27.14:09:45 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-27.18:18:37 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-10-27.20:12:31 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-27-200534
    2015-10-27.23:08:26 zfs set compression=lz4 datastore1
    2015-10-27.23:09:15 zfs inherit atime datastore1
    2015-10-27.23:10:31 zfs set dedup=off datastore1
    2015-10-27.23:14:15 zfs set reservation=0 datastore1
    2015-10-27.23:21:37 zfs set refreservation=0 datastore1
    2015-10-27.23:30:39 zfs set quota=none datastore1
    2015-10-27.23:42:48 zfs set refquota=none datastore1
    2015-10-28.00:19:05 zfs set aclmode=passthrough datastore1
    2015-10-28.20:56:48 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-28-200350
    2015-10-28.21:37:27 zfs set compression=lz4 datastore1
    2015-10-28.22:04:19 zfs inherit atime datastore1
    2015-10-28.22:20:21 zfs set mountpoint=/mnt/datastore1/VM-backup datastore1/VM-backup
    2015-10-28.22:27:31 zfs set dedup=off datastore1
    2015-10-28.23:18:02 zfs set reservation=0 datastore1
    2015-10-28.23:18:20 zfs set refreservation=0 datastore1
    2015-10-29.01:38:33 zfs set quota=none datastore1
    2015-10-29.01:40:15 zfs set refquota=none datastore1
    2015-10-29.01:42:04 zfs set aclmode=passthrough datastore1
    2015-10-29.20:04:40 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-29-200440
    2015-10-30.20:04:12 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-30-200411
    2015-10-31.20:04:06 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-31-200405
    2015-11-01.20:03:54 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-01-200353
    2015-11-02.14:53:58 zfs create -o casesensitivity=sensitive datastore1/horak
    2015-11-02.14:58:02 zfs destroy -r datastore1/horak
    2015-11-02.14:59:55 zfs create -o casesensitivity=sensitive datastore1/horak
    2015-11-02.15:01:36 zfs set mountpoint=/mnt/datastore1/horak datastore1/horak
    2015-11-02.20:03:53 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-02-200353
    2015-11-02.23:50:22 zfs create -o casesensitivity=sensitive datastore1/dms-backup
    2015-11-02.23:51:23 zfs set mountpoint=/mnt/datastore1/dms-backup datastore1/dms-backup
    2015-11-03.09:39:04 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-03.09:39:04 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-11-03.09:39:10 zfs inherit -r mountpoint datastore1
    2015-11-04.00:22:25 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-04-002224
    2015-11-04.20:04:16 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-04-200415
    2015-11-05.20:04:02 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-05-200401
    2015-11-06.20:03:46 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-06-200346
    2015-11-07.20:03:54 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-07-200353
    2015-11-08.20:03:29 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-08-200328
    2015-11-09.20:04:06 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-09-200405
    2015-11-10.20:03:43 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-10-200342
    2015-11-11.20:03:51 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-11-200351
    2015-11-12.20:04:43 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-12-200442
    2015-11-13.08:22:26 zpool import -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-13.08:22:26 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-11-13.22:48:28 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-13-224828
    2015-11-14.20:03:49 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-14-200348
    2015-11-15.20:03:34 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-15-200333
    2015-11-16.20:03:42 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-16-200342
    2015-11-17.20:03:35 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-17-200334
    2015-11-18.12:39:07 zpool import -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-18.12:39:07 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-11-18.13:10:22 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-18.13:10:22 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-11-19.00:16:52 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-19-001650
    2015-11-19.20:03:50 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-19-200349
    2015-11-20.20:04:16 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-20-200415
    2015-11-21.20:04:27 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-21-200426
    2015-11-22.20:04:03 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-22-200402
    2015-11-23.20:05:08 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-23-200507
    2015-11-24.20:04:29 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-24-200428
    2015-11-25.20:04:32 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-25-200431
    2015-11-26.20:04:20 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-26-200420
    2015-11-27.20:04:18 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-27-200418
    2015-11-28.20:06:00 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-28-200556
    2015-11-29.00:01:34 zpool scrub datastore1
    2015-11-29.20:03:56 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-29-200353
    2015-11-30.15:16:42 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008
    2015-11-30.15:16:42 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-12-05.22:38:06 zpool import -o cachefile=none -R /mnt -f 2626378954000273008
    2015-12-05.22:38:06 zpool set cachefile=/data/zfs/zpool.cache datastore1
    2015-12-05.22:41:47 zfs destroy -r datastore1/horak
    2015-12-06.20:07:48 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-06-200739
    2015-12-07.20:04:00 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-07-200359
    2015-12-08.20:04:04 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-08-200402
    2015-12-09.20:03:52 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-09-200351
    2015-12-10.20:04:00 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-10-200359
    2015-12-11.20:04:13 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-11-200411
    2015-12-12.20:03:51 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-12-200350
    2015-12-13.20:03:54 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-13-200351
    
    FreeNAS jsem zvolil jednak kvůli kolegům nelinuxákům, tak kvůli tomu, abych rychle pochopil filosofii ZFS (a díky zmíněným problémům už jsem ve fázi, kdy webgui nepotřebuji) + je to BSD, tudíž lepší implementace ZFS, jak v linuxu.
    ZFS jsem zvolil kvůli kompresi, snapshotům a chtěl jsem i vyzkoušet deduplikaci + do budoucna jsem plánoval mít dva storage a dělat replikaci zálohy na druhý storage, kdyby se první nějak vysypal.

    Otázka do placu, zda se někdo setkal s podobných chováním? Osobně si totiž myslím, že mám ram víc, než dost a zaplnění do 80% kapacity také dodržuji.
    Případně zda by někdo neměl nápad, jak pool vyléčit, než ho celý dropnout a vytvořit nový.
    Díky
    Zdar Max
    Měl jsem sen ... :(

    V tomto formuláři můžete formulovat svou stížnost ohledně příspěvku. Nejprve vyberte typ akce, kterou navrhujete provést s diskusí či příspěvkem. Potom do textového pole napište důvody, proč by měli admini provést vaši žádost, problém nemusí být patrný na první pohled. Odkaz na příspěvek bude přidán automaticky.

    Vaše jméno
    Váš email
    Typ požadavku
    Slovní popis
    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.