19. ledna 2038 přeteče hodnota time_t na 32bitových systémech, na vyřešení problému roku 2038 (Y2K38) tedy zbývá 13 let. Např. Debian v uplynulém roce přešel na 64bitový čas. Bernhard Wiedemann z openSUSE sdílí chyby v sestavení rozšířeného softwaru.
Byla vydána druhá opravná verze 21.2 v dubnu loňského roku vydané verze 21 multimediálního centra Kodi (dříve XBMC, Wikipedie) s kódovým označením Omega.
TikTok ve Spojených státech v sobotu večer místního času přerušil činnost. Uživatelé čínskou firmou vlastněné sociální sítě dostali zprávu, že aplikaci kvůli zákazu nelze používat. TikTok je momentálně nedostupný v obchodech s aplikacemi Google Play a App Store. Podle zákona přijatého loni a potvrzeného v pátek soudem měla platforma do dneška přerušit spojení se svou mateřskou společností ByteDance, která sídlí v Číně, nebo činnost v
… více »Wings 3D, tj. open source 3D modelovací program naprogramovaný v programovacím jazyce Erlang zaměřený na modelování pomocí subdivision a inspirovaný programy Nendo a Mirai od Izware, byl vydán v nové opravné verzi 2.4.1. Ke stažení již také ve formátu Flatpak z Flathubu.
Webový prohlížeč Dillo byl vydán ve verzi 3.2.0. Přidává podporu vzorců v SVG, obrázků ve WebP, změny velikosti stránky či možností posouvání. Nedávno oslavil 25. výročí vzniku.
Hra Mini Thief je na Steamu zdarma napořád, když aktivaci provedete do 24. ledna do 19.00 [ProtonDB].
Certifikační autorita Let's Encrypt oznámila, že bude volitelně nabízet krátkodobé certifikáty s šestidenní platností a navíc s možností vystavit je na IP adresu. Zvolit typ certifikátu bude možné v certifikačním profilu ACME.
Herní konzole Nintendo Switch 2 byla oficiálně potvrzena. Vyjde letos. Trailer na YouTube. Více ve středu 2. dubna na Nintendo Direct.
Byl vydán Linux Mint 22.1 s kódovým jménem Xia. Podrobnosti v přehledu novinek a poznámkách k vydání. Linux Mint 22.1 bude podporován do roku 2029.
Google Chrome 132 byl prohlášen za stabilní. Nejnovější stabilní verze 132.0.6834.83 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 16 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře (YouTube).
[root@bs1-ph] ~# zpool list datastore1 NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT datastore1 21.8T 17.6T 4.17T - 65% 80% 1.03x ONLINE /mntA problém je takový, že když o víkendu pustím dump 2,7TiB databáze přes NFS rovnou na storage, tak celý server padne. Pád nastane i v případě, že chci smazat starým 2,7TiB dump db. Chvíli server běží, ale poté se asi procesy na pozadí rozhodnou soubor skutečně smazat a jde to dolu. Občas se i stane to, že jiné mašiny, co zálohuji přes NFS zahlásí problémy s nedostupností NFS (storage se tak zpomalí, že neodpovídá).
[root@bs1-ph] ~# zpool history datastore1 History for 'datastore1': 2015-09-14.17:18:22 zpool create -o cachefile=/data/zfs/zpool.cache -o failmode=continue -o autoexpand=on -O compression=lz4 -O aclmode=passthrough -O aclinherit=passthrough -f -m /datastore1 -o altroot=/mnt datastore1 mirror /dev/gptid/d33bdf38-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d37672d0-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d3b099a3-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d3ebf665-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d426e367-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d4624a7b-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d49effcc-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d4d9eb20-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d5181f27-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d554313e-5af3-11e5-8367-0cc47a34a53a mirror /dev/gptid/d591a58d-5af3-11e5-8367-0cc47a34a53a /dev/gptid/d5ccb0a0-5af3-11e5-8367-0cc47a34a53a spare /dev/gptid/d60b9953-5af3-11e5-8367-0cc47a34a53a 2015-09-14.17:18:27 zfs inherit mountpoint datastore1 2015-09-14.17:18:27 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-09-15.16:13:10 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-09-15.16:13:10 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-09-15.16:35:47 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-09-15.16:35:47 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-09-16.11:35:59 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-09-16.11:35:59 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-09-16.11:58:09 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-09-16.11:58:09 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-09-16.12:10:02 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-09-16.12:10:02 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-09-16.12:43:38 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-09-16.12:43:38 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-09-17.15:21:19 zfs create -o casesensitivity=sensitive datastore1/partimaged_storage 2015-09-17.15:21:46 zfs create -o casesensitivity=sensitive datastore1/partimaged_storage/VM-backup 2015-09-17.15:22:01 zfs destroy -r datastore1/partimaged_storage/VM-backup 2015-09-17.15:22:23 zfs create -o casesensitivity=sensitive datastore1/VM-backup 2015-09-23.16:20:02 zfs rename datastore1/partimaged_storage datastore1/parted 2015-09-23.16:37:00 zfs rename datastore1/parted datastore1/partimag 2015-09-24.21:03:14 zfs create -o casesensitivity=sensitive -o aclmode=restricted datastore1/Helios-dump 2015-09-24.21:05:39 zfs inherit compression datastore1/Helios-dump 2015-09-24.21:05:39 zfs inherit atime datastore1/Helios-dump 2015-09-24.21:05:39 zfs inherit dedup datastore1/Helios-dump 2015-09-24.21:05:39 zfs set reservation=0 datastore1/Helios-dump 2015-09-24.21:05:39 zfs set refreservation=0 datastore1/Helios-dump 2015-09-24.21:05:39 zfs set quota=none datastore1/Helios-dump 2015-09-24.21:05:39 zfs set refquota=none datastore1/Helios-dump 2015-09-24.21:05:39 zfs set aclmode=restricted datastore1/Helios-dump 2015-09-24.21:15:53 zfs create -o casesensitivity=sensitive datastore1/helios-db 2015-09-24.23:08:07 zfs create -o casesensitivity=sensitive datastore1/rail-data-backup 2015-10-03.12:03:45 zfs destroy -r datastore1/Helios-dump 2015-10-03.12:04:58 zfs create -o casesensitivity=sensitive datastore1/dms-db 2015-10-03.12:16:22 zfs inherit compression datastore1/dms-db 2015-10-03.12:16:23 zfs inherit atime datastore1/dms-db 2015-10-03.12:16:23 zfs set dedup=verify datastore1/dms-db 2015-10-03.12:16:23 zfs set reservation=0 datastore1/dms-db 2015-10-03.12:16:23 zfs set refreservation=0 datastore1/dms-db 2015-10-03.12:16:23 zfs set quota=none datastore1/dms-db 2015-10-03.12:16:23 zfs set refquota=none datastore1/dms-db 2015-10-03.12:16:28 zfs set aclmode=passthrough datastore1/dms-db 2015-10-04.00:31:52 zfs create -o casesensitivity=sensitive datastore1/gfi-backup 2015-10-04.11:35:39 zfs inherit compression datastore1/gfi-backup 2015-10-04.11:35:39 zfs inherit atime datastore1/gfi-backup 2015-10-04.11:35:39 zfs set dedup=verify datastore1/gfi-backup 2015-10-04.11:35:39 zfs set reservation=0 datastore1/gfi-backup 2015-10-04.11:35:39 zfs set refreservation=0 datastore1/gfi-backup 2015-10-04.11:35:39 zfs set quota=none datastore1/gfi-backup 2015-10-04.11:35:39 zfs set refquota=none datastore1/gfi-backup 2015-10-04.11:35:44 zfs set aclmode=restricted datastore1/gfi-backup 2015-10-04.11:35:58 zfs inherit compression datastore1/helios-db 2015-10-04.11:35:58 zfs inherit atime datastore1/helios-db 2015-10-04.11:35:58 zfs set dedup=verify datastore1/helios-db 2015-10-04.11:35:58 zfs set reservation=0 datastore1/helios-db 2015-10-04.11:35:58 zfs set refreservation=0 datastore1/helios-db 2015-10-04.11:35:58 zfs set quota=none datastore1/helios-db 2015-10-04.11:35:58 zfs set refquota=none datastore1/helios-db 2015-10-04.11:36:03 zfs set aclmode=passthrough datastore1/helios-db 2015-10-06.23:26:46 zfs create -o casesensitivity=sensitive -o dedup=verify datastore1/rail-backup 2015-10-06.23:27:48 zfs inherit compression datastore1/partimag 2015-10-06.23:27:49 zfs inherit atime datastore1/partimag 2015-10-06.23:27:49 zfs set dedup=verify datastore1/partimag 2015-10-06.23:27:49 zfs set reservation=0 datastore1/partimag 2015-10-06.23:27:49 zfs set refreservation=0 datastore1/partimag 2015-10-06.23:27:49 zfs set quota=none datastore1/partimag 2015-10-06.23:27:49 zfs set refquota=none datastore1/partimag 2015-10-06.23:27:50 zfs set aclmode=passthrough datastore1/partimag 2015-10-07.00:01:57 zfs create -o casesensitivity=sensitive datastore1/scripts 2015-10-09.12:14:35 zfs create -o casesensitivity=sensitive datastore1/sap-backup 2015-10-09.15:22:13 zfs snapshot datastore1/rail-backup@manual-20151009 2015-10-09.15:35:00 zfs snapshot datastore1/rail-backup@manual-2015-10-09 2015-10-09.21:42:21 zfs snapshot datastore1/rail-backup@manual- 2015-10-10.01:06:40 zfs destroy datastore1/rail-backup@bkp-2015-10-10-010420 2015-10-10.01:06:59 zfs destroy datastore1/rail-backup@manual- 2015-10-10.01:15:23 zfs snapshot datastore1/rail-backup@bkp-2015-10-10-011412 2015-10-10.20:03:08 zfs snapshot datastore1/rail-backup@bkp-2015-10-10-200308 2015-10-11.20:03:21 zfs snapshot datastore1/rail-backup@bkp-2015-10-11-200320 2015-10-12.20:03:38 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-12-200336 2015-10-12.20:27:52 zfs set compression=lz4 datastore1 2015-10-12.20:27:52 zfs inherit atime datastore1 2015-10-12.20:27:53 zfs set dedup=verify datastore1 2015-10-12.20:27:54 zfs set reservation=0 datastore1 2015-10-12.20:27:55 zfs set refreservation=0 datastore1 2015-10-12.20:27:55 zfs set quota=none datastore1 2015-10-12.20:27:56 zfs set refquota=none datastore1 2015-10-12.20:27:58 zfs set aclmode=passthrough datastore1 2015-10-12.20:28:14 zfs inherit compression datastore1/VM-backup 2015-10-12.20:28:15 zfs inherit atime datastore1/VM-backup 2015-10-12.20:28:16 zfs set dedup=off datastore1/VM-backup 2015-10-12.20:28:17 zfs set reservation=0 datastore1/VM-backup 2015-10-12.20:28:17 zfs set refreservation=0 datastore1/VM-backup 2015-10-12.20:28:18 zfs set quota=none datastore1/VM-backup 2015-10-12.20:28:18 zfs set refquota=none datastore1/VM-backup 2015-10-12.20:28:19 zfs set aclmode=passthrough datastore1/VM-backup 2015-10-12.20:28:32 zfs inherit compression datastore1/helios-db 2015-10-12.20:28:32 zfs inherit atime datastore1/helios-db 2015-10-12.20:28:32 zfs inherit dedup datastore1/helios-db 2015-10-12.20:28:33 zfs set reservation=0 datastore1/helios-db 2015-10-12.20:28:33 zfs set refreservation=0 datastore1/helios-db 2015-10-12.20:28:33 zfs set quota=none datastore1/helios-db 2015-10-12.20:28:33 zfs set refquota=none datastore1/helios-db 2015-10-12.20:28:34 zfs set aclmode=passthrough datastore1/helios-db 2015-10-12.20:28:43 zfs inherit compression datastore1/partimag 2015-10-12.20:28:43 zfs inherit atime datastore1/partimag 2015-10-12.20:28:43 zfs inherit dedup datastore1/partimag 2015-10-12.20:28:44 zfs set reservation=0 datastore1/partimag 2015-10-12.20:28:44 zfs set refreservation=0 datastore1/partimag 2015-10-12.20:28:44 zfs set quota=none datastore1/partimag 2015-10-12.20:28:44 zfs set refquota=none datastore1/partimag 2015-10-12.20:28:45 zfs set aclmode=passthrough datastore1/partimag 2015-10-12.20:28:53 zfs inherit compression datastore1/rail-backup 2015-10-12.20:28:53 zfs inherit atime datastore1/rail-backup 2015-10-12.20:28:53 zfs inherit dedup datastore1/rail-backup 2015-10-12.20:28:54 zfs set reservation=0 datastore1/rail-backup 2015-10-12.20:28:54 zfs set refreservation=0 datastore1/rail-backup 2015-10-12.20:28:54 zfs set quota=none datastore1/rail-backup 2015-10-12.20:28:54 zfs set refquota=none datastore1/rail-backup 2015-10-12.20:28:55 zfs set aclmode=passthrough datastore1/rail-backup 2015-10-12.20:29:05 zfs inherit compression datastore1/dms-db 2015-10-12.20:29:05 zfs inherit atime datastore1/dms-db 2015-10-12.20:29:05 zfs inherit dedup datastore1/dms-db 2015-10-12.20:29:05 zfs set reservation=0 datastore1/dms-db 2015-10-12.20:29:05 zfs set refreservation=0 datastore1/dms-db 2015-10-12.20:29:06 zfs set quota=none datastore1/dms-db 2015-10-12.20:29:06 zfs set refquota=none datastore1/dms-db 2015-10-12.20:29:07 zfs set aclmode=passthrough datastore1/dms-db 2015-10-12.20:29:20 zfs inherit compression datastore1/gfi-backup 2015-10-12.20:29:22 zfs inherit atime datastore1/gfi-backup 2015-10-12.20:29:24 zfs inherit dedup datastore1/gfi-backup 2015-10-12.20:29:25 zfs set reservation=0 datastore1/gfi-backup 2015-10-12.20:29:26 zfs set refreservation=0 datastore1/gfi-backup 2015-10-12.20:29:27 zfs set quota=none datastore1/gfi-backup 2015-10-12.20:29:28 zfs set refquota=none datastore1/gfi-backup 2015-10-12.20:29:30 zfs set aclmode=restricted datastore1/gfi-backup 2015-10-13.14:59:55 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-13-145948 2015-10-13.20:04:39 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-13-200437 2015-10-14.20:04:22 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-14-200421 2015-10-15.20:04:07 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-15-200407 2015-10-16.20:03:44 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-16-200344 2015-10-17.20:03:22 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-17-200321 2015-10-18.20:03:44 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-18-200327 2015-10-19.20:03:24 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-19-200323 2015-10-20.20:04:24 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-20-200421 2015-10-21.14:28:34 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-10-21.14:28:34 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-10-21.14:45:23 zpool scrub datastore1 2015-10-21.21:20:36 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-21-211848 2015-10-21.21:20:49 zfs create -o casesensitivity=sensitive datastore1/oracle-backups 2015-10-22.20:03:45 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-22-200339 2015-10-23.13:27:54 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-10-23.13:27:54 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-10-24.18:43:14 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-10-24.18:43:14 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-10-24.19:03:55 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-10-24.19:03:55 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-10-24.19:13:43 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-10-24.19:13:43 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-10-24.21:26:41 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-24-212634 2015-10-25.19:40:27 zfs set mountpoint=/tmp/zfs datastore1/dms-db 2015-10-25.20:49:23 zpool import -N -f datastore1 2015-10-26.23:49:24 zpool import -N -f datastore1 2015-10-26.23:53:07 zfs set mountpoint=/tmp/zfs datastore1/scripts 2015-10-26.23:53:14 zfs set mountpoint=/tmp/zfs datastore1/dms-db 2015-10-26.23:53:21 zfs set mountpoint=/tmp/zfs datastore1/VM-backup 2015-10-27.10:37:16 zpool import -N -f datastore1 2015-10-27.10:52:12 zfs set mountpoint=/mnt/datastore1/scripts datastore1/scripts 2015-10-27.10:55:50 zfs set mountpoint=/mnt/datastore1/partimag datastore1/partimag 2015-10-27.10:56:18 zfs set mountpoint=/mnt/datastore1/rail-backup datastore1/rail-backup 2015-10-27.10:56:31 zfs set mountpoint=/mnt/datastore1/oracle-backups datastore1/oracle-backups 2015-10-27.10:56:44 zfs set mountpoint=/mnt/datastore1/gfi-backup datastore1/gfi-backup 2015-10-27.10:57:03 zfs set mountpoint=/mnt/datastore1/rail-data-backup datastore1/rail-data-backup 2015-10-27.10:57:19 zfs set mountpoint=/mnt/datastore1/sap-backup datastore1/sap-backup 2015-10-27.10:57:37 zfs set mountpoint=/mnt/datastore1/helios-db datastore1/helios-db 2015-10-27.10:59:05 zfs set mountpoint=/mnt/datastore1/VM-backup datastore1/VM-backup 2015-10-27.10:59:15 zfs set mountpoint=/mnt/datastore1/dms-db datastore1/dms-db 2015-10-27.14:09:45 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-10-27.14:09:45 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-10-27.18:18:37 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-10-27.20:12:31 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-27-200534 2015-10-27.23:08:26 zfs set compression=lz4 datastore1 2015-10-27.23:09:15 zfs inherit atime datastore1 2015-10-27.23:10:31 zfs set dedup=off datastore1 2015-10-27.23:14:15 zfs set reservation=0 datastore1 2015-10-27.23:21:37 zfs set refreservation=0 datastore1 2015-10-27.23:30:39 zfs set quota=none datastore1 2015-10-27.23:42:48 zfs set refquota=none datastore1 2015-10-28.00:19:05 zfs set aclmode=passthrough datastore1 2015-10-28.20:56:48 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-28-200350 2015-10-28.21:37:27 zfs set compression=lz4 datastore1 2015-10-28.22:04:19 zfs inherit atime datastore1 2015-10-28.22:20:21 zfs set mountpoint=/mnt/datastore1/VM-backup datastore1/VM-backup 2015-10-28.22:27:31 zfs set dedup=off datastore1 2015-10-28.23:18:02 zfs set reservation=0 datastore1 2015-10-28.23:18:20 zfs set refreservation=0 datastore1 2015-10-29.01:38:33 zfs set quota=none datastore1 2015-10-29.01:40:15 zfs set refquota=none datastore1 2015-10-29.01:42:04 zfs set aclmode=passthrough datastore1 2015-10-29.20:04:40 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-29-200440 2015-10-30.20:04:12 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-30-200411 2015-10-31.20:04:06 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-10-31-200405 2015-11-01.20:03:54 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-01-200353 2015-11-02.14:53:58 zfs create -o casesensitivity=sensitive datastore1/horak 2015-11-02.14:58:02 zfs destroy -r datastore1/horak 2015-11-02.14:59:55 zfs create -o casesensitivity=sensitive datastore1/horak 2015-11-02.15:01:36 zfs set mountpoint=/mnt/datastore1/horak datastore1/horak 2015-11-02.20:03:53 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-02-200353 2015-11-02.23:50:22 zfs create -o casesensitivity=sensitive datastore1/dms-backup 2015-11-02.23:51:23 zfs set mountpoint=/mnt/datastore1/dms-backup datastore1/dms-backup 2015-11-03.09:39:04 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-11-03.09:39:04 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-11-03.09:39:10 zfs inherit -r mountpoint datastore1 2015-11-04.00:22:25 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-04-002224 2015-11-04.20:04:16 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-04-200415 2015-11-05.20:04:02 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-05-200401 2015-11-06.20:03:46 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-06-200346 2015-11-07.20:03:54 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-07-200353 2015-11-08.20:03:29 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-08-200328 2015-11-09.20:04:06 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-09-200405 2015-11-10.20:03:43 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-10-200342 2015-11-11.20:03:51 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-11-200351 2015-11-12.20:04:43 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-12-200442 2015-11-13.08:22:26 zpool import -o cachefile=none -R /mnt -f 2626378954000273008 2015-11-13.08:22:26 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-11-13.22:48:28 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-13-224828 2015-11-14.20:03:49 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-14-200348 2015-11-15.20:03:34 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-15-200333 2015-11-16.20:03:42 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-16-200342 2015-11-17.20:03:35 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-17-200334 2015-11-18.12:39:07 zpool import -o cachefile=none -R /mnt -f 2626378954000273008 2015-11-18.12:39:07 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-11-18.13:10:22 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-11-18.13:10:22 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-11-19.00:16:52 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-19-001650 2015-11-19.20:03:50 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-19-200349 2015-11-20.20:04:16 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-20-200415 2015-11-21.20:04:27 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-21-200426 2015-11-22.20:04:03 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-22-200402 2015-11-23.20:05:08 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-23-200507 2015-11-24.20:04:29 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-24-200428 2015-11-25.20:04:32 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-25-200431 2015-11-26.20:04:20 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-26-200420 2015-11-27.20:04:18 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-27-200418 2015-11-28.20:06:00 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-28-200556 2015-11-29.00:01:34 zpool scrub datastore1 2015-11-29.20:03:56 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-11-29-200353 2015-11-30.15:16:42 zpool import -c /data/zfs/zpool.cache.saved -o cachefile=none -R /mnt -f 2626378954000273008 2015-11-30.15:16:42 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-12-05.22:38:06 zpool import -o cachefile=none -R /mnt -f 2626378954000273008 2015-12-05.22:38:06 zpool set cachefile=/data/zfs/zpool.cache datastore1 2015-12-05.22:41:47 zfs destroy -r datastore1/horak 2015-12-06.20:07:48 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-06-200739 2015-12-07.20:04:00 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-07-200359 2015-12-08.20:04:04 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-08-200402 2015-12-09.20:03:52 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-09-200351 2015-12-10.20:04:00 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-10-200359 2015-12-11.20:04:13 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-11-200411 2015-12-12.20:03:51 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-12-200350 2015-12-13.20:03:54 zfs snapshot datastore1/rail-backup@bkp-rail-backup-2015-12-13-200351FreeNAS jsem zvolil jednak kvůli kolegům nelinuxákům, tak kvůli tomu, abych rychle pochopil filosofii ZFS (a díky zmíněným problémům už jsem ve fázi, kdy webgui nepotřebuji) + je to BSD, tudíž lepší implementace ZFS, jak v linuxu.
[root@bs1-ph] ~# zfs get dedup NAME PROPERTY VALUE SOURCE System dedup off local System/.system dedup off inherited from System System/.system/configs-5ece5c906a8f4df886779fae5cade8a5 dedup off inherited from System System/.system/cores dedup off inherited from System System/.system/rrd-5ece5c906a8f4df886779fae5cade8a5 dedup off inherited from System System/.system/samba4 dedup off inherited from System System/.system/syslog-5ece5c906a8f4df886779fae5cade8a5 dedup off inherited from System System/jails dedup off inherited from System System/jails/.warden-template-pluginjail dedup off inherited from System System/jails/.warden-template-pluginjail@clean dedup - - System/jails/.warden-template-standard dedup off inherited from System System/jails/.warden-template-standard@clean dedup - - System/jails/bacula-sd_1 dedup off inherited from System Vol2T dedup off local datastore-e1 dedup off default datastore-e1/gfi-backup dedup off default datastore-e1/oracle-backup dedup off default datastore1 dedup off local datastore1/VM-backup dedup off local datastore1/dms-backup dedup off inherited from datastore1 datastore1/gfi-backup dedup off inherited from datastore1 datastore1/helios-db dedup off inherited from datastore1 datastore1/oracle-backups dedup off inherited from datastore1 datastore1/partimag dedup off inherited from datastore1 datastore1/rail-backup dedup off inherited from datastore1 datastore1/rail-backup@manual-20151009 dedup - - datastore1/rail-backup@manual-2015-10-09 dedup - - datastore1/rail-backup@bkp-2015-10-10-011412 dedup - - datastore1/rail-backup@bkp-2015-10-10-200308 dedup - - datastore1/rail-backup@bkp-2015-10-11-200320 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-12-200336 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-13-145948 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-13-200437 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-14-200421 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-15-200407 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-16-200344 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-17-200321 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-18-200327 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-19-200323 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-20-200421 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-21-211848 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-22-200339 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-24-212634 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-27-200534 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-28-200350 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-29-200440 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-30-200411 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-10-31-200405 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-01-200353 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-02-200353 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-04-002224 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-04-200415 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-05-200401 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-06-200346 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-07-200353 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-08-200328 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-09-200405 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-10-200342 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-11-200351 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-12-200442 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-13-224828 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-14-200348 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-15-200333 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-16-200342 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-17-200334 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-19-001650 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-19-200349 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-20-200415 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-21-200426 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-22-200402 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-23-200507 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-24-200428 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-25-200431 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-26-200420 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-27-200418 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-28-200556 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-11-29-200353 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-12-06-200739 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-12-07-200359 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-12-08-200402 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-12-09-200351 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-12-10-200359 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-12-11-200411 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-12-12-200350 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-12-13-200351 dedup - - datastore1/rail-backup@bkp-rail-backup-2015-12-14-200346 dedup - - datastore1/rail-data-backup dedup off inherited from datastore1 datastore1/sap-backup dedup off inherited from datastore1 datastore1/scripts dedup off inherited from datastore1 freenas-boot dedup off default freenas-boot/ROOT dedup off default freenas-boot/ROOT/FreeNAS-9.3-STABLE-201511040813 dedup off default freenas-boot/ROOT/FreeNAS-9.3-STABLE-201511040813@2015-09-11-03:29:16 dedup - - freenas-boot/ROOT/FreeNAS-9.3-STABLE-201511040813@2015-11-18-13:03:58 dedup - - freenas-boot/ROOT/Initial-Install dedup off default freenas-boot/ROOT/default dedup off default freenas-boot/grub dedup off default freenas-boot/grub@Pre-Upgrade-FreeNAS-9.3-STABLE-201511040813 dedup - -Zdar Max
Zjistil jsem, že se Areca řadič odpojil a FreeNAS ho nevidí.
Tento rok jsme si s Arecou také užili své. 3 kousky po 35tis. Kč jsme odpálili úplně (máme potvrzené od dodavatele, že některé kousky odejdou do 14 dnů od připojení baterie) a u dalších jsme schopni to na počkání shodit, stačí jen vyčítat senzory (teploty apod.). Slibují nám nový firmware (už asi 10 měsíců).
Další řadič se chová dost divně, pokud se "vhodně" zatíží jeden svazek (jedny fyzické disky), tak další svazky mají prudce zvýšenou latenci, přestože se na nich nic moc neděje. Buď tam mají slabej procesor a nestíhá to, nebo se tam hádá cache nebo něco. Takže děláme co jedna areca, to jeden svazek.
Správně bych neměl používat cache na řadiči a tím pádem ani baterii, protože ZFS si vše cachuje samo do ram.
Neznám tak to detailu ZFS, ale přepokládám, že věci, které mají být na disku (příkaz (f)(data)sync), tak si nemůže uložit do ram, ale nutně to musí strčit na disk - resp. klidně do logu na ssd, ale zkrátka na persistentní úložiště. V tomto by se to mělo chovat stejně jako jiné FS. Cache na řadiči je dobrá jen pro urychlení zápisů, nikoliv čtení (od toho je iocache v os).
Ale tak nějak jsem neodolal a používám cache na řadiči + u disků dělám PassThrough.
Ano, pokud se používat cache na řadiči, tak cache na disku musí být vypnutá.
On říkal, že spokojenost, jen se občas odmlčí síťová část.
Tomu bych spokojenost neříkal. U nás se odmlčí řadič úplně. Nejen síťová část.
Mno, teď mi to šlape, zpool jsem odstranil a znovu vytvořil, takže jedu na čisto bez dedup a uvidíme, zda to bude stabilní. Pokud ano, tak za pár týdnů půjdu a zkusím vytrhnout kabel ze serveru, co to udělá :).
Ok
Ono ale nejde len o rychlost, ale o spolahlivost.
Přesně tak, testy výkonnosti jsou moc hezký, ale zcela naprd, když k vůli pár procentům výkonu navíc přijdete o všechna data.
A prave vtedy, ked ZFS dostalo odpoved, ze I/O je done a ono je este stale v cache tak to je taka mala ruska ruleta nad datami.
Nevím, jak to má Max zapojené. Píše, že disky má PassThrough + write cache na řadiči. Nevím jak se to chová, takto jsem to nikdy netestoval. Píše, že vypadl jeden disk a objevil se až po power cycle. Takže se klidně mohlo stát, že ZFS poslal požadavek na zápis dat, řadič odpověděl, že je vše zapsáno (no měl to dejme tomu ve BBWC), potom nebyl vidět disk, takže řadič tato data zahodil a nezapsal. Ale ZFS předpokládal, že data jsou na disku (dostal o tom potvrzení od řadiče) - min mohl zapsat další data na další disky s tímto předpokladem - a těžká nekonzistence je na světě.
Jestli se to stalo takto nevím, ale s tímto by se nevyrovnal žádný FS. V takovém případě je otázkou, zda nevypnout rovnou i cache řadiče a nechat to jen na inteligenci ZFS.
Celkem to ještě šlapalo, nepoznával jsem rozdíl. Pak ovšem přišel výpadek proudu a selhání UPS. To mělo za následek, že vypadl asi jeden disk z řadičeNevím, nakolik je hypotetická, nakolik reálná. Vypadl disk, řadič, pokud něco měl v BWCC neměl kam zapsat data. To, že je to v R10 na věci nic nemění, na 5 discích jsou data "jako by jich bylo 6" a na jednom disku něco není, protože vypadl. Teoreticky by si měl zapsat i generaci posledního zápisu a poznat, že jeden z disků není úplně aktuální a nepřipojit ho do fs. Opět, neznám ZFS, na BTRFS bych pustil scrub a kochal bych se výpisem do dmesgu. Resp kdybych věděl, který disk to je, tak ho nenechám připojit a přidal bych jej do btrfs jako čistý disk, ať si to znovu zesyncuje.
..přepokládám, že věci, které mají být na disku (příkaz (f)(data)sync), tak si nemůže uložit do ram, ale nutně to musí strčit na disk - resp. klidně do logu na ssd, ale zkrátka na persistentní úložiště.Plně s tebou souhlasím. Bohužel u některých FS to bez patřičného HW vybavení znamená degradaci IO výkonu. A proto jsem nyní sáhnul po řešení, které jsem testoval již před lety. Není tak profláknuté jako jiné, takže ho nejspíš ani v ČR nikdo mimo mne nepoužívá.
Ahoj, přesně toto se mi stalo před vánoci a přes vánoce ten server úplně zkolaboval, nemám hw raid, ale RaidZ2, 6x 4T disky, server se po zapnutí deduplikace a záloh celých mašin přes iSCSI vypínal 1-2x týdně podle náročnosti záloh (těsně před vánoci jsem server rozšířil o L2ARC + 32GB RAM + zapl tu dedup)... psalo mi to hlášku po pádu: one or more devices has experienced an unrecoverable error. (nebo něco podobného) při bootu importoval pool s chybama a napsal i který zvol je vadný, všiml jsem si toho až po vánocích, když jsem došel do práce.. vadný zvol jsem vymazal a musel se projet scrub... (pořád zpool vypisoval chybu, tentokrát s hex odkazem na neexistující zvol). scrub jel strašně pomalu snad 1b/s, to nevadilo, nechal jsem to cca 2h zaple a pak scrub stopl, zpool se začal hlásit, že je oka..., ručně jsem aktualizoval freenas... myslel jsem si, že to bylo novým hw, ale evidentně je problém ve freenasu, protože v té době mi přestaly fungovat i řádné aktualizace přes webové rozhaní, psalo to něco o vadné cestě na update, fungoval jen freenas-update update, ale ten se neprovedl, protože mi hlásil zpool, že není oka. Opravoval jsem to až včera, protože jsem si myslel, že to bylo novým hw..., ale nebylo, RAM i nový SSD DISK, prošel všemi testy ....
status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. ada0 ONLINE 0 0 0 ada2 ONLINE 0 0 0 ada3 ONLINE 0 0 0 ada4 ONLINE 0 0 0 ada5 ONLINE 0 0 0 ada6 ONLINE 0 0 0 ada7 ONLINE 0 0 0 errors: Permanent errors have been detected in the following files: storage/data:<0x0>
Jan 13 10:23:59 san-ds1-ov manage.py: [freenasOS.Update:1362] Could not open sequence file in cache directory /var/db/system/update: [Errno 2] No such file or directory: '/var/db/system/update/SEQUENCE' Jan 13 10:23:59 san-ds1-ov manage.py: [freenasOS.Update:978] Cache directory /var/db/system/update does not have a sequence filepřes shell update funguje.
Tiskni Sdílej: