Portál AbcLinuxu, 24. října 2025 20:26
Ahoj. Potrebuju postavit fileserver/NAS s kapacitou 100TB (vychazi to na 8x18TB v RAID6/RAIDZ2), rychlost alespon 10Gbit a spolehlivy backup casti dat do cloudu (S3 nebo neco takoveho, ZFS send/receive na pronajatem serveru nekde v OVH treba). Potrebuju snapshoty. sifrovani, wireguard/tailscale. Pokud by to umelo kontejnery nebo jeste lepe vistualizaci abych tam mohl provozovat pi hole atd. tak by to byl bonus.
Zvazuju tyto moznosti:
1) synology s 8 supliky (-draha 10Gbit karta -flexibilita +spotreba +snadne nastaveni ?zvladne ten low power procik v S1821+ zasaturovat 10Gbit s kryptovaneho poolu?)
2) postavit PC (-malo desek s 8 SATA porty = pridavny radic, -spotreba, +mozno pouzit levny 10Gbit z ebay)
a) TrueNAS (-flexibilita +snadne nastaveni)
b) proxmox a uvnitr TrueNas (+flexibilita ?vykon sitoveho subsystemu ?vykon pri passthrough disku ?passthrough radice integrovaneho na desce AFAIK obvykle nefunguje)
c) nejake linuxi distro (+flexibilita -rucni drbacka s konfiguraci -rucni drbacka s konfiguraci -rucni drbacka s konfiguraci)
Mate nejake rady, zkusenosti abych se vyhnul slepym ulickam?
find . -maxdepth 15 | grep -P '\/[^\/]{143,}[^\/]' mi vratil pet tisic vysledku. Nastesti jsou soubory takoveho charakteru, ze zkraceni nebude vadit a ChatGPT vypotil tohle:
#!/bin/bash
# Funkce pro rekurzivní procházení adresářů
process_directory() {
local dir="$1"
# Projdeme všechny soubory a adresáře v daném adresáři
for file in "$dir"/*; do
if [ -f "$file" ]; then
# Zkontrolujeme délku názvu souboru
if [ ${#file} -gt 140 ]; then
# Extrahujeme příponu souboru
extension="${file##*.}"
# Zkrátíme název souboru na 100 znaků a zachováme příponu
new_name="${file:0:100}.$extension"
# Pokud soubor s novým jménem již existuje, připojíme k názvu číslo
counter=1
while [ -e "$new_name" ]; do
new_name="${file:0:100}_$counter.$extension"
counter=$((counter + 1))
done
# Přejmenujeme soubor
mv "$file" "$new_name"
echo "Soubor $file byl přejmenován na $new_name"
fi
elif [ -d "$file" ]; then
# Rekurzivně zpracujeme podadresář
process_directory "$file"
fi
done
}
# Spustíme zpracování aktuálního adresáře
process_directory "."
Ale stejne... opruz i do budoucna si budou muset lidi hlidat, aby neukladali docy s polovinou textu v nazvu
Ta deska vypada dobre akorat ma jen jeden PCIe slot takze budto nebudu mit kam dat radic nebo sitovku
Me tady funguje 5bay synology uz 12 let v kuse a dalsi 9 let. Budto se vyrazne zhorsili, coz je mozne, nebo smula/stesti.
rozebírám a měním kondenzátory, měniče, baterii a chlazeníOno tam ještě kromě té bedny s nápisem APC je něco dalšího?
Protoze SLOG nefunguje tak, jak si myslis. Neni to (bohuzel?) zadny velky mech, do ktereho by sly zapisy, ktere by se pak propisovaly na disky v poolu nekdy az je k tomu prilezitost. Pojme jen velmi malo dat (ne vic nez 16GB, obvykle jeste mnohem mene, a proto se pouzivaji vetsinou male ale odolne SLC SSD nebo jeste lepe optane). A take se nepouziva pro asynchronni zapisy. Proto sena fileserveru malokdy uplatni. Pouziva se pokud nad tim jsou nejake databaze nebo disky virtualnich serveru ktere generuji mnoho synchronnich zapisu. Pripominam, ze ZFS je COW a tak zapisy v podstate nejsou nikdy "random access".
Pro L2ARC se zase obvykle nepouzivaji 2 disky pac neni duvod pro redundanci.
Rozsiril jsem tomu akorat ram na 64GB a mozna tam pridam NVME read-write cache.
Uz to fici:
md2 : active raid6 sata8p5[7] sata7p5[6] sata6p5[5] sata5p5[4] sata4p5[3] sata3p5[2] sata2p5[1] sata1p5[0]
105405591168 blocks super 1.2 level 6, 64k chunk, algorithm 2 [8/8] [UUUUUUUU]
[>....................] resync = 4.9% (865164112/17567598528) finish=2165.3min speed=128559K/sec
Vytvoreni takoveho RAIDZ2 by trvalo ~4 vteriny a tady toto 40 hodin. Jest tudiz vedecky dokazano, ze ZFS je 36000x rychlejsi nez BTRFS nad md RAID6
Az dorazi z ebaye dvouportovy mellanox3, tak dam vedet jak to vypada s tou rychlosti ale podle toho co pisou lide na redditu, tak to bude na nesifrovanych castech naprosto bez problemu.
find . -maxdepth 15 | grep -P '\/[^\/]{143,}[^\/]' mi vratil pet tisic vysledku. Nastesti jsou soubory takoveho charakteru, ze zkraceni nebude vadit a ChatGPT vypotil tohle:
#!/bin/bash
# Funkce pro rekurzivní procházení adresářů
process_directory() {
local dir="$1"
# Projdeme všechny soubory a adresáře v daném adresáři
for file in "$dir"/*; do
if [ -f "$file" ]; then
# Zkontrolujeme délku názvu souboru
if [ ${#file} -gt 140 ]; then
# Extrahujeme příponu souboru
extension="${file##*.}"
# Zkrátíme název souboru na 100 znaků a zachováme příponu
new_name="${file:0:100}.$extension"
# Pokud soubor s novým jménem již existuje, připojíme k názvu číslo
counter=1
while [ -e "$new_name" ]; do
new_name="${file:0:100}_$counter.$extension"
counter=$((counter + 1))
done
# Přejmenujeme soubor
mv "$file" "$new_name"
echo "Soubor $file byl přejmenován na $new_name"
fi
elif [ -d "$file" ]; then
# Rekurzivně zpracujeme podadresář
process_directory "$file"
fi
done
}
# Spustíme zpracování aktuálního adresáře
process_directory "."
Ale stejne... opruz i do budoucna si budou muset lidi hlidat, aby neukladali docy s polovinou textu v nazvu
Sustain sekvencni operace pri 8 memberech by chtelo testovat na radove vetsim souboru. Kazdopadne hezky vysledek.
Exos X18 Get more storage with market-leading, high-capacity 18TB drives, a 550TB/yr workload rating, and 2.5M-hr MTBF to meet the most demanding requirements.
Tiskni
Sdílej:
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.