Portál AbcLinuxu, 8. listopadu 2025 16:26
Řešení dotazu:
+-------+---------------------+---------------------+---------+-----------+----------+---------------+ | JobId | Name | StartTime | JobType | JobStatus | JobFiles | JobBytes | +-------+---------------------+---------------------+---------+-----------+----------+---------------+ | 6240 | /var/log/emerge.log | 2011-07-22 18:00:02 | B | T | 575 | 103161408 | | 6231 | /var/log/emerge.log | 2011-07-21 18:03:44 | B | T | 77151 | 1400689036 | | 6218 | /var/log/emerge.log | 2011-07-20 18:00:03 | B | T | 488 | 83690330 | ... | 6019 | /var/log/emerge.log | 2011-06-28 18:00:03 | B | T | 76274 | 1328834334 | | 5939 | /var/log/emerge.log | 2011-06-19 20:38:45 | B | T | 82992 | 1397323096 | | 5871 | /var/log/emerge.log | 2011-06-12 14:40:13 | B | T | 83793 | 1575742423 | +-------+---------------------+---------------------+---------+-----------+----------+---------------+System si uklada informacie o kazdom backupe v databazovom katalogu. V GUI sa da pozriet aj timestamp samotneho suboru a checksum. Podla roznych kriterii sa da nastavit co ma obnovit. Samotna zaloha moze byt ako by sa ocakavalo "full backup", "incremental", alebo "difrerential".
Git má bohužel problémy s velkými souboryMáš pro to nějaký (současný) odkaz?
Například prosinec 2010 - http://lwn.net/Articles/419241/.Tam žádný konkrétní popis problémů nevidím.
IFS=$(echo -en "\n\b")
export SVN_EDITOR=cat
# echo "provadim zmeny repozitare v pripade potreby"
ADDR_OUT="domain.tld" # vnejsi adresa
ADDR_HOME="192.168.0.1" # adresa ve vnitrni siti
# cesta k repozitari
PATH_REPO="/cesta/na/serveru/REPO"
PATH_SRC="/cesta/na/lokalnim/stroji/REPO"
cd $PATH_SRC
# Pingne na vnitrni adresu. Pokud dostane odpoved, predpoklada, ze je
# dostupna. Pokud vyprsi timeout, nastavi adresu SVN serveru na vnejsi
# adresu.
if [ `ping -q -c 1 $ADDR_HOME | grep "1 received" -c` -eq 0 ];then
echo "nejsem doma, nastavim vnejsi repo"
svn switch --relocate svn+ssh://user@$ADDR_HOME$PATH_REPO svn+ssh://user@$ADDR_OUT$PATH_REPO
else
echo "jsem doma, nastavim domaci repo"
svn switch --relocate svn+ssh://user@$ADDR_OUT$PATH_REPO
svn+ssh://user@$ADDR_HOME$PATH_REPO
fi
echo "processing files to add..."
find . | grep -v "\.svn" | sed -e s/^/\"/g -e s/$/\"/g | xargs -r svn add 2>&1 | grep -v "under version control"
echo "done"
echo "processing files to delete..."
svn status | grep "^!" | sed -r 's/^\![ ]+//' | xargs -r svn delete
echo "done"
echo "processing commit..."
svn commit --non-interactive -q -m "auto" || echo "Nelze commitnout"
svn up || echo "nelze aktualizovat"
echo "done"
Z toho důvodu ani nemůžu použít snapshotový FS, jelikož se chci obvykle vrátit u jednoho souboru a ne u všech.
To jsem moc nepochopil.
Osobně používám kombinaci rsync (pro úsporné přenášení dat ze síťových strojů) a následný btrfs snapshots. Výsledkem je, že mám k dispocici kompletní data ze všech serverů a to ve velmi úsporné formě na disku. Kdykoliv mohu vytáhnout jakýkoliv soubor z jakéhokoliv snapshotu.
Celá tato operace je tak rychlá, že ji mám v cronu každou hodinu (což je možná overkill, ale chtěl jsem trochu vyzkoušet i co btrfs zvádne).
Snapshoty se tváří jako adresáře (resp mountpointy), takže můžeš pro "vytažení" zálohy použít jakýkoliv protokol na soubory (scp, ftp, samba, nfs).
Pravda, měl jsem taky obavy, občas mi to napíše nějakou chybu (což je dáno verzí jádra v debianu a netýká se dat, ale featur), ovšem zatím tyto nevýhody předčily výhody. Mirror mirroruje, snapshoty fungují. Ta data by se zálohovala tak jako tak, takže když se to sesype, tak se nic neděje.
U všech dat kontroluju hashe (to k vůli možnosti nějakého silent corruption) a zatím je vše ok.
Jako funguje to. Na produkci bych to nedal, na to to ještě připravené není, ale pro early testera je to ideální stav.
Nasadil jsem to ve chvíli, kdy jsem potřeboval pracovat s 300GB adresářovým stromem. Jakýkoliv verzovací systém nepřipadal v úvahu. SVN by to musel tahat po síti a navíc ve svém lokálním repositáři ty data má dvakrát (zabíralo by to lokálně 1TB + ještě na serveru), git si na tom úspěsně vylámal zuby už při importu. Nedalo se s tím rozumně pracovat (rozumněj revert k nějaké předchozí verzi). Tady si udělám snapshot kdykoliv potřebuji a mám všechny předchozí verze živé a dokonce zapisovatelné. Ideální, rychlé, úsporné.
S prvím odstavcem nezbývá než souhlasit.
To druhé, upřímně, to jsem ještě neřešil. Určitě to půjde zálohovat stejně jako každý jiný FS - umount a dd. Podle featur na wiki by to mělo mít incremental backup celého fs, ale nenašel jsem na to příkaz. Asi ještě není implementovaný.
Otázkou je, proč řešit zálohování zálohovacího media (pokud by to mělo vystupovat v této roli). Zálohovací pásky také přece nezálohujete.
dd neuvažuji, partimage to ještě neumí. Snad už jen RAID 1.
Tiskni
Sdílej:
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.