Cześć,
Czy może ktoś z Was jest w stanie opisać własne doświadczenia z systemami kopii zapasowej Bacula lub Amanda ?
Obecnie sobie testuję baculę lecz problemy z zawieszaniem się directora zaczynają mnie skłaniać w kierunku przeprowadzenia testów Amandy. Sądzicie że Warto ?
Pozdrawiam,
Bartek
Bacula vs Amanda
Moderatorzy: Moderatorzy, Administratorzy
Re: Bacula vs Amanda
To są backupy plikowe - wykonywałem je zawsze sam. Nie wiem czy jest sens dla backupu plikowego wchodzić w jakieś programy zewnętrzne.
1. Raz w tygodniu full
2. codziennie backup przyrostowy
3. backup plikowy samego systemu
wszystko do crontab i już. Jak Chcesz spróbować to mogę Tobie dać skrypty - chociaż tu nie ma jakiejś trudnej sprawy.
Co do Twojej prośby - nie korzystałem z powyższych, nie mogę się wypowiedzieć
Pozdr.
1. Raz w tygodniu full
2. codziennie backup przyrostowy
3. backup plikowy samego systemu
wszystko do crontab i już. Jak Chcesz spróbować to mogę Tobie dać skrypty - chociaż tu nie ma jakiejś trudnej sprawy.
Co do Twojej prośby - nie korzystałem z powyższych, nie mogę się wypowiedzieć
Pozdr.
Re: Bacula vs Amanda
Cześć,
Dzięki Webster ale właśnie Bacula jest pomyślana jako przyszłe zastępstwo podobnego rozwiązania jak Twoje, które zrobiłem kilka lat temu. Moje rozwiązanie bazuje na rsync i hardlinowaniu powtarzających się plików do tych z poprzedniej kopii. Dodatkowo muszę być pewien że część katalogów zawijam konsystentnie i atomowo dlatego mam takie szataństwo zrobione że backupuje sobie drzewo zbudowane z odpowiednio podmontowanych snapshotów lvm (na /boot robię bind). Inaczej jakby kolega nacisnął Save w eclipse, w trakcie robienia kopii ja mógłbym mieć połowę plików sprzed i połowę po naciśnięciu save. Taka kopia do tarcia chrzanu się nadaje
To rozwiązanie z rsync jest fajne na jeden serwer a nie na środowisko które powoli mi rośnie (wirtualki , także z Windowsem omg). Dodatkowo nawet w trakcie obecnych testów incremental Baculą jest u mnie szybszy niż incremental rsynciem. Jak patrzę na katalog gdzie te kopie leżą to jest tam kilkadziesiąt podkatalogów z kopiami z poszczególnych dni. Każdy ma tyle plików ile ma źródło plus te hard linki , mnożymy to razy ilość trzymanych kopii to zaczynasz z łatwością wychodzić powyżej miliona plików na FS co nie jest też super optymalne. Zapewne właśnie przez to incremental rsynca trwa ile trwa. Wszystko zaczyna się dusić a w dodatku tym sposobem nie zawinę plików M$ razem z uprawnieniami Kiedyś mogę chcieć zwiększyć rozmiar hdd na kopie zapasowe i aby hardlinkowanie działało to musi być ten sam fs. Jak miałbym mieć FS kilkuterowy to już prędzej z tego powodu że już nie ma rsync z hardlinkami i mam deduplikację na poziomie bloków FS (zfs , btrfs) bo przecież wolumeny z kopiami pełnymi (albo archiwa tar) będą spore ale baaardzo do siebie podobne
Pozdrawiam
Bartek
Dzięki Webster ale właśnie Bacula jest pomyślana jako przyszłe zastępstwo podobnego rozwiązania jak Twoje, które zrobiłem kilka lat temu. Moje rozwiązanie bazuje na rsync i hardlinowaniu powtarzających się plików do tych z poprzedniej kopii. Dodatkowo muszę być pewien że część katalogów zawijam konsystentnie i atomowo dlatego mam takie szataństwo zrobione że backupuje sobie drzewo zbudowane z odpowiednio podmontowanych snapshotów lvm (na /boot robię bind). Inaczej jakby kolega nacisnął Save w eclipse, w trakcie robienia kopii ja mógłbym mieć połowę plików sprzed i połowę po naciśnięciu save. Taka kopia do tarcia chrzanu się nadaje
To rozwiązanie z rsync jest fajne na jeden serwer a nie na środowisko które powoli mi rośnie (wirtualki , także z Windowsem omg). Dodatkowo nawet w trakcie obecnych testów incremental Baculą jest u mnie szybszy niż incremental rsynciem. Jak patrzę na katalog gdzie te kopie leżą to jest tam kilkadziesiąt podkatalogów z kopiami z poszczególnych dni. Każdy ma tyle plików ile ma źródło plus te hard linki , mnożymy to razy ilość trzymanych kopii to zaczynasz z łatwością wychodzić powyżej miliona plików na FS co nie jest też super optymalne. Zapewne właśnie przez to incremental rsynca trwa ile trwa. Wszystko zaczyna się dusić a w dodatku tym sposobem nie zawinę plików M$ razem z uprawnieniami Kiedyś mogę chcieć zwiększyć rozmiar hdd na kopie zapasowe i aby hardlinkowanie działało to musi być ten sam fs. Jak miałbym mieć FS kilkuterowy to już prędzej z tego powodu że już nie ma rsync z hardlinkami i mam deduplikację na poziomie bloków FS (zfs , btrfs) bo przecież wolumeny z kopiami pełnymi (albo archiwa tar) będą spore ale baaardzo do siebie podobne
Pozdrawiam
Bartek