Backup: 7 grzechów głównych
2014-05-08 14:01
Najcięższym przewinieniem w dużych środowiskach informatycznych jest brak Centralnego Systemu Backup © .shock - Fotolia.com
Przeczytaj także: 6 rad jak wybrać backup
Pierwszym i zarazem najcięższym przewinieniem w dużych środowiskach informatycznych jest brak Centralnego Systemu Backupu.Niejednokrotnie spotkałem się z sytuacją, gdzie kilkadziesiąt serwerów było chronionych przez kilka różnych narzędzi, bez centralnego zarządzania, monitoringu poprawności wykonania zadań, administrowanych przez kilku niepowiązanych ze sobą pracowników. W takim wypadku, już na samym początku audytu można stwierdzić, że środowisko nie ma zapewnionej żadnej bieżącej ochrony, nie wspominając o możliwości przywrócenia środowiska produkcyjnego na wypadek poważnej awarii w podstawowym data center. Niestety użytkownicy przekonują się jak bezwartościowe były to rozwiązania zwykle w przypadku nieodwracalnej utraty danych. Jedyną rzeczą jaką można w takiej sytuacji zrobić to jak najszybsze podjęcie decyzji o inwestycji w Centralny System Backupu i uniknięcie podobnych problemów w przyszłości.
Drugim wykroczeniem jest brak codziennego i rzetelnego monitoringu poprawności wykonania zadań backupu.
Jest kilka przyczyn takiego stanu rzeczy. Jedną z nich jest brak dedykowanej osoby, w większych środowiskach grupy osób, odpowiedzialnych za system backupu. Brakuje jasno określonych obowiązków, nie ma procedur, nie zostały wyrobione pewne nawyki. Jednak najczęstszym powodem jest najbardziej prozaiczna przyczyna - zbyt mało czasu. Ale czy tylko to? Z całą pewnością nie. Jeżeli backup zbudowany jest w oparciu o kilka niewspółpracujących ze sobą rozwiązań, niemal niemożliwe jest stworzenie monitoringu, który swoim działaniem obejmie całość środowiska. Czym to skutkuje? Często okazuje się, że wiele, nawet krytycznych systemów, nie ma swojej poprawnej kopii nawet od kilku miesięcy.
fot. .shock - Fotolia.com
Najcięższym przewinieniem w dużych środowiskach informatycznych jest brak Centralnego Systemu Backup
Brak testów odtworzeniowych i aktualizacji procedur Disaster Recovery.
A co w sytuacji, kiedy backup przynajmniej w teorii wykonuje się poprawnie ale nie są wykonywane testy odtworzeniowe? Albo kiedy procedury Disaster Recovery nie są aktualizowane wraz ze zmianami jakie zachodzą w środowisku, a administratorzy nie mają wiedzy ile trwa odtwarzanie przynajmniej krytycznych systemów?
W krytycznej sytuacji, gdzie liczy się przede wszystkim czas, nie ma miejsca na eksperymentowanie, testowanie i wyciąganie wniosków. Każde środowisko musi być przygotowane i sprawdzone pod kątem takiej ewentualności. A testy nie tylko weryfikują poprawność przechowywanych danych ale znacznie przyspieszają odtworzenie środowiska. Pokazują jakie czynności należy kolejno wykonać, zmniejszają poziom niepewności i stresu, który w takich przypadkach w mniejszym lub większym stopniu zawsze występuje.
Bagatelizowanie, przy wyborze systemu, jednego z kluczowych parametrów wskazujących na wydajność procesu odtwarzania danych.
W trakcie spotkań, na których doradzam klientom w kwestii wyboru systemu backupu, klienci zwracają uwagę na wszechstronność systemu, łatwość obsługi, poziom wsparcia producenta lub czas wykonywania kopii. Rzadko jednak ktokolwiek zwraca uwagę na wydajność procesu odtwarzania danych. A jest to jeden z najważniejszych parametrów pokazujących możliwości i wydajność środowiska. W sytuacji, kiedy nastąpi utrata danych, zawsze pojawia się oczekiwanie (a często jest to wymóg), aby zasoby zostały odzyskane jak najszybciej. Brak dostępu do informacji wprost przekłada się na straty w działalności. Dlatego niezwykle ważne jest aby na etapie wyboru rozwiązania przeprowadzić testy odtworzeniowe i oszacować, czy system backupu spełnia w 100% stawiane przed nim wymagania.
oprac. : eGospodarka.pl
Przeczytaj także
Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ
Komentarze (0)