Gwarancja odtworzenia: biznes na „automacie”
Wyobraźmy sobie, że w infrastrukturze naszego klienta pojawiło się nowe środowisko wirtualne z bazą danych i systemem plików – kilka maszyn wirtualnych. Nie do końca wiadomo, kto i kiedy je uruchomił. Co robić?
Okazuje się, że problemu w zasadzie nie ma, bo system backupu natychmiast rozpoznaje nową infrastrukturę. Sam kwalifikuje ją jako środowisko krytyczne i od razu wdraża odpowiednią politykę zabezpieczania z największą możliwą częstotliwością wykonywania kopii zapasowych. Wychodząc z pracy, administrator otrzymuje raport, z którego dowiaduje się, że danego dnia maszyn krytycznych było np. o 5 więcej i wszystkie były zabezpieczane co godzinę w dwóch różnych ośrodkach.
Inny przykład. Gdy grupa deweloperska usunie środowisko, w którym testowała nową wersję aplikacji, naturalną reakcją klasycznego systemu backupu jest wyświetlenie komunikatu o błędzie: „nie wykryto grupy maszyn wirtualnych, które miały zostać zbackupowane”. Takie błędy są irracjonalne i przeszkadzają w codziennej pracy. Jednak administratorów bardziej zaboli obniżenie SLA i gorsza ocena ich pracy.
Tymczasem po wdrożeniu nowoczesnego rozwiązania nic takiego się nie dzieje. System backupu natychmiast po usunięciu środowiska wie, że go nie ma. Dlatego po prostu przestaje wykonywać jego kopie zapasowe. Oczywiście dalej można usunięte środowisko odtworzyć, gdyż dotychczasowe backupy są przechowywane w tylu miejscach, w ilu potrzeba, i tyle czasu, ile potrzeba.
Brzmi jak science fiction? Nic z tych rzeczy. Dla nowoczesnych systemów backupu (np. Dell EMC Avamar) to standardowa funkcjonalność. Rodzi się zatem pytanie: czy w takim podejściu jest jeszcze miejsce dla administratora backupu? Czy jest on nadal potrzebny?
To pytanie należy jednak sformułować inaczej. Czy administrator backupu na pewno chce śledzić z wytężoną uwagą zmiany w infrastrukturze? Czy chce aktualizować polityki backupu po każdej utworzonej lub usuniętej maszynie wirtualnej? To niewykonalne bez względu na to, czy infrastruktura naszego klienta jest zmieniana przez jedną czy kilkadziesiąt osób.
Rola administratora backupu staje się bardziej biznesowa. Definiuje on politykę bezpieczeństwa firmy, decyduje, która część infrastruktury jest krytyczna, która produkcyjna a która ma znaczenie testowe. Nowoczesne rozwiązanie backupowe będzie wiedziało, jak ma zareagować na nowo powstałą infrastrukturę: jak często zabezpieczać nowe maszyny wirtualne, jak długo przechowywać kopie zapasowe, czy i jaką zastosować politykę Disaster Recovery itd.
Zmierzamy z jednej strony w kierunku prostoty rozwiązań, a z drugiej – ku IT jako usłudze biznesowej. Ta biznesowa część systemu backupu wymusza jeszcze inne działania, takie jak rozliczanie departamentów ze zużytych zasobów rozwiązania backupowego, zapewnienie współużytkowania zasobów data protection między wieloma firmami. To nowe zadania stawiane administratorom backupu. By móc je zrealizować, potrzebują oni nowoczesnych narzędzi – takich jak dostarczane przez Dell EMC rozwiązania Avamar czy Data Domain.
Praktyka pokazuje, że walkę konkurencyjną wygrywają rozwiązania bezobsługowe. Tak było w Stanach Zjednoczonych w przypadku samochodów i montowanych w nich skrzyń biegów. Wygrały przekładnie automatyczne, mimo wyższej ceny. Wydaje się, że systemy backupu weszły w kolejny etap walki o klientów. Dla administratorów jest to szansa, by udźwignąć coraz większą liczbę obowiązków. Muszą oni ocenić, które rozwiązania rzeczywiście automatyzują w pełni ich działania, dając przy tym… gwarancję odtworzenia. Podczas rozmów z klientami pamiętajmy, że rozwiązanie backupowe – choćby najszybsze, choćby w pełni bezobsługowe – jest nic nie warte, jeśli nie mamy stuprocentowej pewności odtworzenia danych. Właśnie tej pewności rozwiązania takie jak Dell EMC Data Domain zawdzięczają swój gigantyczny udział w rynku (60 proc.). Administrator, który z nich korzysta, może mieć pewność, że w razie awarii szybko odzyska dane.
Dodatkowe informacje:
Daniel Olkowski, Solution Architect, Dell EMC
Podobne artykuły
Ochrona danych priorytetem Dell EMC
Zapewniające bezpieczeństwo urządzenia i oprogramowanie gwarantują ciągłość działań biznesowych przedsiębiorstw, a jednocześnie możliwość korzystania z najnowszych metod przechowywania danych, w tym z pamięci flash i chmury.
W oczekiwaniu na 7 nm
Komputery nie są już coraz szybsze, za to coraz droższe. W najbliższych latach proces ten raczej nie ulegnie zmianie. Dalszy rozwój wymaga istotnych zmian konstrukcyjnych, bo pecet w obecnej postaci osiągnął już szczyt możliwości. Jednak sam rozwój sprzętu nie wystarczy, by zapewnić producentom utrzymanie udziałów rynkowych.
NAS na drodze ewolucji
Systemy NAS przeszły w ostatnim czasie metamorfozę. Co ciekawe, producenci urządzeń nie powiedzieli jeszcze ostatniego słowa.