Według badań IDC obecnie na świecie 20 proc. cyfrowych danych znajduje się w chmurze, ale w 2020 r. współczynnik ten ma wzrosnąć do 40 proc. Wraz z ich przyrostem, liniowo rośnie ilość miejsca potrzebnego na wykonywanie kopii zapasowych, ale nie jest to jedyny „generator” kosztów. W wielu przedsiębiorstwach często okazuje się, że moc serwerów backupu lub przepustowość sieci przestają być wystarczające. Ponadto środowisko IT, które umożliwia zabezpieczanie i archiwizację danych, robi się na tyle skomplikowane, że konieczne jest zatrudnienie dodatkowego personelu.

– Rynek rozwiązań backupu i archiwizacji generalnie jest dojrzały, ale cały czas ewoluuje – mówi Ryszard Regucki, dyrektor kanału sprzedaży w regionie Europy Wschodniej w Commvault. – Rośnie pojemność nośników, pojawiają się też nowe metody na ograniczenie ilości danych zapisywanych w ramach kopii zapasowej. Wiele firm stosuje różne rozwiązania do ochrony danych, ale resellerzy nadal mogą proponować im sprzedaż nowych systemów, uzupełnionych np. o mechanizmy deduplikacji.

Wyzwań w obszarze backupu jest sporo. Według analityków w najbliższym czasie bardzo szybko będzie rozwijał się segment związany z backupem między różnymi usługami w chmurze. Dostawcy zaklinają się, że dane przechowywane w ich infrastrukturze są bardzo bezpieczne, jednak ostatnio życie kilkakrotnie brutalnie zweryfikowało te deklaracje. Przynajmniej raz w roku niedostępny jest nawet Gmail, z którego korzysta niemały odsetek firm. Kilka rozwiązań do backupu poczty z Gmaila czy Office’a 365 dostępnych jest już teraz, ale w najbliższym czasie z pewnością będzie można zaobserwować wysyp podobnych systemów przygotowanych z myślą o ochronie danych z innych usług.

Zresztą popularność tego typu rozwiązań będzie rosła nie tylko z powodu możliwej niedostępności danej usługi. Gdy użytkownik zrezygnuje z subskrypcji Office’a 365, Microsoft skasuje jego dane po 90 dniach. Tymczasem z powodów prawnych wiele firm musi przechowywać swoją korespondencję znacznie dłużej. Wówczas jedynym rozwiązaniem będzie oprogramowanie umożliwiające profesjonalną archiwizację e-maili, która gwarantuje trwałość zabezpieczonych danych.

 
Na jakim nośniku robić backup?

Wybór właściwego nośnika do backupu od lat budzi emocje. Wielokrotnie „pogrzebana” stara, dobra taśma nadal jest popularna. Mimo że dostęp do zapisanych na niej danych bywa utrudniony i trwa długo, administratorzy doceniają fakt, że jest to rozwiązanie stabilne i sprawdzone. Zaletą taśm jest bardzo duża pojemność, ale też to, że samo przechowywanie danych na taśmie nie wiąże się z jakimkolwiek poborem prądu. W małych firmach, w których macierze dyskowe wykorzystywane do backupu mają tylko kilka lub kilkanaście dysków, zalety taśm nie mają większego znaczenia. Za to w rozległej infrastrukturze IT roczne oszczędności tylko na samym prądzie mogą iść w tysiące złotych. Przy czym backup to nie jedyne zastosowanie dla taśm.

– Zapytania o taśmowy backup wciąż się pojawiają, ale jest ich mniej niż w zeszłym roku – twierdzi Jerzy Adamiak, konsultant ds. systemów pamięci masowych w firmie Alstor. – Natomiast rośnie popularność taśm w rozwiązaniach archiwizacyjnych. Widać, że administratorzy zaakceptowali system plików Linear Tape File System, zaprezentowany stosunkowo niedawno, bo kilka lat temu.

Przez długi czas szukano możliwości wykorzystania nośnika, który – tak jak taśma – byłby wymienny i jednocześnie zapewniał szybszy dostęp do danych. Reguły polityki bezpieczeństwa w wielu firmach nakazują bowiem systematyczne wywożenie z siedziby przynajmniej jednej kopii zapasowej. Przez pewien czas pokładano nadzieję w nośnikach optycznych i magnetooptycznych, ale dziś ich zastosowanie spadło prawie do zera – przede wszystkim ze względu na małe pojemności.

Usługi zarządzanego backupu w chmurze szansą dla resellerów

W Europie klienci dość sceptycznie podchodzą do backupu w chmurze. Natomiast w Stanach Zjednoczonych ten rodzaj usługi kwitnie. Firma CloudBerry Lab przeprowadziła ankietę wśród 434 integratorów i dostawców usług zarządzanych, w której pytała o wpływ usług backupu na ich biznes. Biorąc pod uwagę, że trendy obecne na rynku amerykańskim są powielane w Europie po 2–3 latach, być może tak będzie i w tym przypadku. Poniżej kluczowe informacje z opublikowanego raportu:

– 79 proc. ankietowanych wskazało, że zainteresowanie usługami zarządzanego backupu w chmurze znacznie wzrośnie w ciągu najbliższego roku,

– 51 proc. respondentów przyznało, że trudno byłoby im stworzyć konkurencyjną ofertę, gdyby nie mogli zaproponować klientowi backupu w chmurze, zaś tylko 29 proc. ankietowanych twierdzi, że backup w chmurze praktycznie nie przynosi im żadnych zysków,

– dwa najważniejsze czynniki dotyczące usług backupu w chmurze to niezawodność i cena,

– usługi zarządzanego backupu w chmurze przynoszą trzykrotnie większe zyski niż    odsprzedawanie zwykłego backupu w chmurze,

– główne obawy to brak gwarancji poufności danych i ich niedostępność w przypadku braku lub bardzo wolnego łącza internetowego.

 

 

 

Dekadę temu powstał standard RDX, który ma wszystkie cechy rozwiązania idealnego. 2,5-calowe dyski twarde umieszczone w kasetach odpornych na uszkodzenia mogą być wywiezione z siedziby firmy po zrobieniu kopii i zapewniają bardzo szybki dostęp do zapisanych danych. Ich cena oczywiście jest wyższa niż w przypadku rozwiązań taśmowych, ale nadal akceptowalna. Niestety, standard ten przyjmuje się w Polsce bardzo powoli.

Wzrost popularności modelu usługowego przyniósł też możliwość backupu bezpośrednio do zasobów w chmurze publicznej. Taki sposób zabezpieczania danych może się sprawdzić głównie w małych firmach, gdzie ilość danych nie jest duża. Co prawda, za niewielkie pieniądze można kupić usługę „no limits”, ale pojawia się wiele innych ograniczeń lub niedogodności. Należy do nich wiarygodność dostawcy usługi, konieczność stałego i szybkiego dostępu do Internetu, a także brak możliwości zgodnego z prawem backupowania w tym modelu i poufnych danych. Mimo wielu wysiłków ze strony firm świadczących takie usługi na backup firmowych danych w chmurze decydują się nieliczni.

Przedsiębiorstwa, które nie muszą wywozić nośnika z siedziby, mogą realizować backup na dysk – ta metoda jest obecnie najczęściej stosowana. Można do tego wykorzystać coraz popularniejsze urządzenia, które są przeznaczone wyłącznie do tego celu, ewentualnie skonstruować własne środowisko, w którym ustanowiony zostanie serwer backupu zapisujący dane na dołączonej do niego macierzy dyskowej.

 

Warto wiedzieć, czyli backupowe pułapki

W każdej dziedzinie związanej z ochroną danych można natknąć się na wiele pułapek, ale w przypadku backupu jest ich wyjątkowo dużo. Warto wystrzegać się głównie tych związanych z kosztami. Tym bardziej że backup to tylko rodzaj ubezpieczenia na wypadek utraty danych – nie zapewnia on firmom żadnych konkretnych korzyści usprawniających ich pracę.

Przede wszystkim konieczne jest określenie całościowych kosztów związanych z użytkowaniem systemu, w tym uwzględnienie wydatków na administrację, zasilanie, konieczność dokupowania nośników w przypadku ich awarii lub znacznego rozrośnięcia się całego środowiska. Ważne jest też zweryfikowanie modelu licencjonowania oprogramowania służącego do backupu. Niektórzy jego dostawcy pobierają opłaty dosłownie za wszystko (za każdą stację, z której wykonywana jest kopia, za nowe wersje systemu operacyjnego, za ilość zabezpieczanych danych itp.).

Wolfgang May

Channel Manager CEE, Barracuda Networks

Backup i archiwizacja są procesami, którymi interesować się będzie coraz więcej firm. Resellerzy mogą na tym tylko skorzystać – obok klasycznej odsprzedaży i integracji rozwiązań, mogą też proponować klientom skorzystanie z rozwiązań wirtualnych oraz usług świadczonych w chmurze. Mimo pewnych obaw, które model chmurowy obecnie wywołuje, korzyści w postaci elastyczności i redukcji kosztów mówią same za siebie, a liczba klientów korzystających z takich rozwiązań będzie znacząco rosła.

 

Częstym błędem popełnianym przez klientów jest pomijanie kwestii organizacyjnych, związanych z utrzymaniem środowiska backupu. Zakładają oni, że raz wdrożone rozwiązanie i zdefiniowany proces będą trwały wiecznie. To duży błąd, bo poprawności wykonania backupu trzeba doglądać niemal codziennie, a przynajmniej raz w roku dogłębnie weryfikować możliwość odtworzenia danych z kopii zapasowej. W firmach, które nie mają wyznaczonej osoby odpowiedzialnej za ten proces, taką usługę mogą – oczywiście za dodatkową opłatą – świadczyć resellerzy. W każdym razie nigdy nie można pozostawić środowiska backupu samemu sobie. Różnego typu problemy pojawiają się zazwyczaj bardzo szybko, a brak reakcji wychodzi na jaw w najmniej oczekiwanym momencie.

Niezmiernie ważną rzeczą jest czas odtworzenia zabezpieczonych danych i łatwość uruchomienia tego procesu. Ma to szczególne znaczenie w przypadku, gdy danych jest dużo. W sytuacji awaryjnej często emocje biorą górę, warto więc przeprowadzić testy i być gotowym na odtworzenie systemu (np. dysponować zapasowymi dyskami). Jeżeli firma decyduje się na backup w miejscu, z którego odtworzenie trwa długo (np. w chmurze), warto też dokonać podziału danych na takie, do których dostęp musi być przywrócony bardzo szybko, i takie, na które można chwilę poczekać.

 

Rynek urządzeń i oprogramowania do backupu

Na rynku rozwiązań do backupu i archiwizacji nie ma rewolucji. Już od pewnego czasu widać proces ujednolicania oferty przez dostawców oprogramowania. Ci, którzy specjalizowali się w backupie klasycznych serwerów i plików, szybko uzupełniają swoje rozwiązania o backup wirtualnych środowisk. Z kolei Veeam, który osiągnął bardzo duży sukces właśnie w dziedzinie backupu wirtualnej infrastruktury, zapowiedział rozszerzenie swojego oprogramowania o inne rozwiązania do sporządzania kopii danych. Pierwszym krokiem tego producenta było udostępnienie bezpłatnego oprogramowania do backupu stacji roboczych. Jak pokazuje jednak stosowana wcześniej taktyka firmy, celem jest zdobycie doświadczenia i finalnie zaproponowanie komercyjnego rozwiązania.

O tym, że na rynku oprogramowania do backupu jest „nudno”, świadczy tegoroczny raport Gartner Magic Quadrant dotyczący opisywanego segmentu. Tradycyjnie liderami pozostały takie firmy, jak Commvault, EMC, IBM i Symantec. Miano wizjonerów przyznano Actifio i Veeam, zaś jako challengera wskazano tylko jedną firmę – HP. Pozostali dostawcy to gracze niszowi.

Identycznie jak rok temu wygląda także sytuacja w przypadku rozwiązań sprzętowych przeznaczonych do backupu. Według danych IDC pierwsze miejsce na tym rynku niepodzielnie zajmuje EMC z udziałem wynoszącym ponad 50 proc. Na drugiej pozycji jest Symantec (kilkanaście procent, wartość udziału waha się w zależności od kwartału), a na kolejnych IBM, HP, Barracuda, Quantum i Dell – każda z nich z kilkuprocentowym udziałem.

Krzysztof Rachwalski

dyrektor regionalny na rynkach Europy Wschodniej, Veeam Software

Firmom zależy przede wszystkim na zapobieganiu przestojom i coraz więcej z nich jest zainteresowanych sprawnym odzyskiwaniem danych bez względu na skalę awarii. Przedsiębiorstwa nie interesują się już długością „okna backupowego”, ale kładą nacisk na zmniejszanie wskaźników RPO i RTO. Dotychczas kopia zapasowa traktowana była jak polisa ubezpieczeniowa. Teraz firmy zauważają, że dzięki wirtualizacji i korzystaniu z nowoczesnego oprogramowania do backupu możliwe jest zapewnienie dostępności i ciągłości biznesowej przy stosunkowo niskich kosztach.