Najbliższe lata przyniosą przetasowania na rynku ochrony danych. Jednym z motorów napędowych tych przemian będzie cyfrowa transformacja. Według IDC w 2019 r. globalne wydatki na ten cel wyniosą 1,7 bln dol., o 42 proc. więcej niż w 2017. Jednym z najistotniejszych elementów rozwoju będzie migracja do chmury. Wiele przedsiębiorstw przeniesie swoje zasoby na platformy AWS, Google Cloud, Microsoft Azure, jak też do zasobów mniejszych dostawców. Wzrośnie też popularność rozwiązań hybrydowych, a eksperci są na ogół zgodni, że jednym z najważniejszych trendów w świecie nowych technologii stanie się multi-cloud.

Pięć lat temu firmy wybierały jednego dostawcę usług chmurowych, ale te czasy minęły bezpowrotnie. Problem polega na tym, że przedsiębiorstwa nie mają opracowanej strategii współpracy z kilkoma usługodawcami. Niemniej jednak muszą mieć rozwiązanie do płynnego zarządzania różnymi chmurami i ich integracji, a także zapewniania odpowiedniej wydajności działań i ochrony danych – mówi Anwar Dahab, Senior Vice-President, Channel EMEA w Dell Technologies.

Jeszcze do niedawna administratorzy IT głowili się nad tym, jak zapewnić należytą ochronę danych w środowisku fizycznym i wirtualnym. Wraz z ekspansją usług chmurowych skala trudności niewspółmiernie wzrasta. Cyfrowa rewolucja zmienia też podejście do ciągłości działania krytycznych aplikacji i systemów informatycznych. Coraz mniej będzie przedsiębiorstw, w których nie przywiązuje się wagi do przestojów wywołanych niesprawnie działającą infrastrukturą IT lub cyberatakami. Takie sytuacje niemal zawsze przynoszą straty finansowe, których wysokość zależy od kilku czynników: charakterystyki określonej branży, przychodów, faktycznej długości przerwy w pracy, liczby osób, które nie mogą w tym czasie pracować, a także pory dnia. Według Gartnera średni koszt przestoju firmowego systemu IT przekracza 5,5 tys. dol. za minutę. Nie ulega wątpliwości, że wraz z postępującą cyfryzacją biznesu ta kwota będzie szybko rosnąć.

PBBA na fali wznoszącej

Tworzenie kopii zapasowych przyprawia niejednego administratora o zawrót głowy. Z jednej strony tego typu specjaliści muszą zmagać się z przyrastającymi terabajtami danych, z drugiej zaś z rosnącą liczbą terminali używanych przez pracowników. Taki stan rzeczy nie pozostaje bez wpływu na wybór rozwiązań do backupu. Integratorzy dostrzegają powolny odwrót od systemów przeznaczonych do tworzenia kopii zapasowych wyłącznie z jednego typu urządzeń, np. desktopów.

Klienci poszukują spójnego rozwiązania do ochrony zarówno serwerów, jak i stacji roboczych, aby zarządzać nimi z centralnej konsoli. Przedsiębiorcy oczekują też prostego systemu licencjonowania oraz łatwego zwiększania pojemności – tłumaczy Tomasz Spyra, CEO Rafcomu.

 

Szczególnie dużą popularnością w ostatnim czasie cieszą się urządzenia PBBA (Purpose Built Backup Appliance). Według IDC w zeszłym roku przychody ze sprzedaży tych produktów na rynku EMEA wyniosły 1,1 mld dol., a więc ponad 30 proc. więcej niż rok wcześniej. Warto dodać, że niższą dynamikę wzrostu odnotowano w Europie Środkowo-Wschodniej – 18,1 proc. Zdaniem analityków do dużego popytu na PBBA przyczynia się kilka czynników. Oprócz potrzeby tworzenia kopii zapasowych na jednej skonsolidowanej platformie należy też wymienić rosnącą wiedzę w firmach na temat backupu i odzyskiwania danych, zaostrzenie regulacji dotyczących ochrony zasobów cyfrowych, a także nabierający znaczenia rynek Internetu rzeczy.

Rodzimy rynek PBBA rośnie w tempie 70 proc. rok do roku. Dzieje się tak, ponieważ klient biznesowy chce mieć gotowe rozwiązanie, z wszelkimi funkcjami niezbędnymi do backupu i odtwarzania kopii zapasowej. Liczy się też gwarantowana wydajność – podkreśla Daniel Olkowski, Solution Architect w Dell Technologies.

Jednak produkty PBBA na razie nie zdominowały polskiego rynku. Wciąż istnieje liczna grupa klientów, którzy do backupu wykorzystują serwery NAS, głównie firm QNAP i Synology. Co istotne, wymienieni producenci dostarczają autorskie oprogramowanie do tworzenia kopii zapasowych z komputerów lub smartfonów. NAS-y najczęściej trafiają do małych i średnich firm, w większych zaś, gdzie wymagany jest długi czas retencji i istnieje potrzeba odzyskiwania danych z wielu punktów, lepiej sprawdzają się systemy PBBA lub deduplikatory sprzętowe.

Przedsiębiorcy chętnie wykorzystują także tiering. Świeże kopie przechowują na dyskach serwera, a starsze w tańszym repozytorium, np. obiektowej pamięci masowej w chmurze publicznej. W sprzedaży pojawiają się również innowacyjne rozwiązania. Przykładowo startup Igneous oferuje usługę tworzenia kopii zapasowych z wielu serwerów NAS, takich jak NetApp, Dell EMC Isilon, Qumulo i Pure Flashblade.

W tym modelu dane przechowywane są u klienta, a ich nadzór oraz zarządzanie odbywa się za pośrednictwem chmury publicznej. System konsoliduje backup pochodzący z kilku źródeł w jednym urządzeniu i nie wymaga zastosowania oprogramowania do tworzenia kopii zapasowych.

Sebastian Kisiel
Senior Sales Engineer, Citrix Systems

W środowisku wirtualnym można stosunkowo łatwo zaimplementować mechanizmy wysokiej dostępności, ograniczając ryzyko sytuacji kryzysowych. W przypadku zaplanowanych przez administratorów IT działań, przykładowo konserwacji lub modernizacji sprzętu, rozwiązanie HA pozwoli uniknąć wielu problemów. Wirtualne maszyny można przenosić na inny serwer nawet w czasie ich pracy, a także przeprowadzać kilka migracji naraz. Przerw w dostępności środowisk wówczas nie ma, a prace administracyjne są niezauważalne dla użytkowników. Wirtualne maszyny można również łatwo uruchamiać na dowolnym przeznaczonym do tego serwerze, co pozwala ograniczyć awarie i przestoje.

 

Choć unifikacja jest jednym z wiodących trendów w segmencie ochrony danych, vendorzy nie zapominają o użytkownikach poszukujących rozwiązań do backupu komputerów lub serwerów. Ważne, że w tej grupie produktów także widać progres.

W rozwiązaniach do backupu stacji roboczych standardem jest dostęp do chronionych danych z urządzeń mobilnych. Z kolei wbudowany sieciowy dysk korporacyjny umożliwia wymianę dużych plików w firmie, bez używania zewnętrznych narzędzi typu Dropbox. Wzrasta też znaczenie funkcji samoobsługowych, które pozwalają odciążyć dział IT – wyjaśnia Przemysław Mazurkiewicz, EMEA East Technical Services Director w Commvault.

Nowe trendy obejmują także produkty do backupu i disaster recovery przeznaczone do ochrony serwerów. Producenci rozwijają funkcje związane z obsługą środowisk open source, kontenerów, a także różnych rodzajów chmur, w tym multi-cloudu.

Realna ochrona wirtualnych maszyn

Według różnych szacunków z wirtualnych maszyn korzysta 75–80 proc. przedsiębiorstw. Przy czym większość używa narzędzi, które zapewniają ich ochronę. Ale to nie oznacza, że karty na rynku zostały rozdane, a dostawcy odcinają jedynie kupony. Wręcz przeciwnie, sytuacja zmienia się bardzo dynamicznie, stawiając przed producentami oraz integratorami zupełnie nowe wyzwania. Liczne fuzje, a także inwazja nowych technologii przyczyniły się do tego, że przedsiębiorcy zazwyczaj korzystają z heterogenicznej infrastruktury. Doskonale widać to na przykładzie hiperwizorów: obok znanych od lat rozwiązań – vSphere (VMware) i Hyper-V (Microsoft), pojawiły się różne odmiany KVM i Xen. Co ciekawe, nowe platformy wirtualizacyjne spotkały się z ciepłym przyjęciem przedsiębiorców. Niestety, ich popularność zrodziła problemy z doborem odpowiednich rozwiązań do backupu, bowiem większość dostawców oferuje produkty kompatybilne z najbardziej popularnymi na rynku hiperwizorami.

Dostosowanie systemów do współpracy z mniej znanymi platformami wirtualizacyjnymi to tylko jedno z zadań stojących przed producentami oprogramowania. Trzeba też sprostać wysokim wymaganiom użytkowników środowisk wirtualnych, którzy oczekują, że rozwiązania dobackupu i disaster recovery zmniejszą do minimum przestoje wynikające z awarii infrastruktury informatycznej.

Producenci starają się wyjść naprzeciw tym żądaniom, wprowadzając nowe funkcje, takie jak uruchamianie maszyny wirtualnej z kopii zapasowej i tworzenie środowiska testowego na potrzeby próbnych wdrożeń. Firmy mogą również sprawdzać kopię zapasową pod kątem obecności złośliwego oprogramowania lub danych, których zgodnie z prawem nie wolno przywrócić do środowiska produkcyjnego, chociażby ze względu na RODO – podkreśla Konrad Szmeil, Product Manager w Veracompie.

Artur Cyganek
Regional Director Eastern Europe, Acronis

Rozwiązania do backupu danych ewoluują w kierunku prostoty i niezawodności. Obecnie podstawową kwestię stanowi ochrona kopii bezpieczeństwa przed atakami ransomware. Ciekawym zjawiskiem jest zabezpieczanie całych linii produkcyjnych, gdzie każdy robot przemysłowy przypomina pod pewnym względem komputer PC. Tego typu praktyki ograniczają do minimum ryzyko wystąpienia przerw w procesie produkcji. Dużym wyzwaniem dla producentów jest ochrona zróżnicowanych urządzeń końcowych, które gromadzą coraz więcej danych. Oferowane rozwiązania muszą być efektywne i ekonomiczne. Jeśli koszt backupu okaże się zbyt wysoki, dane znajdujące się na komputerach i smartfonach nie będą zabezpieczane.

 

Programiści pracujący nad nowymi wersjami aplikacji do backupu maszyn wirtualnych będą musieli uwzględnić nowe trendy na rynku IT. Takie zjawiska jak migracja do środowisk chmurowych czy wirtualizacja bazująca na kontenerach zmieniają nieco zasady ochrony danych. Czołowi gracze nie obawiają się jednak nowych wyzwań, a ich plany są nad wyraz ambitne.

Chcemy, żeby środowisko wirtualne zabezpieczało się samo. To oznacza, że nowa maszyna wirtualna jest chroniona automatycznie od momentu utworzenia, bez jakiejkolwiek ingerencji ze strony człowieka. Jednym z ciekawszych przykładów produktów „next generation backup” jest nowe oprogramowanie Dell EMC, które skupia się na wspomnianych aspektach, a dodatkowo zapewnia uruchomienie całości środowiska bez odtwarzania – mówi Mikołaj Wiśniak, Manager Systems Engineering w polskim oddziale VMware’a.

SaaS niczym samochód
bez hamulców

Najpopularniejszą usługą chmurową od kilku lat pozostaje SaaS. Nic nie wskazuje na to, że w nieodległej przyszłości coś się w tym zakresie zmieni. Według IDC w 2018 r. firmy wydały na oprogramowanie dostarczane w modelu usługowym 51 mld dol. Analitycy przewidują, że w najbliższych latach ten segment rynku będzie rósł w tempie ok. 30 proc. rocznie. Usługodawcy cenią elastyczność i skalowalność SaaS, a także fakt, że nie trzeba uiszczać jednorazowej wysokiej opłaty za produkty. Niestety, firmy, podpisując umowy z usługodawcami, zazwyczaj zapominają o ciążących na nich obowiązkach.

– Kiedy kupujemy samochód, wiemy, że dostajemy również hamulce. Niestety, w przypadku usług chmury publicznej pełne bezpieczeństwo nie jest w cenie, z czego użytkownicy nie zdają sobie sprawy. Tymczasem większość systemów backupu zabezpiecza dane również w środowisku chmurowym – zapewnia Daniel Olkowski.

Dostawca usług chmurowych koncentruje się na ochronie własnej infrastruktury i zagwarantowaniu klientowi określonego poziomu SLA. Gros licencji SaaS zawiera klauzulę informującą, że za ochronę danych odpowiada wyłącznie klient. Usługodawcy gubią się w labiryncie zapisów, co pokazują badania przeprowadzone przez 451 Research wśród użytkowników SaaS. Aż 49 proc. respondentów twierdzi, że powierza ochronę danych providerowi. Jednak problem polega na tym, że dostawcy oferujący oprogramowanie jako usługę zazwyczaj nie realizują zadań związanych z backupem. Co czwarty badany deklaruje, że w ogóle nie wykonuje backupu, a 11 proc. przeprowadza ten proces manualnie. Także tylko 11 proc. pytanych utrzymywało, że tworzy kopie zapasowe u zewnętrznego usługodawcy w modelu cloud-to-cloud. Tymczasem przypadki utraty ważnych dokumentów cyfrowych przez użytkowników SaaS nie są zjawiskiem incydentalnym.

Z naszych obserwacji wynika, że firmy bardzo często zapominają o zabezpieczaniu danych przechowywanych w chmurach publicznych i usługach typu SaaS. Jednym z największych zagrożeń jest nieodwracalna utrata takich danych po celowym lub przypadkowym ich usunięciu – mówi Tomasz Rot, Sales Director w CEE w Barracuda.

Nie bez przyczyny dostawcy rozwiązań do backupu wykazują dużą aktywność w tym segmencie rynku, zapewniając ochronę aplikacji Salesforce i Office 365. W zależności od rozwiązania kopie zapasowe są przechowywane w zasobach lokalnych lub w chmurze publicznej. To segment rynku, który będzie szybko rósł.

Zdaniem integratora

Tomasz Magda, CEO, Viability
Jako promotor zapewniania ciągłości działania systemów skłaniam się ku rozwiązaniom efektywnym. Gdy coś się stanie z danymi lub ze środowiskiem IT, liczy się tylko jak najszybsze przywrócenie stanu sprzed takiego zdarzenia. Wtedy minimalizowanie czasu, a więc kosztu przestoju, ma najwyższy priorytet. Dlatego jeśli wybierać system do backupu, to taki, który automatyzuje proces weryfikacji poprawności kopii i replik. Nie można w tym zadaniu liczyć na ludzi, wielu szefów firm się o tym boleśnie przekonało. Druga sprawa to interoperacyjność. Trzeba mieć pewność, że można odtworzyć środowisko gdziekolwiek, choćby w chmurze. To cecha szczególnie przydatna w przypadku awarii sprzętowych. Zatem należy robić nie tylko kopie zapasowe, ale i obrazy całych systemów, aplikacji i konfiguracji. Pozostaje jeszcze koszt utrzymywania kopii, który ze względu na coraz większe wolumeny danych i cenę nośnika jest znaczący. Jednak analizowanie danych pod kątem ich znaczenia połączone z deduplikacją powinno skutecznie odchudzić składowane dane.

 

Wielofunkcyjne platformy

Unifikacja to słowo odmieniane przez wszystkie przypadki w branży IT a  w końcu zawitało też do świata ochrony danych. Wybór skonsolidowanego rozwiązania, łączącego kilka funkcji, upraszcza zarządzanie, skraca czas konfiguracji i zapewnia automatyzację procesów. Twórcami takich rozwiązań są m.in. dwa amerykańskie startupy – Cohesity i  Rubrik. Ciekawostką jest fakt, że założyciele obu firm wywodzą się z Nutanixa. Należy dodać, że podobne rozwiązania wprowadziły do swojej oferty Commvault i Dell EMC.

Klienci wykazują zainteresowanie spójnym, centralnym podejściem do procesów związanych z backupem, odtwarzaniem, archiwizacją, zarządzaniem snapshotami, kontrolą zgodności z RODO i wyszukiwaniem danych. Na znaczeniu zyskuje też analityka danych ułatwiająca nie tylko optymalizowanie pamięci masowych, ale także wykrywanie sytuacji niebezpiecznych w działaniu firmowej infrastruktury – wyjaśnia Przemysław Mazurkiewicz.

Jednakże nie wszyscy opowiadają się za wielofunkcyjnymi platformami. Naveen
Chabra, analityk Forrester Research, uważa, że poważniejsza awaria zunifikowanej platformy może doprowadzić doświadczone nią przedsiębiorstwo na skraj katastrofy. Jak zauważa: „duże firmy wolą dywersyfikować rozwiązania, czyli nie wkładać wszystkich jaj do jednego koszyka”. Tak czy inaczej, szerokie spektrum produktów to woda na młyn dla integratorów, którzy będą pełnić rolę nie tylko sprzedawcy i instalatora, ale również konsultanta do spraw bezpieczeństwa.