Z próbami pobierania okupu za odszyfrowanie danych branża IT spotykała się już wcześniej, ale dopiero od trzech lat to zjawisko nasiliło się na tyle, że konieczne jest uwzględnienie go w planowaniu strategii zabezpieczania firmowych informacji. Wszystko dlatego, że przestępcy poczuli się praktycznie bezkarni. Chodzi o możliwość pobierania okupu w cyberwalucie Bitcoin, co niemalże gwarantuje im anonimowość. Statystyki są alarmujące: według badań Kaspersky Lab na świecie liczba użytkowników Internetu, którzy zetknęli się ze złośliwym oprogramowaniem szyfrującym, zwiększyła się ponaddwukrotnie w III kwartale 2016 r. i wyniosła przeszło 820 tys. osób. Tak znaczący wzrost został odnotowany już trzeci kwartał z rzędu.

Najlepszą, bo bezpłatną alternatywą płacenia okupu jest odzyskanie danych z kopii zapasowej. Jednak aby ta operacja się powiodła, trzeba postępować rozważnie. Projektując procedury backupowe, należy zwrócić uwagę, czy w czasie wykonywania kopii zabezpieczone wcześniej oryginalne pliki nie zostaną nadpisane przez te zaszyfrowane. Sytuację komplikuje fakt, że ransomware potrafi zaszyfrować nie tylko pliki znajdujące się na lokalnym dysku komputera, ale także w zasobach udostępnionych przez sieć, np. z serwera NAS. A wówczas wykonywanie kopii plików na serwer NAS, a następnie zewnętrzny dysk, niewiele pomoże.

Jednym z rozwiązań w tej sytuacji jest pozostawianie podczas wykonywania backupu także kopii starych wersji plików. Pozwala na to większość pakietów oprogramowania do backupu, które wówczas zaszyfrowany plik traktuje jak nową wersję. Drugim sposobem jest wykonywanie od czasu do czasu kopii zapasowej na nośniku wymiennym (zewnętrznym twardym dysku, kasecie RDX czy taśmie LTO), odłączanym od głównego systemu przechowywania danych. Zresztą zgodnie z najlepszymi praktykami należy systematycznie dokonywać kopiowania na wymienny nośnik, który wywozi się z siedziby przedsiębiorstwa. Dzięki temu chroni się dane przez takimi katastrofami jak pożar, zalanie czy zawalenie się budynku.

 

Stawić czoła wyzwaniu

Wykonywanie backupu nie należy dziś do najprostszych czynności. Jeszcze parę lat temu, przed spopularyzowaniem się ransomware’u, niektórzy wizjonerzy branży wskazywali, że być może już wkrótce w ogóle nie będziemy robić klasycznego backupu. Zaczął on bowiem sprawiać niemałe problemy. Danych do zabezpieczenia jest coraz więcej, a czas przeznaczony na przeprowadzenie backupu bez negatywnego wpływu na ciągłość pracy firmy (okno backupowe) kurczy się bądź nie ma go w ogóle. Alternatywy upatrywano w replikacji danych do zapasowych ośrodków przetwarzania danych (ochrona przed katastrofą) i przechowywaniu starszych wersji edytowanych plików w środowisku produkcyjnym (ochrona przed skasowaniem lub błędnie przeprowadzoną edycją pliku).

Replikacja oczywiście będzie prowadzona nadal, mimo że nie zastąpi backupu. To najszybsza metoda zapewnienia ciągłości pracy, gdy awarii ulegnie jeden z systemów IT w podstawowym centrum danych. Ale ze względu na rosnące ryzyko zarażenia się ransomware, rezygnacja z backupu jest w dzisiejszych czasach bardzo nierozważną decyzją.

Zdecydowanie jednak musi się zmienić sposób zabezpieczania danych. Według statystyk jeszcze kilka lat temu tylko 10 proc. z nich miało dla firm kluczowe znaczenie, dziś współczynnik ten jest szacowany na 50 proc. Wiele przedsiębiorstw skarży się też, że nie jest w stanie całkowicie wstrzymać pracy swoich systemów, aby przeprowadzić backup.

Grzegorz Bielawski

Country Manager, QNAP

Obecnie już nawet małą firmę stać na zbudowanie systemu replikacji danych między dwoma budynkami oddalonymi o wiele kilometrów. Coś, co przez wiele lat było w zasięgu tylko średnich i dużych przedsiębiorstw, dziś jest dostępne dla każdego. Funkcję taką ma większość serwerów NAS. Wystarczy kupić dwa bliźniacze urządzenia, zainstalować w nich dyski o podobnej łącznej pojemności i skonfigurować tak, aby dane z serwera określonego jako podstawowy były systematycznie replikowane przez sieć lokalną lub Internet na serwer zapasowy.

 

Do ważnych postulatów zgłaszanych przez użytkowników należy potrzeba tzw. granularnego odzyskiwania (ang. granular recovery) danych, czyli uzyskania dostępu do pojedynczych plików z wykonanej kopii bezpieczeństwa (także z maszyn wirtualnych) lub rekordów z bazy danych. Dlatego wielu klientów powinno być zainteresowanych wdrożeniem nowych wersji oprogramowania do backupu, które zapewniają zarówno tę funkcję, jak i inne, np. deduplikację.

Deduplikacja jest najbardziej efektywna właśnie w przypadku backupu danych. Jej skuteczność sięga wtedy ponad 90 proc. W połączeniu z niską ceną twardych dysków czyni ekonomicznie sensownym przechowywanie backupu na napędach dostępnych online, a niekoniecznie wyłącznie na taśmie. Dzięki eliminacji duplikatów łatwiej można też wykonywać replikację na urządzenie znajdujące się w innym budynku (przez sieć lokalną) lub nawet mieście (przez Internet lub dzierżawione łącze).

 

Strategiczny nośnik

Właściwy wybór nośnika backupu to jedna ze strategicznych decyzji, która będzie miała wpływ na wydajność całego procesu. Przez długie lata oczywisty był w takim przypadku wybór rozwiązań taśmowych, który ograniczał się do wskazania jednego z kilkunastu stosowanych na rynku standardów. Dziś w sprzedaży są praktycznie tylko rozwiązania zgodne ze standardem LTO (i kilka bardzo niszowych, przeznaczonych głównie do środowisk mainframe). Decyzja dotyczy więc tego, czy w ogóle korzystać z taśmy, czy wykorzystać inny nośnik.

Najważniejsze zalety taśm pozostały niezmienne do dziś: bardzo duża pojemność i szybkość zapisu, a także możliwość wywiezienia nośnika z siedziby firmy. Jednak w systemach backupu taśmy przestały być doceniane, ze względu na podstawową wadę – bardzo długi czas odzyskiwania danych (w skrajnych przypadkach sięgający nawet kilku dni) i częsty brak dostępu do pojedynczych obiektów zapisanych na taśmie, co oznacza konieczność odzyskania całego backupu.

 

Obie zalety taśm straciły na znaczeniu – pierwsza na skutek rozpowszechnienia się systemów deduplikacji i spadku cen dysków, a druga w efekcie stosowania replikacji coraz szybszymi łączami internetowymi. Dlatego rozwiązania taśmowe zostały wyparte przez backup dyskowy, w którym dane są kopiowane na podłączone do infrastruktury IT macierze. Kopię bezpieczeństwa danych ze stacji roboczych najczęściej wykonuje się przez sieć i umieszcza na udostępnionym w tym celu woluminie serwera NAS. Wadą tego rozwiązania jest znacznie wyższy koszt oraz pobór prądu, ale zalety (szczególnie szybkie odzyskiwanie danych pozwalające uniknąć wizerunkowej katastrofy firmy) znacznie je przewyższają. Dostęp do utraconych danych uzyskuje się niemal natychmiast (niektóre programy do backupu zapewniają pracownikom samodzielne odzyskiwanie skasowanych plików lub ich wcześniejszych wersji), a dane z macierzy dyskowej w takim środowisku można replikować do pomieszczenia znajdującego się w innym budynku, co zastępuje wywożenie taśm poza siedzibę przedsiębiorstwa.

 

Backup wirtualnych maszyn

Wyzwania związane z backupem przynoszą także środowiska wirtualnych serwerów i desktopów. Pierwotnie podejmowano próby zabezpieczania danych przez agenta wewnątrz wirtualnej maszyny. Ten proces jednak był dość powolny, obniżał wydajność jej pracy i wymagał ciągłego nadzoru administratorów. Skuteczniejsze okazały się próby backupu całych wirtualnych maszyn z poziomu hypervisora.

W tej sytuacji backup trwał jednak jeszcze dłużej (w rozwiązaniu tego problemu w dużym stopniu pomógł mechanizm deduplikacji), a odtworzenie pojedynczej wirtualnej maszyny pochłaniało nawet kilkanaście godzin. Dlatego producenci oprogramowania do backupu skupili się na zapewnieniu możliwości uruchomienia wirtualnej maszyny bezpośrednio z wykonanej kopii (oczywiście z pewnym uszczerbkiem dla jej wydajności) i równoległym jej odtworzeniu w środowisku podstawowym.

Tomasz Krajewski

Presales Manager – Eastern Europe, Veeam Software

W firmach przetwarza się coraz więcej elektronicznych informacji, rośnie więc prawdopodobieństwo ich utraty. Konieczność przerwania pracy przedsiębiorstwa, spowodowana awarią systemu IT, jest dla większości firm bardzo bolesnym doświadczeniem. Integratorzy powinni wykorzystywać tego typu sytuacje do oferowania systemów chroniących przed przestojami. Doświadczenie dowodzi bowiem, że ludzie dzielą się na tych, którzy backup robią, i na tych, którzy będą go robili – po utracie danych.

 

Backup online – rozsądna opcja

Chociaż klienci wciąż obawiają się o bezpieczeństwo danych w chmurze, przechowywane w niej dane są zazwyczaj lepiej chronione niż w siedzibie przedsiębiorstwa. Dotyczy to przede wszystkim małych i średnich firm, w których często brakuje środków na zatrudnienie wykwalifikowanej kadry IT i sprzętu potrzebnego do ochrony danych. Natomiast dostawcy usług backupu w chmurze to wyspecjalizowane jednostki, posiadające niezbędne zasoby do bezpiecznego przechowywania danych.

Emocje związane z backupem online już ostygły na tyle, że coraz więcej firm rozważa skorzystanie z tej metody zabezpieczania informacji. Różne są jednak pomysły na jej implementację, tak jak różne potrzeby firm. Podstawowy podział jest wytyczany przez źródło danych do zabezpieczenia – może być nim firmowy serwer, ale też stacje robocze użytkowników. W obu przypadkach jednak usługa backupu online musi być znacznie bardziej zaawansowana niż jej odpowiednik do zabezpieczania danych z pojedynczej stacji roboczej. Musi zapewniać konsolę administracyjną pozwalającą na wdrożenie polityki wykonywania kopii i zarządzania nimi.

Niezmiernie ważna jest też możliwość szyfrowania zabezpieczanych danych własnym kluczem. Przy backupie stacji roboczych należy także sprawdzić, czy istnieje możliwość wykonywania kopii zarówno samych danych, jak i całego systemu operacyjnego, co przyspieszy proces ich ewentualnego późniejszego odzyskania. Pracownicy powinni też mieć możliwość samodzielnego odzyskiwania straconych plików (lub ich wcześniejszych wersji), bez konieczności kontaktowania się z informatykami.

Na świecie usługi backupu online świadczą dziesiątki tysięcy firm, ale w wyborze właściwej należy uwzględniać nie tylko funkcjonalność rozwiązania, lecz też reputację dostawcy i obowiązujące prawo. W większości przypadków backupowane dane będą zawierały dane osobowe, które – zgodnie z ustawą o ochronie danych osobowych – nie powinny opuszczać Unii Europejskiej. Dlatego zawsze trzeba sprawdzić, gdzie fizycznie znajduje się centrum danych, w którym wylądują dane klienta.

Wielu klientów jest zainteresowanych współpracą w tym zakresie ze swoimi zaufanymi doradcami w dziedzinie IT. Dla integratorów to wyjątkowa szansa – mogą wykupić zasoby chmurowe w jednym z centrum danych specjalizujących się w tym zakresie, a do tego dokupić licencje oprogramowania do backupu umożliwiające świadczenie usług online (ma je w ofercie większość producentów profesjonalnego oprogramowania do backupu). W ten sposób stworzą dla swojego klienta usługę, która nie tylko będzie zgodna z jego wymaganiami, ale też świadczona przez najbardziej zaufany podmiot.