Kiedyś zasady związane z wykonywaniem kopii zapasowych były bardzo proste. Pojemność przenośnego nośnika docelowego (najczęściej taśmy) miała być równa lub większa niż objętość danych na nośniku źródłowym. Zwykle bez problemu dawało się ten wymóg spełnić. Kopiowanie danych odbywało się w nocy i takie okno backupowe (od ośmiu do dwunastu godzin) było zupełnie wystarczające. Backup odbywał się raz na dobę, a jeśli utracono dane pod koniec dnia pracy (a ostatnia kopia była wykonana poprzedniej nocy), to… trudno, zdarza się.

Dzisiaj takie podejście jest niemal w całości nieaktualne. Nawet jeśli nośnik backupowy (taśma lub przenośny twardy dysk) zmieści wszystkie dane, to sam proces wykonywania pełnej kopii zapasowej mógłby trwać nawet kilka dni. O oknie backupowym trwającym kilka godzin w dobie e-commerce słychać coraz rzadziej, a utrata danych z całego dnia pracy jest praktycznie nieakceptowalna.

Do tego dochodzi jeszcze jeden aspekt, na który dawniej rzadko zwracano uwagę, a i teraz, niestety, nadal w wielu firmach nie traktuje się go poważnie: zapasową kopię danych wykonuje się po to, aby w przypadku katastrofy (skasowania danych, awarii sprzętu, pożaru itd.) można było je ODZYSKAĆ. Tymczasem według wyników wielu ankiet od 60 do 80 proc. administratorów nigdy nie wykonywało próby odzyskania backupowanych danych. Tacy szefowie IT nie weryfikują jakości nośników, na które wykonywane są kopie, jak również nie prowadzą symulacji samego procesu odtworzenia danych.

A wyniki takiej symulacji mogłyby być dla wielu zarządów firm zaskakujące. Jeżeli dane z backupu dałoby się odzyskać, proces ten mógłby trwać kilkadziesiąt godzin. To oznacza paraliż przedsiębiorstwa i konkretne straty, także wizerunkowe. Dlatego ogromnym wyzwaniem jest zaprojektowanie systemu backupu, w którym wykonywanie kopii jest niezauważalne dla pracowników, dostęp do danych po wystąpieniu awarii – praktycznie natychmiastowy, a koszt kopiowania danych nie przewyższy ich wartości. W końcu backup to swego rodzaju polisa ubezpieczeniowa i w trakcie normalnych działań biznesowych nie stanowi narzędzia pracy ani nie przynosi firmie żadnego zysku. Natomiast zbudowanie go i (także zdalne) zarządzanie nim może przynieść resellerowi niemały zysk.

Maciej Kaczmarek

VAR Account Manager, NETGEAR

Mniejsze firmy, szczególnie te niezatrudniające administratorów, mają problem z właściwym doborem urządzenia NAS do własnych potrzeb. Znają liczbę użytkowników i rodzaj danych, jakie chcą przechowywać i zabezpieczać, ale nie potrafią przełożyć tego na konkretny model serwera, który powinni kupić. To ogromna szansa dla resellerów, którzy – znając środowisko klienta – powinni służyć radą i pomocą w doborze, jak też późniejszym utrzymaniu sprzętu i np. jego zdalnej diagnostyce.

 
RAID w macierzy to nie wszystko

Twarde dyski oferują coraz większą gęstość zapisu danych, przy równoczesnym mniejszym poborze prądu w przeliczeniu na jednostkę informacji. To główne korzyści, na które zwraca się uwagę, w przeciwieństwie do faktu, że nie zmieniły się niektóre fizyczne i elektryczne właściwości napędów. Na przykład administratorzy rzadko pamiętają o tym, że dla twardych dysków wciąż istnieje taki parametr, jak współczynnik błędnych bitów (bit error rate).

W konsumenckich dyskach może wystąpić błędny zapis jednego bitu na każde 10 TB danych, a w stosowanych w macierzach dyskowych napędach Enterprise SATA – jeden na 100 TB. Jeżeli taki dysk pracuje samodzielnie, wówczas ryzyko błędu dotyczy tylko jednego pliku bądź rekordu bazy danych. Ale jeśli dyski są połączone w strukturę RAID 5 lub RAID 6, błędny zapis może oznaczać konieczność podjęcia czynności naprawczych i odbudowania struktury danych.

Częstym argumentem przeciw backupowi jest fakt posiadania macierzy dyskowej z napędami połączonymi w strukturę RAID. Natomiast w trakcie operacji odbudowy struktury (trwającej czasem nawet kilkanaście godzin) dyski pracują z pełną mocą i zdarzało się, że w krótkim czasie awarii ulegały nawet dwa napędy. Przed taką sytuacją nie chroni struktura RAID 5, przygotowana na to jest struktura RAID 6, ale teoretycznie ryzyko awarii kolejnego, trzeciego dysku wciąż istnieje. Dlatego nie można uznawać, że wykorzystanie macierzy dyskowej RAID to wystarczające zabezpieczenie przed utratą danych. Backup w takiej sytuacji może okazać się jedynym umiarkowanie tanim rozwiązaniem (drugim jest replikacja na podobną macierz w drugiej serwerowni). Tym bardziej, że daje szansę na odzyskanie danych utraconych w wyniku ich skasowania czy całkowitej katastrofy (zalania, pożaru lub kradzieży).

 

Wycisnąć jak najwięcej z dysku

Przez ostatnie lata dość znacznie zmieniły się proporcje wykorzystania niektórych nośników jako miejsca na zapasową kopię danych. Promowane przez długie lata taśmy praktycznie odeszły w niepamięć i obecnie wykorzystywane są głównie do archiwizacji. Nieliczne firmy, które nadal z nich korzystają, argumentują to koniecznością zabezpieczenia się na wypadek katastrofy totalnej (jednoczesne zniszczenie podstawowego i zapasowego centrum danych) lub aspektami prawnymi.

Damian Sieradzon

IT Security Product Manager, MWT Solutions

Zachęcamy współpracujących z nami resellerów, aby budowali swoje własne centra danych i świadczyli usługi backupu online. Ten model cieszy się znacznie większym zaufaniem klientów, ponieważ mają gwarancję odnośnie do lokalizacji tych danych, a jednocześnie mogą korzystać z łatwo skalowalnego środowiska. Natomiast resellerzy mogą wykorzystać stworzoną infrastrukturę także do świadczenia innego typu usług.

 

Czas odzyskania danych z taśmy stał się nieakceptowalnie długi. Ponadto w przypadku konieczności uzyskania dostępu np. do pojedynczego pliku operacja ta może trwać godzinami, a zazwyczaj firmy potrzebują odzyskania dostępu do danych niemal natychmiast. Dlatego taśmy używane do backupu zostały zastąpione twardymi dyskami, z których korzysta się w różny sposób – mogą stanowić tradycyjny zasób w serwerach plików NAS lub służyć do tworzenia wirtualnych bibliotek taśmowych, którymi łatwo zastąpić wykorzystywane wcześniej przez firmy taśmy (są zgodne z wykorzystywanym wcześniej oprogramowaniem i zdefiniowanymi w nim procesami backupu). Dość dużą popularnością cieszą się też macierze dyskowe z preinstalowanym oprogramowaniem do backupu – rozwiązanie zwalniające administratorów z konieczności budowania całego środowiska.

Kolejną zaletą backupu na dyskach, obok krótkiego czasu dostępu do danych, jest możliwość deduplikacji, czyli eliminacji powtarzających się plików lub bloków danych. W przypadku plików generowanych indywidualnie przez użytkowników współczynnik deduplikacji może być stosunkowo niski, ale gdy zaczniemy backup serwerów poczty elektronicznej lub wirtualnych maszyn, korzyści widoczne są natychmiast (więcej o backupie wirtualnych maszyn piszemy w artykule „Wirtualne (nie)bezpieczeństwo” na stronie 64).

Praktycznie wszystkie duże macierze dyskowe i niektóre mniejsze serwery NAS zapewniają także tworzenie tzw. kopii migawkowych (snapshot). Technika ta polega na „zamrażaniu” w danym momencie aktualnego stanu danych i rozpoczęciu wykonywania kopii. Zmiany, które są dokonywane w czasie tworzenia kopii, są zapisywane gdzie indziej, a dopiero później integrowane z zamrożoną kopią. Przy każdym kolejnym takim procesie nie ma już konieczności wykonywania pełnej kopii danych, a wystarczy tylko zabezpieczyć „migawkę”, a więc zarejestrowane w międzyczasie różnice.

 

Liderzy i niszowi gracze

Rynek rozwiązań do ochrony danych jest poddawany szczegółowym badaniom przez analityków firmy Gartner. W czerwcu br. opublikowali oni kolejny raport z cyklu „Magic Quadrant for Backup/Recovery Software”. Już od kilku lat jako liderów wskazują oni tylko cztery firmy: CommVault, EMC, IBM i Symantec. Znakomita większość rozwiązań pozostałych producentów jest określona jako niszowe (m.in. Acronis, Actifio, arcserve, Barracuda, EVault, FalconStor, Veeam).

Ciekawe są jednak wyniki przeprowadzonej przez Gartnera ankiety wśród użytkowników systemów do wykonywania kopii zapasowych. Aż 40 proc. firm planuje rozbudowę lub wymianę oprogramowania do backupu do 2018 r. Z kolei do 2016 r. 20 proc. firm (wzrost o 7 punktów procentowych w porównaniu z 2014 r.) będzie korzystało tylko z techniki kopii migawkowych i replikacji, całkowicie rezygnując z dotychczas stosowanych metod backupu.

 

Według Gartnera w 2015 r. w dużych firmach nadal będzie dominował backup w modelu dysk-dysk-taśma, głównie z powodu wymogów prawnych. Ale już w 2019 r. takich firm ma być tylko 50 proc. – pozostałe przejdą wyłącznie na backup dyskowy. Aż 70 proc. firm mających oddziały zapowiada zamianę prowadzonego tam backupu taśmowego na dyskowy do 2017 r. (obecnie działa firm 30 proc. przedsiębiorstw). Rośnie natomiast liczba podmiotów prowadzących archiwizację na taśmach – w 2018 r. ma ich być więcej o 25 proc. niż obecnie.

Z kolei IDC zbadało rynek macierzy dyskowych z oprogramowaniem do wykonywania backupu (Purpose-Built Backup Appliance). W I kw. 2014 światowa sprzedaż tych urządzeń spadła o 2,5 proc. (rok do roku) i wyniosła 664,5 mln dol. Niekwestionowanym liderem tego rynku jest EMC z udziałem 59,9 proc. Kolejne miejsca zajmują Symantec (13,7 proc.), IBM (5,8 proc.), HP (4,3 proc.) i Quantum (2,3 proc.). Firmami, które zanotowały największy spadek, są Symantec (-10,9 proc.), IBM (-20 proc) i Quantum (-17,6 proc.), natomiast do pierwszej piątki wskoczyła firma Barracuda Networks (ex aequo z Quantum), której udziały w rynku wzrosły o rekordowe 29,8 proc.

 

Backup i disaster recovery w małej firmie

Małe firmy przez lata wstrzymywały się przed inwestowaniem w jakikolwiek system backupu. Argumentowały to wysoką ceną bądź brakiem aż tak ważnych danych, które wymagałyby specjalnego zabezpieczenia. Oba te argumenty są już nieaktualne. W małych przedsiębiorstwach zdecydowanie łatwiej jest zaprojektować i zbudować system, który zautomatyzuje proces zabezpieczania danych i zagwarantuje ich szybkie odzyskiwanie. Najważniejszym jego elementem powinien być serwer NAS z dyskami połączonymi w strukturę RAID (daje ona ochronę przed skutkami uszkodzenia dysku). Zainstalowane na komputerach użytkowników oprogramowanie do backupu będzie wykonywało kopię na ten serwer zgodnie z założonym harmonogramem (najczęściej raz dziennie). Do serwera można podłączyć przez port USB zewnętrzny dysk dużej pojemności, aby na niego w nocy była wykonywana kopia kopii (ochrona przed skutkiem awarii całego serwera). Dane na zewnętrznym dysku trzeba koniecznie zaszyfrować, co uniemożliwi dostęp do nich ewentualnemu złodziejowi takiego napędu.

Posiadaczom laptopów można też zaproponować działającą równolegle usługę backupu online (koniecznie szyfrowanego własnym kluczem, przesyłanego na serwery w Unii Europejskiej, a najlepiej w Polsce), aby systematycznie (np. co dwie godziny) była wykonywana kopia nowych danych z najważniejszych folderów. Dzięki temu użytkownik zyska dostęp do danych np. z telefonu komórkowego, jeśli jego laptop ulegnie awarii. Ponieważ będzie to backup przyrostowy, operacja ta będzie praktycznie niezauważalna nawet przy połączeniu z Internetem poprzez łącze komórkowe.

 

Aby dodatkowo zwiększyć poziom gwarancji bezpieczeństwa danych, w gnieździe kart SD w laptopie można umieścić taką kartę, na którą oprogramowanie do backupu online równolegle będzie kopiowało dane (oczywiście, koniecznie także szyfrowane). Jej pojemność powinna być zbliżona do dwukrotności objętości zabezpieczanych danych, dzięki czemu będzie miejsce na zapisywanie także poprzednich wersji plików. Gdy awarii ulegnie laptop lub jego twardy dysk, wystarczy wyjąć kartę i włożyć ją do innego notebooka. Unikamy więc konieczności pobierania danych z backupu online lub firmowego serwera – mamy do nich dostęp natychmiast.

Zbudowanie przedstawionego środowiska nie kosztuje zbyt wiele, a w ogromnym stopniu zwiększa gwarancję dostępności do danych. Są one przechowywane w aż pięciu miejscach (dysk laptopa, serwer NAS, dysk zewnętrzny podłączony do serwera NAS, backup w chmurze, karta SD) i musiałoby dojść do niewyobrażalnej katastrofy, by stracić dane. Taki model minimalizuje też czas potrzebny na uzyskanie dostępu do nich w przypadku awarii, bo praktycznie dla każdej sytuacji mamy plan B.

Ale na tym nie koniec, bo obecnie już nawet małą firmę stać na zbudowanie systemu replikacji danych pomiędzy dwoma budynkami, oddalonymi o wiele kilometrów. Coś, co przez wiele lat było w zasięgu tylko średnich i dużych firm, dziś jest dostępne dla każdego. Funkcję taką oferuje większość serwerów NAS – wystarczy kupić dwa bliźniacze urządzenia (bądź zainstalować w nich dyski o podobnej łącznej pojemności) i skonfigurować je tak, aby dane z serwera określonego jako podstawowy były systematycznie replikowane przez Internet na serwer zapasowy.

 

Prawo pomaga, ale nie ułatwia

Praktycznie każda firma posiada dokumenty, których sposób i czas przechowywania jest regulowany prawnie. Polski ustawodawca już dwadzieścia lat temu uregulował kwestie przechowywania elektronicznej dokumentacji w Ustawie o rachunkowości z 29 września 1994 r., która później została uzupełniona Rozporządzeniem Ministra Finansów z 14 lipca 2005 r. w sprawie wystawiania oraz przesyłania faktur w formie elektronicznej, a także przechowywania oraz udostępniania organowi podatkowemu lub organowi kontroli skarbowej tych faktur.

Artur Pająk

Senior Product Manager, Huawei Enterprise

Ponieważ ilość przetwarzanych informacji rośnie lawinowo, pojawiają się firmy, które rezygnują z tradycyjnej formy backupu na taśmy czy na inne zasoby dyskowe w ramach własnej infrastruktury pamięci masowych. Na proces ten po prostu nie mają czasu. Dlatego tradycyjny backup zastępują replikacją na rozwiązania dyskowe znajdujące się w oddalonej serwerowni – w ten sposób chronią się przed ewentualną katastrofą uniemożliwiającą korzystanie z danych w podstawowym centrum danych. Natomiast, aby mieć dostęp do poprzednich wersji plików czy baz danych, korzystają z techniki wykonywania kopii migawkowych. Takie rozwiązania dostarcza już większość producentów pamięci masowych i z pewnością ta forma ochrony danych rozwinie się w przyszłości.

 

Podobnie jak w przypadku dokumentacji w formie papierowej, także dokumentom elektronicznym należy zapewnić odpowiedni poziom bezpieczeństwa. Tak, aby nie uległy one zniszczeniu przed upływem ich ważności, gdyż w obu przypadkach obowiązuje ten sam czas przechowywania dokumentacji, określony precyzyjnie dla każdego rodzaju dokumentu.

Wymagania, jakie powinny być spełnione w celu ochrony danych, reguluje art. 71 Ustawy o rachunkowości: „Ochrona danych powinna polegać na stosowaniu odpornych na zagrożenia nośników danych, na doborze stosownych środków ochrony zewnętrznej, na systematycznym tworzeniu rezerwowych kopii zbiorów danych zapisanych na informatycznych nośnikach danych, pod warunkiem zapewnienia trwałości zapisu informacji systemu rachunkowości, przez czas nie krótszy od wymaganego do przechowywania ksiąg rachunkowych, oraz na zapewnieniu ochrony programów komputerowych i danych systemu informatycznego rachunkowości, poprzez stosowanie odpowiednich rozwiązań programowych i organizacyjnych, chroniących przed nieupoważnionym dostępem lub zniszczeniem”.

Jak widać, ustawodawca nie narzuca konkretnej formy prowadzenia backupu czy archiwizacji. Ważne jednak, aby zapewnić gwarancję dostępności kopii i możliwość logicznego odczytania. Dodatkowe obowiązki natomiast nakłada wspomniane Rozporządzenie ministra finansów z 14 lipca 2005 r. w sprawie wystawiania oraz przesyłania faktur w formie elektronicznej. Wystawiający fakturę musi zagwarantować jej autentyczność i integralność treści przez zastosowanie bezpiecznego podpisu elektronicznego, weryfikowanego za pomocą ważnego kwalifikowanego certyfikatu, lub przez wymianę danych elektronicznych (EDI) zgodnie z umową w sprawie europejskiego modelu wymiany danych elektronicznych.

Paragraf 6.1 tego rozporządzenia nakazuje, żeby faktury wystawione lub otrzymane drogą elektroniczną były przechowywane na terytorium Polski. W przypadku przechowywania ich na terytorium państwa członkowskiego Unii Europejskiej należy poinformować o tym właściwego naczelnika urzędu skarbowego. Dlatego, jeśli chcemy zaproponować klientowi usługę backupu online dla dokumentów księgowych, warto zweryfikować, gdzie znajduje się centrum danych jej operatora. Mając świadomość uregulowań prawnych, usługodawcy udzielają tej informacji bez problemu.

W przypadku systemów IT z reguły bywa tak, że rzeczywistość przerasta wyobraźnię ustawodawcy. Nie inaczej jest w kwestii przechowywania danych. Przepisy Ustawy o ochronie danych osobowych nakazują usunięcie danych osobowych przez usługodawcę na zgłoszone żądanie użytkownika zakończonej już usługi. Czy w takim przypadku należy usunąć te dane także ze wszystkich „bieżących” backupów lub kopii backupowych bazy danych wykonanych w celu jej archiwizacji? Zarówno prawnicy, jak też Wojewódzki Sąd Administracyjny w Warszawie twierdzą, że tak. Informatycy dowodzą zaś, że wielokrotnie jest to praktycznie niemożliwe. Poza tym kopia z usuniętymi niektórymi danymi… to już nie kopia, tylko nowa wersja… Więcej na ten temat w jednym z najbliższych numerów CRN Polska.