Priorytety firm, związane z przechowywaniem danych, zmieniają się jak w kalejdoskopie. Jeszcze do niedawna wszyscy – dostawcy i użytkownicy – jako największe wyzwanie wskazywali niemalże wykładniczo rosnące zapotrzebowanie na pojemność. Finalnie zrozumiano jednak, że – przynajmniej w przypadku polskich małych i średnich firm – nie jest to wcale największy problem. Niewiele z nich dysponuje biznesowymi danymi, których objętość przekracza jeden terabajt (wyjątkiem są oczywiście przedsiębiorstwa przetwarzające duże ilości multimedialnych danych). W dodatku coraz powszechniejsze korzystanie z hostowanych serwerów poczty elektronicznej częściowo zdejmuje odpowiedzialność z firmowego administratora IT za rozwój tego wyjątkowo wymagającego – pod względem pojemności – systemu.

Dla administratorów w małych i średnich firmach obecnie zdecydowanie bardziej liczy się gwarancja bezpiecznego dostępu do danych. Tu wyzwaniem jest jednak fakt, że nie wystarczy kupno odpowiedniego systemu pamięci masowych. Gwarancję dostępu można uzyskać jedynie, tworząc – podobnie jak w przypadku backupu – cały zbiór różnych procesów i procedur. Powinny one uwzględniać wiele kwestii związanych z sieciami (ich odpowiednią przepustowość, możliwość bezprzewodowego podłączenia się, szyfrowanie połączeń zdalnych), ochroną danych przed utratą (struktura RAID w macierzy, replikacja, backup), jak też szybkim przywróceniem dostępu w przypadku różnego rodzaju awarii (spisane i przetestowane procedury działania realizowane w takiej sytuacji przez administratorów).

 

NAS praktycznie dla każdego

Wiele korzyści zapewnia konsolidacja i centralizacja przetwarzanych w przedsiębiorstwie plików na serwerach NAS. Dzięki temu znacznie łatwiej prowadzić backup firmowych danych (sam serwer NAS też jest świetnym repozytorium kopii zapasowych ze stacji roboczych użytkowników). Producenci dbają również, aby NAS-y ze zwykłych serwerów plików stały się wielofunkcyjnymi kombajnami, które będą w stanie zastąpić wiele innych rodzajów serwerów (backupu, poczty elektronicznej, stron WWW, multimediów, cyfrowego monitoringu itd.).

Rafał Klimczak

Business Development Manager, Avnet

Pamięci masowe to tylko jeden z elementów całej układanki i muszą być umiejętnie dopasowane do pozostałych składowych infrastruktury – sieci, serwerów, wirtualizacji itd. To zadanie spada na resellerów, bo to oni współpracują z małymi i średnimi klientami, do których nie docierają handlowcy zatrudnieni bezpośrednio przez producentów. Co więcej, dostarczenie i wsparcie przy utrzymaniu takiego środowiska pozwoli na uzyskiwanie dodatkowych zysków płynących ze świadczenia usług.

 

Rynek serwerów NAS można podzielić na dwa segmenty. Pierwszy stanowią urządzenia z górnej półki. Charakteryzują się tym, że można je rozbudowywać o moduły zwiększające pojemność i wydajność. Są to klasyczne macierze dyskowe z wbudowanym modułem serwera NAS (NAS Gateway) lub działające w modelu unified, czyli gwarantujące równoczesny zapis plików i bloków baz danych. Zakres pojemności w takich serwerach może być bardzo duży – liczony w petabajtach lub dziesiątkach terabajtów w macierzach mieszczących zaledwie 12 dysków. Takie serwery NAS dla biznesu oferuje większość producentów pamięci masowych, m.in. Dell, EMC, Fujitsu TS, HDS, HP, IBM, Infortrend, NetApp oraz Oracle.

Druga grupa to urządzenia mniejsze, o znacznie bardziej ograniczonej skalowalności (a więc i wydajności), które powstały z myślą o użytkownikach prywatnych oraz firmach z segmentu SOHO (mieściły wtedy od jednego do czterech dysków), ale już parę lat temu ich producenci zdecydowali się także na tworzenie pokaźniejszych rozwiązań. Dziś  ajwiększe modele takich serwerów NAS mieszczą 12–16 napędów dyskowych, a ich pojemność można rozbudować do kilkuset terabajtów, stosując półki dyskowe (nie daje to jednak wzrostu wydajności całego rozwiązania). Cechą charakterystyczną tych serwerów jest to, że dysponują dziesiątkami funkcji potrzebnych w większości małych i średnich firm, a dodatkowe aplikacje dostępne w „sklepie” on-line ułatwiają dostosowanie serwera do własnych potrzeb. Urządzenia tej klasy oferują m.in. Netgear, QNAP, Seagate, Synology, Thecus, WD i ZyXEL.

W tych mniejszych serwerach wyzwaniem wciąż pozostaje wydajność – wystarczająca oczywiście do bieżącej obsługi plików nawet w dużych środowiskach, ale zbyt słaba dla dużych baz danych czy rozbudowanych instalacji wirtualnych serwerów lub desktopów (np. kilkudziesięciu intensywnie wykorzystywanych wirtualnych maszyn). Oczywiście producenci podejmują działania, które mają prowadzić do zwiększenia wydajności tych serwerów. Stosują w nich coraz mocniejsze procesory oraz zwiększają ilość pamięci operacyjnej.

– Obecnie wydajność serwerów NAS może być ograniczona do niektórych zastosowań, ale to na pewno wkrótce się zmieni i urządzenia te staną się znacznie bardziej wydajne – podkreśla Laszlo Burkus, dyrektor regionalny w firmie QNAP. – Już teraz nasze serwery wyposażone są w funkcję umożliwiającą stworzenie i używanie wielu maszyn wirtualnych, a dbałość o zwiększenie funkcjonalności urządzeń to jeden z naszych priorytetów.

 

Czy warto walczyć o IOPS?

Kwestia wydajności systemów pamięci masowych budzi wiele kontrowersji. Ranga tego zagadnienia, znanego do niedawna głównie administratorom baz danych, została podniesiona głównie przez producentów pamięci flash, dysków SSD i wykorzystujących je macierzy dyskowych. Doprowadzili oni do swego rodzaju wojny na IOPS-y (podając jako wyznacznik wydajności liczbę operacji wejścia-wyjścia na sekundę), co skutkowało absurdalnymi komunikatami. Coraz więcej producentów dumnie ogłasza premiery produktów, których wydajność przekroczyła milion IOPS, podczas gdy wydajność zwykłego dysku to kilkaset IOPS, a maksymalne zapotrzebowanie na wydajność ponad 90 proc. baz danych na świecie – kilkadziesiąt tysięcy.

 

Do akcji musiało wkroczyć stowarzyszenie SNIA, zajmujące się tworzeniem standardów dla rynku pamięci masowych. W 2014 r. w jego strukturach powołana została nowa grupa techniczna, nazwana Solid State Storage System. Jej zadaniem jest opracowanie sposobu pomiaru wydajności macierzy wykorzystujących wyłącznie pamięć flash. Ogłoszenie wyników prac zostało zapowiedziane na drugą połowę 2015 r.

Dzięki temu istnieje szansa, że zniknie komunikacyjny bałagan, kreowany głównie przez działy marketingu dostawców macierzy wyposażonych wyłącznie w dyski flash. Podawane przez nie wyniki pomiarów wydajności bywają drastycznie różne i są zależne od sposobu testowania i rodzaju zastosowanego wewnątrz nośnika. Zdarza się, że macierz działa przez pierwsze minuty od rozpoczęcia testu z niemalże kosmiczną wydajnością, która potem nagle spada. Do tego dochodzi brak pełnych informacji od producentów, dotyczących metodologii testów, co powoduje, że tych macierzy praktycznie nie można dziś skutecznie porównać.

Konsekwencje takiego stanu rzeczy widać też w podejściu administratorów IT.

Klienci najczęściej nie patrzą na parametry wydajnościowe – zależy im po prostu, aby ich aplikacja lub baza danych szybciej działała – mówi Manfred Buchmann, VP System Engineering EMEA w NetAppie. – I trudno im się dziwić, bo przy szacowaniu zapotrzebowania na wydajność systemu pamięci masowych można popełnić wiele błędów. Trudno też uzyskać obiektywny punkt odniesienia, ponieważ producenci podają wydajność mierzoną przy określonej wielkości sektora pamięci na dysku, a dla różnych aplikacji optymalna będzie inna wielkość tego sektora. Dlatego zawsze rekomendujemy klientom przeprowadzenie próbnych wdrożeń Proof of Concept i samodzielną ocenę, czy rzeczywiście dany system spełni ich wymagania.

Ciekawym przykładem mogą być tutaj bazy danych przechowywane w całości w pamięci operacyjnej serwera (np. SAP HANA). Teoretycznie w takim środowisku niepotrzebne są szybkie pamięci masowe, ale w rzeczywistości najpierw dane zasilające bazę muszą być przeniesione z dysków do pamięci operacyjnej, a w razie konieczności wyłączenia serwera przegrane z powrotem. Okazuje się, że taka procedura może trwać nawet wiele godzin i, co więcej, szybsze przy realizowanym tym sposobem zapisie sekwencyjnym bywają twarde dyski niż pamięci SSD, które zapewniają przede wszystkim bardzo szybki dostęp losowy.

Jerzy Adamiak

konsultant ds. systemów pamięci masowych, Alstor

Firmy nadal interesują się wykorzystaniem taśm do backupu, bo wciąż jest to najtańszy wymienny nośnik w przeliczeniu na jednostkę pojemności. Taśmy są też coraz popularniejsze w systemach długoterminowej archiwizacji off-line. Ale ich zastosowanie w małych i średnich przedsiębiorstwach będzie raczej powoli zanikać, ze względu na rozwijające się usługi backupu on-line i taniejące proste systemy umożliwiające replikację danych.

 
Dodatkowe zyski z backupu

Stworzenie poprawnie działającego systemu backupu, mimo że świadomość konieczności zabezpieczania danych jest coraz większa, nadal przysparza problemów wielu firmom. Ten obszar to szansa dla resellerów na zwiększenie zysków, którzy – co dziwne – dość rzadko się na nim skupiają. A szkoda, bo przecież później mogą dodatkowo zarabiać na obsłudze systemów kopii zapasowych. Rzecz jasna klienci, szczególnie ci najmniejsi,
 uzasadniają swoją niechęć do inwestowania w system backupu brakiem budżetów na projekty wykraczające poza podstawową działalność. Należy im wówczas uświadomić, że przy pierwszej większej awarii straty biznesowe i wizerunkowe mogą być znacznie większe niż koszt inwestycji w skuteczny system, który im przeciwdziała. Skuteczność tego typu argumentacji może być duża, ponieważ praktycznie każdy stracił kiedyś dane i z pewnością pamięta związane z tym faktem rozgoryczenie.

W małych i średnich firmach zdecydowanie łatwiej zaprojektować i zbudować system backupu niż w większych przedsiębiorstwach. Wiąże się to przede wszystkim z niewielką, jak na dzisiejsze czasy, ilością koniecznych do zabezpieczenia danych. Do stworzenia takiego środowiska można wykorzystać serwer NAS z dyskami połączonymi w strukturę RAID i dołączonym zewnętrznym twardym dyskiem o dużej pojemności na dodatkową kopię najważniejszych danych. Na taki serwer powinny trafiać kopie plików z firmowych komputerów. Warto także rozważyć wykorzystanie zapasowego serwera NAS w celu wykonywania na niego replikacji danych. Może on być zainstalowany w innym budynku, jednym z oddziałów przedsiębiorstwa bądź w firmie świadczącej usługi kolokacji.

Bardzo ważne jest także odpowiednie zabezpieczenie danych na laptopach. Kopia plików na serwer NAS nie będzie mogła być wykonana, jeśli użytkownik będzie znajdował się poza siedzibą firmy. Dla takich osób warto wykupić biznesową wersję usługi backupu on-line, jak też doradzić wykonywanie regularnych kopii np. na kartę SD włożoną do wbudowanego w laptop gniazda.

Przede wszystkim jednak resellerzy powinni aktywnie interesować się rynkową ofertą. Zmienia się ona bardzo szybko – w serwerach NAS pojawiają się nowe funkcje, przybywa bezpłatnego oprogramowania do backupu (np. niedawno darmowy pakiet do oferty wprowadził Veeam). Producenci oprogramowania starają się też tworzyć aplikacje wyspecjalizowane w zabezpieczaniu i archiwizacji wybranego rodzaju danych, np. poczty elektronicznej.