O tym, że w Polsce firmy nie przykładają należytej wagi do swoich systemów pamięci masowych, wiadomo nie od dziś. Od lat wszyscy główni dostawcy tych produktów podkreślają, że użytkownicy niemal zawsze wybierają urządzenia z dolnej półki. Chlubny wyjątek stanowią duże korporacje, które kupują sprzęt do swoich centrów danych i firmy świadczące usługi IT na dużą skalę. W pozostałych przypadkach przyczyną obecnego stanu rzeczy jest zwykle mała ilość przetwarzanych danych. Nie zmienia to faktu, że nawet mniejsi przedsiębiorcy powinni spojrzeć na zagadnienie szerzej. Bardziej rozbudowane systemy pamięci masowych umożliwiają budowę środowiska IT odpornego na awarie, w którym usterka sprzętu czy nawet katastrofa nie spowodują przestoju. Markowy sprzęt gwarantuje też wysoką wydajność, czego nie zawsze można oczekiwać po najtańszych produktach.

Kolejna kwestia wiąże się z „inteligentnym” oszczędzaniem. Pamięci masowe to bowiem jedno z niewielu rozwiązań IT, w przypadku których oszczędzać należy nie tyle w momencie ich kupowania, ile podczas późniejszej eksploatacji. Obszarów, w których można ograniczyć wydatki, jest w tym wypadku wiele. Firmy, które potrzebują przechowywać zarówno pliki, jak i bloki (bazy danych), powinny rozważyć nabycie macierzy dyskowej typu unified, która umożliwia gromadzenie danych w obu postaciach. Urządzenia tego typu znajdują się w sprzedaży już od dekady, ale – co dziwne – nie są często stosowane przez administratorów. Zazwyczaj wolą oni kupić dwa oddzielne urządzenia – serwer NAS do przechowywania plików i zwykłą macierz, której pojemność jest udostępniana serwerom przez sieć SAN.

Takie podejście ma sens tylko w przypadku bardzo dużych środowisk, gdzie ilość przetwarzanych danych liczona jest w dziesiątkach lub setkach terabajtów. W mniejszych spokojnie można wdrożyć macierz uniwersalną. Warto jednak zwrócić uwagę, w jaki sposób realizowany jest w niej dostęp do przechowywanych plików. Część oferowanych na rynku produktów to zwykłe macierze blokowe, do których dodawane jest oddzielne urządzenie (tzw. głowica NAS) zapewniające odczyt plików. Taka konstrukcja negatywnie wpływa na wydajność rozwiązania, a obecność dodatkowego sprzętu zwiększa prawdopodobieństwo przestoju systemu w chwili awarii. Dlatego warto rozważyć zakup macierzy z kontrolerem standardowo zapewniającym obsługę plików i bloków.

 

Nowoczesny sprzęt – mniejsze koszty

Niemałe oszczędności można uzyskać w związku z wymianą macierzy na nowy model, chociażby ze względu na brak wystarczającej mocy obliczeniowej kontrolera lub rosnące ceny wsparcia technicznego. Proces ten z reguły jest dość skomplikowany i długotrwały. W ekstremalnych przypadkach tego typu migracja trwa nawet rok. Dlatego warto przyjrzeć się urządzeniom, które umożliwiają rozbudowę do nowszego modelu przez wymianę kontrolera macierzowego. Obudowa, zasilacze, wentylator i – co najważniejsze – twarde dyski z danymi pozostają te same (data in place).

Bardzo ważne jest też zmniejszenie objętości przechowywanych danych przez deduplikację i kompresję, dostępne w coraz większej liczbie macierzy dyskowych. Kompresja sprawdza się dobrze w przypadku każdego rodzaju danych, które nie są skompresowane z natury (tak jak pliki multimedialne czy zdjęcia), a szczególnie w bazach danych. Deduplikacja natomiast dobrze działa w środowiskach wirtualnych, a przede wszystkim przy wirtualizacji desktopów. W korporacji bowiem praktycznie każdy z nich bazuje na takim samym „złotym” obrazie systemu operacyjnego. Natomiast równoległe korzystanie z obu sposobów nie ma większego sensu, bo pożytek z odzyskanej przestrzeni będzie niewiele większy, niż gdyby klient korzystał tylko z jednego z dwóch rozwiązań. Poza tym zarówno deduplikacja, jak i kompresja wpływają negatywnie na wydajność macierzy. Warto więc stosować je głównie w bardziej wydajnych urządzeniach i tylko wtedy, gdy mamy pewien zapas mocy obliczeniowej.

W przypadku macierzy zawierających dużą liczbę twardych dysków znaczny koszt stanowi też pobierana przez nie energia elektryczna. Jeżeli klient ze względów finansowych nie zdecyduje się na urządzenie typu all-flash, można mu zaproponować model wyposażony w mechanizm spowalniania pracy bądź wręcz wyłączania nieużywanych w danym momencie twardych dysków.

Maciej Kaczmarek

VAR Account Manager, Netgear

Klientom warto proponować serwery NAS, które zapewniają integrację z usługami chmurowymi. Nawet jeśli firma na razie z chmury nie korzysta, powinna mieć tę furtkę otwartą. Żadna macierz dyskowa w serwerowni klienta nie zapewni tak taniego przechowywania danych jak dostępne dziś usługi. Dlatego, z czysto ekonomicznego powodu, wkrótce znaczna większość przedsiębiorstw będzie przechowywała swoje kopie zapasowe czy dane nieobjęte szczególną klauzulą poufności właśnie w centrach danych firm trzecich.

 

– Takie rozwiązanie praktycznie wcale nie wpływa na spadek wydajności, a zapewnia duże oszczędności. Przy włączonym trybie pracy ekologicznej w skali roku spadek pobieranej mocy wynosi nawet 40 proc. – mówi Wojciech Wróbel, product manager ds. pamięci masowych w Fujitsu TS.

 

Problemy ze skalowalnością

Kupno i wdrożenie macierzy dyskowej to dopiero początek drogi. Prawdziwe wyzwanie pojawia się, gdy urządzenie przestaje wystarczać z powodu nadmiernego obciążenia lub braku możliwości dołożenia kolejnych dysków. Niemożność rozbudowy to ślepy zaułek i w takie urządzenia można inwestować wyłącznie wtedy, gdy firma ma niewielkie potrzeby, a sprzęt kupowany jest z bardzo dużym zapasem, zarówno mocy obliczeniowej, jak też przestrzeni na dodatkowe dyski.

Macierze dyskowe można rozbudowywać na trzy sposoby. Podstawowy (scale-in) to dołożenie dodatkowych dysków lub kontrolerów wewnątrz głównej obudowy. Najbardziej popularny model (scale-up) to instalacja tzw. półek dyskowych z dodatkowymi napędami, ale bez kontrolerów, a więc bez zwiększania mocy obliczeniowej przekładającej się na wydajność. W ramach kolejnego modelu (scale-out) do urządzenia dokładane są półki dyskowe zawierające zarówno napędy, jak i kontroler, dzięki czemu zapewniona jest dodatkowa pojemność i wydajność.

– Macierze, które można rozbudowywać w modelu scale-out, są coraz mniej popularne i obecnie powoli wycofywane z rynku – mówi Artur Capiga, inżynier wsparcia technicznego w ABC Data Value+. – Moc obliczeniowa kontrolerów instalowanych w macierzach jest dziś tak duża, że w większości przypadków model scale-up jest zupełnie wystarczający. Firmy, które potrzebują rozbudować wydajność macierzy, dodają dyski SSD, konfigurując je jako rozszerzenie pamięci cache lub też jako bardzo wydajną przestrzeń na dane. Korzystają również z możliwości wymiany kontrolerów na wydajniejsze albo kupują nowsze, bardziej wydajne urządzenie.

Zdaniem niektórych firm rozwiązanie problemu skalowalności przyniesie model Software Defined Storage. W dużym uproszczeniu polega on na tym, że serwer z oprogramowaniem zarządzającym agreguje dostępne w firmowej sieci urządzenia dysponujące możliwą do zapisania przestrzenią. Należą do nich macierze, zainstalowane w serwerach dyski, karty PCIe z chipami flash, a czasem nawet pamięć operacyjna serwerów. Aplikacja SDS analizuje częstotliwość zapisu i odczytu poszczególnych informacji i w zależności od tego umieszcza je na wolniejszych lub szybszych nośnikach (automated storage tiering).

 

W zamyśle twórców tego typu rozwiązań jest eliminacja konieczności kupowania nowych systemów sprzętowych. Zamiast tego proponują bardziej optymalne wykorzystanie już posiadanych i ewentualne uzupełnienie ich o karty PCIe, które gwarantują wzrost wydajności całego środowiska. Przeprowadzone testy, m.in. przez niezależną organizację Storage Performance Council, wykazały, że pod względem wydajności rzeczywiście jest to skuteczna metoda i, co ważne, najtańsza. Ale jej przeciwnicy wskazują, że wiąże się ona ze zbyt dużym rozdrobnieniem nośników ważnych firmowych informacji i powstaniem wielu pojedynczych punktów awarii.

 

W trosce o wysoką dostępność

Zapewnienie odpowiedniej wydajności systemu pamięci masowych gwarantuje możliwość korzystania z danych. W dużych środowiskach nagły spadek wydajności macierzy i związana z nim przerwa w pracy aplikacji traktowane są jak awaria sprzętu, gdyż w efekcie pracownicy nie są w stanie obsługiwać klientów. Dlatego część producentów zapewnia w macierzach mechanizmy Quality of Service (QoS) gwarantujące dostępność zasobów dla poszczególnych aplikacji. Ich konfiguracja przysparza jednak trochę problemów mniej doświadczonym administratorom. Pojawiły się więc urządzenia, w których to kontroler macierzowy i zainstalowane w nim oprogramowanie dba o rezerwację właściwej ilości zasobów, bazując na ciągłej obserwacji i analizie ich wykorzystania przez aplikacje (Auto QoS).

Ale rozwiązań, które związane są z zapewnieniem wysokiej dostępności, jest znacznie więcej. Przede wszystkim warto zainteresować się możliwością prowadzenia replikacji do drugiego urządzenia – w tej samej lub oddalonej serwerowni. Naturalnie wiąże się to z podwojeniem wydatków, ale rachunek ewentualnych strat wynikających z przestoju może pokazać, że to się opłaca. Warto też sprawdzić, czy dana macierz zapewnia replikację na drugie urządzenie tego samego producenta bez pośrednictwa dodatkowego serwera.

 

Błyskawiczne pamięci

Od kilku lat rynek szturmem zdobywają nośniki z pamięcią flash. Twarde dyski bowiem pozostały ostatnim mechanicznym komponentem w urządzeniach IT (nie licząc wentylatorów oczywiście), a ich wydajność praktycznie nie wzrosła przez ostatnią dekadę. Kości flash najpierw były wykorzystywane głównie w urządzeniach konsumenckich, ze względu na wysoką cenę oraz zbyt niską trwałość, która nie wystarczała do profesjonalnych zastosowań. Finalnie jednak producenci, upatrujący w dyskach SSD szansy na wzrost wydajności macierzy, zdecydowali się na proponowanie ich klientom biznesowym.

 

Macierze all-flash można podzielić na trzy grupy. Pierwsza to zwykłe macierze dyskowe, do których producent dostarcza także dyski SSD. Zapewniają one znaczny wzrost wydajności, ale warto pamiętać, że w większości przypadków wydajność kontrolera była planowana z uwzględnieniem tylko twardych dysków. Po zainstalowaniu pamięci SSD w skrajnych przypadkach (przede wszystkim w mniejszych serwerach NAS) sytuacja może się odwrócić i to kontroler (a nie – jak wcześniej – twarde dyski), może stanowić wąskie gardło. Druga grupa urządzeń to macierze zaprojektowane od podstaw do pracy z dyskami SSD lub specjalnymi modułami pamięci flash. Gwarantują największą wydajność, bo ich kontrolery od początku były przystosowane do pracy z tego typu nośnikiem. Trzecia grupa to macierze ze zmodyfikowanym – pod względem wydajności – kontrolerem, w których można zainstalować zarówno dyski SSD, jak i HDD oraz automatycznie przenosić między nimi dane, w zależności od tego, jak często są wykorzystywane (tiering).

Czynnikiem, który najbardziej odstrasza klientów zainteresowanych macierzami all-flash, jest cena. Nawet, gdy ich zakup jest uzasadniony ze względów wydajnościowych, wydatek rzędu kilkudziesięciu lub kilkuset tysięcy dolarów często przeraża. Dlatego twórcy kości flash nie ustają w modernizowaniu swoich produktów. Nowy standard 3D NAND TLC zapewnia dobrą wydajność za ułamek ceny wcześniej oferowanych pamięci. Niestety, odbywa się to także kosztem trwałości zapisanych danych. Dlatego wciąż trwają dysputy, czy nośniki te powinny być wykorzystywane do przechowywania najbardziej cennych danych.

Radomir Bordon

dyrektor technicznego wsparcia sprzedaży, Dell EMC

Obecnie inwestycje w macierze hybrydowe z dyskami HDD i SSD mają największy sens tylko w przypadku składowania danych niestrukturalnych oraz najmniej krytycznych aplikacji. Natomiast dla wszystkich systemów transakcyjnych oraz aplikacji o kluczowym znaczeniu podstawowym rozwiązaniem stają się platformy macierzowe typu all-flash.