Wybór właściwego rozwiązania pamięci masowej do firmowego środowiska IT od zawsze stanowił wyzwanie. Wśród parametrów, które trzeba wziąć pod uwagę jest wydajność kontrolera i nośników, skalowalność, sposób udostępniania zgromadzonych danych użytkownikom oraz możliwość współpracy urządzenia z wykorzystywanymi w przedsiębiorstwie aplikacjami.

Tymczasem rynek pamięci masowych staje się coraz bardziej nieprzewidywalny. Inwestowanie w rozwiązania dostawców spoza pierwszej dziesiątki okazało się trochę ryzykowne – w ciągu ostatnich kilku lat większość tego typu firm została kupiona przez konkurencję lub innych producentów z branży (taki los podzieliły m.in.: 3par, BlueArc, Brocade, Data Domain, Dot Hill Systems, Isilon, Nimble Storage, SanDisk, Sepaton, SolidFire, sTec, Storwize, Tegile Systems, Texas Memory Systems, Whiptail i XtremIO). Wisienką na torcie było oczywiście przejęcie EMC przez Della w 2015 r.

Klienci natomiast często wyrażają obawy, że zniknięcie z rynku producenta rozwiązania, które kupili, może wywołać perturbacje: brak wsparcia, dostępności części zamiennych, aktualizacji oprogramowania etc. Nastroju nie poprawiają im nawet deklaracje, że kupujący będzie honorował umowy utrzymania zawarte przez nabywaną firmę.

Zniknięciu ponad 20 ważnych graczy z rynku pamięci masowych w ciągu ostatniej dekady towarzyszą zintensyfikowane prace prowadzone głównie przez producentów kości pamięci nad zmianami sposobu zapisywania danych na nośnikach oraz uzyskiwania dostępu do nich. To rodzi kolejne obawy, że kupione urządzenie po dwóch latach może być przestarzałe, a koszty utrzymania wsparcia technicznego – zbliżyć do wartości nowego rozwiązania. Niestety, wszystko wskazuje na to, że tego typu dylematów klienci będą mieli wiele. Dlatego rola ich doradców z zakresu IT stała się nie do przecenienia.

 

1. Flash będzie wszędzie

O tym, że przyszłość rynku storage związana jest z kośćmi pamięci typu NAND chyba nikogo nie trzeba przekonywać. Powstające z ich wykorzystaniem dyski flash są dziś na tyle tanie, że kupowanie komputera bez SSD nie ma już sensu. Oczywiście opłata za jednostkę pojemności wciąż jest w nich kilkukrotne wyższa niż w przypadku dysków mechanicznych, ale liczba korzyści płynących ze stosowania półprzewodnikowych pamięci do trwałego przechowywania danych jest znacząca.

Technologia produkcji kości pamięci, których zawartość nie ulega utracie po odłączeniu zasilania, cały czas jest rozwijana – prognozuje Wojciech Wróbel, Presales Manager w Fujitsu. – Komórki TLC przechowujące trzy bity informacji, stosowane są już przez wszystkich dostawców pamięci flash dla przedsiębiorstw. Trwają też intensywne prace nad układami QLC, w których zapisywane będą 4 bity. Standardem stały się też już kości 3D NAND, charakteryzujące się kilkoma nałożonymi na siebie warstwami komórek pamięci. Dzięki temu zdecydowanie wzrosła pojemność pojedynczych dysków SSD. Obecnie producenci macierzy wprowadzają do oferty nośniki o pojemności 30 TB, a więc już dwukrotnie większej niż zapewnia najbardziej pojemny twardy dysk. Natomiast pojawienie się zapowiedzianych przez nich dysków 60 i 120 TB to tylko kwestia czasu.

Od kilku lat intensywnie promowane są macierze all-flash (więcej na ten temat w artykule „Nowe życie pamięci flash dzięki NVMe”,  str. 22), ale wzrost ich sprzedaży nie jest tak imponujący, jak zakładali to ich producenci. Konieczność zastosowania bardzo wydajnych kontrolerów, szybkich kart sieciowych i – przede wszystkim – wielu dysków z pamięcią flash o wzmocnionej trwałości spowodowała, że ceny tego typu urządzeń nadal wynoszą setki tysięcy złotych. Usprawiedliwia to tylko fakt, że korzyści z ich stosowania jest wiele – mniejszy pobór prądu, oszczędność miejsca w serwerowni i łatwość uzyskania wysokiej wydajności z zastosowaniem mniejszej niż w przypadku HDD liczby nośników.

Jednak konieczność poniesienia dużego kosztu na zakup macierzy all-flash robi swoje. Dlatego klienci ostrożnie podchodzą do tych urządzeń. Nie pomagają nawet próby „obudowania” oferty dodatkowymi bonusami. Ostatnio popularne stały się gwarancje, w ramach których producenci zapewniają uzyskanie przez klienta konkretnego współczynnika kompresji i deduplikacji. Z reguły wynosi on 3:1 lub 5:1 (w przypadku, gdy gwarancja nie zostanie dotrzymana, producent zobowiązuje się do dostawy bezpłatnych dysków flash, które zapewnią obiecaną pojemność). Niektórzy producenci gwarantują też teoretycznie bezpłatną wymianę kontrolera macierzy na nowszy model co kilka lat. Teoretycznie, bo gwarancja taka obowiązuje tylko wtedy, gdy klient regularnie korzysta z usług wsparcia, a więc rozliczając się za nie, bierze na siebie koszt wymiany kontrolera.

Finalnie efekt jest taki, że przedsiębiorstwa zainteresowane są głównie inwestycjami w macierze hybrydowe. Możliwość zainstalowania w nich dysków SSD i stworzenia tzw. warstwy 0 jest wystarczająca w większości przypadków, gdy konieczne jest zwiększenie wydajności macierzy, a firmy nie stać na rozwiązanie typu all-flash. Rosnącą popularnością cieszą się też karty rozszerzeń PCIe do macierzy, na których zainstalowane są kości pamięci flash, wykorzystywane jako cache odczytu.

 

2. Jeszcze lepsza ochrona danych

W macierze dyskowe standardowo wbudowuje się coraz więcej mechanizmów zapewniających bezpieczeństwo informacji. Do nowych funkcji należy m.in. ochrona nie tylko przed zwykłą utratą danych, ale także przed skutkami ataków cyberprzestępców. Najlepiej z zapewnieniem bezpieczeństwa radzą sobie obecnie wielofunkcyjne serwery NAS takich firm jak QNAP, Synology czy Netgear. Na bogatej liście działającego w nich software’u znajduje się m.in. oprogramowanie antywirusowe oraz narzędzia umożliwiające backup online do chmury.

We wszystkich systemach dyskowych duży wpływ na wyższy poziom ochrony ma zastosowanie pamięci flash jako nośnika danych. Dzięki temu wiele procesów odbywa się szybciej, jak np. odtworzenie struktury RAID, wykonanie kopii migawkowych czy kontrola spójności bloków danych lub systemów plików.

Producenci macierzy dyskowych coraz aktywniej współpracują też z dostawcami oprogramowania do backupu i innych narzędzi ochronnych. Już wkrótce można spodziewać się szeregu certyfikowanych pakietów, dzięki którym aplikacja odpowiadająca za bezpieczeństwo danych będzie wykorzystywała pamięć masową jako jeden z elementów do zapewniania ochrony, np. będzie korzystała z kopii migawkowych do odzyskiwania plików i przywracania komputera do pracy po skutecznym zaszyfrowaniu jego dysku w wyniku działania ransomware’u.

3. Storage w chmurach

Pierwsze próby przechowywania danych w publicznej chmurze (StaaS – Storage as a Service,), do których zapewniony miał być szybki i gwarantowany dostęp, wywoływały tylko uśmiech politowania. Nawet gdy korzystano z oferty usługodawcy, którego siedziba znajdowała się niedalekiej odległości od klienta, czas dostępu do danych wynosił kilkanaście lub kilkadziesiąt milisekund (a więc kilkukrotnie więcej niż w przypadku macierzy dyskowej zainstalowanej lokalnie). Szybkość transferu danych też pozostawiała wiele do życzenia, a poza tym trudno było zagwarantować jego stabilność. Oferta przechowywania danych w chmurze nie cieszyła się  dużym zainteresowaniem, klienci czekali, aż wypracowane zostaną nowe modele biznesowe, które usprawiedliwią ten model – zarówno pod względem biznesowym, jak i operacyjnym.

Ten czas nadszedł właśnie teraz. Łącza internetowe są znacznie lepszej jakości, mamy też coraz więcej krajowych dostawców usług StaaS, co zapewnia nie tylko szybszy dostęp do danych, ale też gwarantuje zgodność z restrykcyjnym europejskim prawem. Przechowywanie danych w zewnętrznej serwerowni zyskało też sens w sytuacji, gdy dostęp do nich jest niezbędny dla dużej liczby pracowników wykonujących swoje obowiązki poza siedzibą firmy. Wówczas zapewnienie gwarantowanej łączności z zewnętrznym centrum danych jest łatwiejsze niż budowa infrastruktury wysokiej dostępności (z uwzględnieniem podwójnego łącza internetowego, zasilania, klimatyzacji itd.) w lokalnej, firmowej serwerowni.

Coraz częściej dochodzi też do sytuacji, że – aby zapewnić sobie gwarancję szybkiego dostępu do danych – firmy chcą mieć możliwość bezpośredniego przesyłania danych między chmurami różnych dostawców, bez pobierania ich do lokalnego repozytorium i wysyłania z powrotem. Dostawcy usług zauważyli już tę potrzebę, więc w najbliższym czasie można spodziewać się ich reakcji – współpracy z konkurentami bądź udostępnienia otwartych interfejsów zapewniających transfer danych między chmurami. Taką operację umożliwiają już niektóre aplikacje do backupu i archiwizacji danych w przedsiębiorstwach.

 

 

Zdaniem specjalisty

Grzegorz Bielawski, Country Manager, QNAP

Przeprowadzone przez naszych inżynierów eksperymenty dowiodły, że mechanizm wykonywania kopii migawkowych z powodzeniem może być wykorzystywany do odzyskiwania danych zaszyfrowanych przez ransomware. Wystarczy regularnie wykonywać kopie zapasowe plików z komputerów na serwer NAS, w którym włączona jest funkcja migawek. Po zaobserwowaniu działania ransomware’u, zarażony komputer oraz serwer NAS należy odłączyć od sieci, usunąć z komputera złośliwy kod szyfrujący pliki przy pomocy oprogramowania antywirusowego, a następnie połączyć z serwerem NAS i korzystając z menedżera migawek odzyskać wszystkie pliki.

Jerzy Adamiak, konsultant ds. systemów pamięci masowych, Alstor

W przypadku pamięci masowych duży sens ma wykorzystanie sztucznej inteligencji. Silniki AI zapewniają nowe sposoby analizy danych – wykorzystywane są przede wszystkim do optymalizacji mechanizmów deduplikacji i kompresji, zwiększania wydajności macierzy dzięki priorytetyzacji zdań w zależności od potrzeb aplikacji, uproszczenia działań administracyjnych i ich automatyzacji oraz zwiększenia poziomu ochrony macierzy i zgromadzonych w niej danych. Algorytmy głębokiego uczenia mogą też pomóc administratorom w podejmowaniu decyzji, które dane mogą trafić do chmury publicznej, a które powinny pozostać na macierzach zgromadzonych w siedzibie firmy.

Maciej Kaczmarek, VAR Account Manager, Netgear

Z badań analityków wynika, że ilość danych w firmach rośnie przynajmniej o 10 proc. rocznie, a wyjątkiem nie jest wcale przyrost rzędu 25 proc. Na tak duży wzrost wpływ ma fakt, że przedsiębiorstwa realizują coraz więcej projektów, w których podstawą są cyfrowe dane. Natomiast jeżeli wśród nich znajdą się pliki multimedialne, ilość potrzebnego miejsca na dane nagle rośnie wykładniczo. Przestrzeń w serwerowni, szczególnie w mniejszych firmach, jest ograniczona. Dlatego warto jest rozszerzyć swoje portfolio rozwiązań o macierze, których projektanci zadbali o oszczędność zajmowanego przez nie miejsca.

 

4. Sieć ma znaczenie

Pojawienie się w centrach danych szybkich pamięci flash (których prędkość jeszcze wzrośnie dzięki interfejsowi NVMe i pamięci RAM bazującej na kościach NAND) spowodowało, że nośniki informacji przestały być wąskim gardłem, a stała się nim sieć. Co prawda, istnieje wiele rozwiązań infrastruktury sieciowej, które gwarantują szybki i pozbawiony opóźnień transfer danych, ale nie są one często wykorzystywane w firmach, a już na pewno nie w małych i średnich. Wciąż są drogie i dość skomplikowane we wdrożeniu i obsłudze.

Wygląda jednak na to, że jeśli klienci potrzebują wydajnej pamięci masowej, będą zmuszeni także do rozbudowy sieci. Jeszcze większym wyzwaniem będzie sytuacja, w której zapotrzebowanie na tę wydajność będzie rosło w czasie. Takim firmom powinno się rekomendować urządzenia uniwersalne, w których można instalować porty sieciowe o różnej prędkości (w tym 40/100 Gb/s), a także aktualizować oprogramowanie, gdy pojawią się nowe protokoły (jak np. wprowadzany właśnie na rynek NVMe over Fabrics (NVMe-oF).

5. Troska o jakość

Dziedziną często pomijaną w przypadku pamięci masowych jest tzw. jakość usługi (Quality of Service). Parametr ten porównuje czas, w którym następuje reakcja macierzy na żądanie serwera lub komputera dotyczące dostarczenia danych, z tym, czego oczekują administratorzy. Zdefiniowane przez nich szybkości transferu oczywiście będą bardzo różne w zależności od sytuacji. Podczas gdy dla użytkownika nie ma większego znaczenia, czy jego dokument otworzy się lub zapisze w ciągu pół sekundy czy dwóch, tak dla serwera transakcyjnego wydłużenie czasu wykonania operacji z jednej milisekundy do dwóch oznacza utratę połowy wydajności.

Większość macierzy umożliwia analizę parametrów QoS i przedstawienie danych w postaci statystycznej. Ale ewentualne dostrojenie systemu, gdy jego wydajność nie jest satysfakcjonująca, należy do administratora i niestety, nie jest to proste zadanie. Dlatego warto zainteresować się macierzami, które mają wbudowany mechanizm Auto QoS. Jest on realizowany przez oprogramowanie w kontrolerze macierzy, które automatycznie priorytetyzuje zadania zapisu i odczytu oraz dobiera z dostępnej puli nośniki o odpowiedniej wydajności. Tak, aby w pierwszej kolejności sprostać zdefiniowanym przez administratora wymogom QoS.