Urządzenia NAS były do niedawna postrzegane jako „skrzynki” do przechowywania danych. Jednak rosnące potrzeby w zakresie magazynowania plików, a także pojawienie się na rynku alternatywnych produktów sprawiły, że stosunkowo prosty sprzęt ewoluuje w kierunku zaawansowanych rozwiązań. Chyba najlepiej obrazują to innowacje dotyczące modeli przeznaczonych dla średnich i większych przedsiębiorstw. Stanowią odpowiedź na wyzwanie związane z tempem oraz ilością wytwarzanych danych.

Panaceum mają być urządzenia połączone w klastry i zarządzane przez wspólny system operacyjny. Ich wydajność oraz pojemność można skalować w dowolnym momencie zgodnie z wymaganiami użytkowników. Zdaniem analityków ma to być najszybciej rosnący segment systemów NAS, zwłaszcza że producenci będą się starali obrócić ekspansję dostawców usług chmurowych… na swoją korzyść. Wprawdzie na razie niewiele firm decyduje się na przeniesienie wszystkich zasobów cyfrowych do chmury publicznej, ale szybko rośnie popularność systemów hybrydowych. Dlatego jednym z najważniejszych trendów na rynku NAS jest przystosowywanie urządzeń do płynnej współpracy z chmurami Amazona i Google’a lub platformą Windows Azure. W tym celu zaprojektowano systemy umożliwiające obsługę plików w różnych środowiskach – lokalnym, hybrydowym oraz chmurze publicznej. Na tym nie kończą się innowacje, spośród których należy wymienić: zastosowanie pamięci flash, nowe mechanizmy zabezpieczenia danych bądź możliwość obsługi HFDS (Hadoop Distributed File System).

Agencje badawcze, choć dostrzegają trudności, z jakimi borykają się dostawcy serwerów NAS, patrzą na ten sektor rynku z optymizmem. Według MarketsandMarkets w 2023 r. jego wartość wyniesie 45,2 mld dol., a zatem aż o 30 mld dol. więcej niż w 2017 r. Najliczniejszą grupę klientów mają stanowić banki, instytucje finansowe oraz firmy ubezpieczeniowe. Wśród zgłaszających największy popyt na urządzenia znajdzie się też branża ITC, jak również placówki ochrony zdrowia, sklepy oraz segment mediów i rozrywki.

Systemy NAS stanowią istotny element IT w przedsiębiorstwach, ze względu na rosnącą ilość danych nieustrukturyzowanych. Statystyki wskazują, że dane płaskie średnio zajmują 80 proc. całej powierzchni dyskowej w firmach. To rezultat rosnącego udziału multimediów w procesach biznesowych oraz coraz większej liczby logów i dokumentów generowanych w ramach obsługi procesów sprzedaży przez platformy internetowe – mówi Radosław Piedziuk, Unstructured Data Solutions Sales Manager w Dell EMC.

 

Oczekiwania klientów

Jeśli chodzi o produkty NAS dla małych i średnich firm, na polskim rynku karty rozdają dwaj producenci z Dalekiego Wschodu – QNAP oraz Synology. Obaj swoje pozycje zawdzięczają m.in. konkurencyjnym cenom urządzeń. Inaczej przedstawia się sytuacja w segmencie produktów przeznaczonych dla dużych przedsiębiorstw, gdzie do gry włączają się globalne koncerny: Dell EMC, HPE, IBM, NetApp czy Hitachi Vantara.

Popyt na rozwiązania NAS dla małych przedsiębiorstw rośnie ze względu na korzystny stosunek ceny do pojemności. Natomiast w przypadku systemów klasy enterprise sprzedaż utrzymuje się na stałym poziomie. Teoretycznie w tej grupie urządzeń kluczowymi kryteriami wyboru powinny być niezawodność, funkcjonalność i wydajność. Niestety, wciąż zdarza się, że klienci patrzą przede wszystkim na cenę, nie przywiązując większej wagi do parametrów technicznych – mówi Tomasz Spyra, CEO Rafcomu.

Ale nie brakuje także wyedukowanych nabywców o sprecyzowanych wymaganiach, którzy oczekują od systemów z wyższej półki redundantnych kontrolerów, obsługi różnych protokołów komunikacyjnych albo integracji z popularnymi aplikacjami do tworzenia kopii zapasowych oraz systemami wirtualizacji. Natomiast niemal wszyscy klienci biznesowi, niezależnie od pojemności i funkcjonalności kupowanego urządzenia, zwracają uwagę na warunki gwarancji oraz szybkość reakcji serwisowej. Jedną z najchętniej wybieranych przez firmy opcji jest Next Business Day, która zapewnia wsparcie zespołu pomocy technicznej, priorytetowe rozpatrzenie zgłoszenia, a także wysyłkę sprawnego urządzenia w następnym dniu roboczym.

Racjonalne zakupy

W przeszłości przedsiębiorcy kupowali pamięci masowe na zapas, zamawiając nośniki, które miały wystarczyć na kilka lat. Mimo upływu czasu i tak zwykle ok. 30–40 proc. powierzchni dyskowej pozostawało bezczynne. Obecnie kupowanie terabajtów pamięci na wszelki wypadek stanowi zanikające zjawisko. Dokonywanie racjonalnych zakupów ułatwiają chociażby urządzenia NAS scale out. Ich zastosowanie umożliwia rozbudowę systemu przez dodawanie kolejnych jednostek, a całe obciążenie jest rozłożone pomiędzy węzły tworzące klaster. Niezaprzeczalnym walorem tego modelu jest skalowalność, umożliwiająca budowę repozytoriów danych o pojemności rzędu kilku petabajtów. Niemniej na razie klienci preferują tradycyjne NAS-y scale up. Według danych analityków z Global Market Insight ich udział w globalnym rynku NAS przekracza nieco 70 proc. Model scale up zapewnia dodawanie nowych nośników bądź rozbudowę pamięci RAM, aczkolwiek możliwości rozbudowy są w tym wypadku mocno ograniczone.

Klienci wykorzystujący urządzenie do typowych zastosowań, takich jak backup, nie decydują się na rozwiązanie scale out. Natomiast w przypadku bardziej zaawansowanych projektów, wymagających wysokiej dostępności i bezpieczeństwa danych, wdrożenie takiego systemu znajduje racjonalne uzasadnienie – mówi Łukasz Milic, Business Development Representative w QNAP-ie.

W podobnym tonie wypowiada się Maciej Kalisiak, Hybrid IT Presales Leader/Storage Solutions Architect z Hewlett Packard Enterprise.

Cyfryzacja sprawia, że NAS-y scale out zyskują popularność. Jednak małe i średnie przedsiębiorstwa nie potrzebują takich urządzeń, dlatego też podział nadal będzie istniał, choć środek ciężkości przesunie się w stronę rozwiązań scale out – przyznaje Maciej Kalisiak.

Warto dodać, że według prognozy firmy badawczej Global Market Insight popyt na NAS-ów scale out będzie systematycznie rosnąć. Specjaliści przewidują, że światowa sprzedaż tych urządzeń w latach 2018–2024 będzie się zwiększać  w tempie 35 proc. rocznie.

 

Zdaniem integratora

Piotr Samek, inżynier systemowy, ITwdrożenia.pl

Nasi klienci, do których należą małe i średnie przedsiębiorstwa, nie wykazują zbyt dużego zainteresowania systemami NAS. Większość wybiera klasyczne rozwiązania bazujące na wirtualizacji – serwery, macierze SAN, biblioteki taśmowe lub deduplikatory. Nie można też zapominać o mocno promowanych w ostatnim czasie systemach konwergentnych, będących ciekawą alternatywą dla tradycyjnych rozwiązań. Szacuje się, że na całym świecie w ciągu sekundy przyrasta 50 tys. GB danych. Dlatego uważam, że nie można myśleć o prostym magazynowaniu zasobów, za to warto rozważyć wdrożenie systemu scale out, umożliwiającego składowanie danych o bardzo dużych pojemnościach.

SSD to już nie ekstrawagancja

Pamięci flash zaczynają wygrywać rywalizację z dyskami twardymi. Wciąż jednak istnieją obszary, w których „twardziele” trzymają się bardzo mocno. Jednym z największych bastionów HDD pozostają NAS-y. To zupełnie zrozumiałe – dużo łatwiej uzasadnić inwestycję w system all-flash obsługujący aplikacje biznesowe o znaczeniu krytycznym niż wydatek rzędu setek tysięcy złotych na nośniki SSD w urządzeniu służącym do przechowywania plików. Ale coś, co jeszcze do niedawna uznawane było za ekstrawagancję, powoli staje się zwyczajną praktyką. Pamięci flash od pewnego czasu zaczynają pojawiać się w serwerach NAS. Wprawdzie najczęściej używane są do buforowania, ale klienci biznesowi zaczynają je stosować również jako podstawowe nośniki.

Dyski flash do akceleracji znajdują zastosowanie głównie w systemach NAS klasy enterprise. Jest to opcja obowiązkowa w tego typu rozwiązaniach – architektura wewnętrzna tych systemów potrafi wykorzystać potencjał dysków SSD. Natomiast dyski flash w NAS-ach dla rynku MŚP lub też służących do archiwizacji danych nie do końca znajdują uzasadnienie – tłumaczy Tomasz Spyra.

Specjaliści wyliczają, że dwa lata temu udział pamięci flash w powierzchni dyskowej sprzedawanych NAS-ów był niemal zerowy, obecnie zaś wynosi ok. 5 proc. Natomiast gdy uwzględni się kryterium wartościowe, generują one od 10 do 15 proc. przychodów. Wybór odpowiednich nośników do macierzy wymaga odpowiedniej analizy. Ile zatem powinno być dysków SSD w NAS-ie działającym na potrzeby dużej korporacji? Eksperci twierdzą, że w przypadku standardowych zastosowań w zupełności wystarczy ok. 5 proc. całkowitej powierzchni dyskowej. Nieco większe zapotrzebowanie (o 5–10 proc.) występuje w przypadku środowisk zwirtualizowanych generujących dużo operacji. Wraz z upływem czasu udział pamięci flash powinien sukcesywnie rosnąć, do czego przyczynią się ich spadające ceny oraz konieczność zachowania wysokiej jakości usług świadczonych klientom przez firmy. Przykładem może być wideo na żądanie, gdy kilka tysięcy użytkowników chce w tym samym czasie odbierać strumieniowo ten sam materiał filmowy.

 

Zdaniem specjalisty

Maciej Kaczmarek, VAR Account Manager, Netgear

Firmy zaopatrujące się w serwery NAS zwracają przede wszystkim uwagę na poziom zabezpieczeń oferowanych przez urządzenia. Dotyczy to ochrony przed awarią sprzętową, błędami ludzkimi czy też złośliwym oprogramowaniem. Dlatego ważne są takie funkcje jak: tworzenie migawek, szyfrowanie czy antywirusy. Klienci przywiązują też coraz większą wagę do czasu obowiązywania gwarancji, co bezpośrednio przekłada się na użyteczność urządzenia, gdyż w przypadku awarii w okresie pogwarancyjnym NAS może stać się pułapką dla danych.

Łukasz Milic, Business Development Representative, QNAP

NAS dla wielu klientów to głównie dysk sieciowy na pliki i backupy. Jednak część użytkowników zaczyna przekonywać się, że dobry NAS to bardziej zaawansowany serwer sieciowy niż współdzielony dysk. Wśród funkcji, które użytkownicy doceniają szczególnie, należałoby wymienić tworzenie migawek, wyższe poziomy RAID czy replikację danych. Na popularności zyskują opcje uruchamiania maszyn wirtualnych oraz kontenerów, które zwiększają funkcjonalność. Więksi klienci do pracy z produkcyjnymi danymi wciąż wykorzystują macierze z wyższej półki, przykładowo jako przestrzeń na pliki maszyn wirtualnych, natomiast często NAS służy do przechowywania kopii bezpieczeństwa. Mniejsze firmy traktują NAS-y jako bardziej ekonomiczną alternatywę dla macierzy.

Przemysław Biel, Key Account Manager Poland, Synology

Popyt na urządzenia NAS ciągle rośnie i taka tendencja powinna się utrzymać w nadchodzących latach. Lokalny dostęp do szybkiego serwera plików jest nie do zastąpienia przez chmurę publiczną. Zwiększają się także możliwości systemów NAS, które obecnie są bardzo uniwersalnymi rozwiązaniami typu All-in-One, zapewniającymi oprócz pamięci masowej i kopii bezpieczeństwa także serwer aplikacyjny i wirtualizację. Bardzo dużym zainteresowaniem cieszą się też systemy monitoringu, w których NAS-y mają ogromną przewagę nad specjalistycznymi rozwiązaniami.

 

Chmura tak, ale hybrydowa

Amazon, Microsoft i Google zachęcają przedsiębiorców, żeby przenieśli swoje dane do chmury publicznej. Ma być taniej, łatwiej i bezpieczniej – obiecują usługodawcy. Jednak firmy bardzo rzadko decydują się na całkowitą migrację do środowiska chmurowego.

Idea chmury powstała ze względu na chęć ograniczenia kosztów i uproszczenia zarządzania infrastrukturą IT. Niemniej obecnie najbardziej rozpowszechnione są systemy hybrydowe. Zasoby aktywne znajdują się na urządzeniach NAS, a dane nieużywane są archiwizowane w chmurze publicznej – tłumaczy Radosław Piedziuk, z Dell EMC.

Zazwyczaj NAS-y klasy enterprise zawierają rozwiązanie „cloud tiering”, które zapewnia automatyczne przenoszenie danych z urządzania do chmury publicznej zgodnie ze zdefiniowanymi regułami – mogą to być chociażby zasoby nieużywane przez określony przedział czasu. Natomiast wszystkie modele, również przeznaczone dla odbiorców domowych, są przystosowane do współpracy z AWS czy Microsoft Azure. Choć producenci systemów NAS starają się maksymalnie uprościć wymianę danych pomiędzy środowiskiem lokalnym a chmurowym, na rynku pojawiają się startupy, które twierdzą, że mają lepsze pomysły na konsolidację. Produkty Panzura, Elastifile, Weka IO, Igneous Systems czy Qumulo zyskują zwolenników za oceanem, a niektóre z nich zdążyły nawet dotrzeć na Stary Kontynent.

Na czym właściwie polegają wprowadzane przez nich innowacje? Ciekawy przykład stanowi Qumulo, które opracowało skalowalny system pamięci masowej przystosowany do pracy zarówno w lokalnym centrum danych, jak i chmurze publicznej. Architektura tego rozwiązania stwarza nieograniczone możliwości w zakresie magazynowania dowolnych plików. Sztuka dla sztuki? Niekoniecznie. Jednym z klientów startupu jest wytwórnia Dreamworks, której najbardziej popularne filmy zawierają pół miliarda plików. Szefowie Qumulo przyznają, że oprócz przechowywania danych nie mniej ważne jest szybkie dotarcie do potrzebnych informacji. W tym celu wdrożyli mechanizmy zapewniające szybkie wyszukiwanie plików.

Równie interesująca okazuje się koncepcja firmy Igneous Systems. Startup oferuje usługę tworzenia kopii zapasowych z wielu NAS-ów. Usługodawca konsoliduje backup w pojedynczym urządzeniu. Dane przechowywane są w środowisku klienta, natomiast nadzór nad nimi oraz zarządzanie odbywa się za pośrednictwem chmury publicznej. Igneous kieruje usługę do klientów korporacyjnych i sprzedaje ją wyłącznie za pośrednictwem resellerów i integratorów IT. Ciekawostką jest, że założyciele Qumulo oraz Igneous System odgrywali kluczowe role w firmie Isilon, która obecnie należy do Dell EMC.

 

Alternatywa dla NAS-ów

Wraz z lawiną przyrastających danych zaczęły pojawiać się nowe pomysły na ich przechowywanie. O ile w przypadku małych firm i gospodarstw domowych najlepszym rozwiązaniem wydaje się NAS lub usługa chmurowa, o tyle przedsiębiorstwa mają zdecydowanie większy wybór. W ostatnich czasach na fali wznoszącej znajduje się pamięć obiektowa. Technologia – poza tym, że umożliwia dowolne skalowanie systemu – jest stosunkowo tania, wykorzystuje bowiem serwery x86. Dodatkową korzyścią ze stosowania pamięci obiektowej jest możliwość jej rozproszenia geograficznego i zbudowania systemu obejmującego więcej niż dwie lokalizacje. Niektórzy uważają, że to rozwiązanie zastąpi w przyszłości modele przechowywania danych bazujące na blokach i plikach. Jednym z największych orędowników tego standardu jest Amazon. Jednak należy mieć na uwadze, że wybór pomiędzy pamięcią obiektową a plikami zależy od typu danych i sposobu dostępu do nich.

Pamięci obiektowe są przewidziane dla aplikacji komunikujących się za pośrednictwem standardów S3 lub REST-API. W tej technologii składuje się dane o niskiej zmienności, przykładowo w celu długoterminowej archiwizacji. NAS w systemie scale out jest rozwiązaniem przeznaczonym do przechowywania cyfrowych zasobów o dość dużej zmienności. Mogą to być też dane archiwalne, do których dostęp jest zapewniany za pomocą protokołów plikowych NFS, SMB oraz FTP – wyjaśnia Radosław Piedziuk.

Dostawcy NAS z uwagą powinni przyglądać się sytuacji na rynku rozwiązań hiperkonwergentnych, łączących w pojedynczym systemie zasoby obliczeniowe, pamięć masową i sieć. Zaletą tej grupy produktów jest łatwość rozbudowy, umożliwiająca stosunkowo szybkie dodawanie niewielkich zasobów powierzchni dyskowej i mocy obliczeniowej.

Z systemem hiperkonwergentnym jest trochę jak z iPhone’em. Pobierając najnowszą wersję systemu operacyjnego, otrzymujesz nowe funkcje – przyznaje Adrian Davies, Manager IT w firmie Stockport Council.

Jednak iPhone’y przegrywają rywalizację ze smartfonami z Androidem, podobnie jak platformy hiperkonwergentne z macierzami SAN czy serwerami NAS. Podstawową przewagą tych ostatnich jest dojrzałość i wieloletnia obecność na rynku. Zwolennicy systemów NAS zwracają uwagę na wydajność czy elastyczność konfiguracji, jak również, rzecz jasna, niższą cenę. Ten ostatni argument nadal ma na polskim rynku pierwszorzędne znaczenie.  Dlatego rodzimi  integratorzy sprzedający NAS-y mogą spać spokojnie.