Zewnętrzne macierze dyskowe od wielu lat odgrywają pierwszoplanową rolę w centrach danych, ale stanowią też jeden z jego najdroższych elementów. Krytycy macierzy dyskowych na pierwszym miejscu wymieniają wysokie koszty związane nie tylko zakupem tych urządzeń, ale również zasilaniem, chłodzeniem oraz zarządzaniem. To poważne wyzwanie dla działów IT, bo jak wynika z danych Forrester Research, ilość cyfrowych zasobów w przedsiębiorstwach rośnie dziesięć razy szybciej niż budżety przeznaczone na pamięci masowe.

Nie mniej błahy problem stanowi ograniczona skalowalność oraz integracja z systemami zewnętrznymi. Najwięksi producenci zza oceanu mają bardzo zróżnicowane portfolio, często rozszerzane poprzez wchłanianie mniejszych graczy, co uniemożliwia uzyskanie spójności pomiędzy poszczególnymi produktami. Według Forrester Research 58 proc. dostawców potrzebuje tygodni lub miesięcy, żeby dostosować pamięci masowe do aktualnych potrzeb, a jedynie 14 proc. potrafi to uczynić równie szybko jak najwięksi dostawcy usług chmurowych.

Pomimo znanych mankamentów gros przedsiębiorców nadal stawia na macierze dyskowe. Jak wynika zw danych IDC, pozostają one najpopularniejszym rozwiązaniem w segmencie pamięci masowych dla przedsiębiorstw. W ostatnim kwartale 2017 r. globalna wartość sprzedaży tej grupy urządzeń osiągnęła poziom 6,6 mld dol., co oznacza 1,8-proc. wzrost w ujęciu rocznym. Nie jest to imponujący skok, gdy bierze się pod uwagę ilość cyfrowych zasobów generowanych przez świat biznesu.

Jednakże wolno rosnące wydatki na macierze dyskowe wynikają z co najmniej kilku przyczyn – z  jednej strony ze spadku cen nośników, z drugiej zaś z innowacyjnych funkcji umożliwiających racjonalne gospodarowanie powierzchnią dyskową. W ostatnich latach pojawiły się też rozwiązania alternatywne. W badanym okresie producenci ODM (Original Design Manufacturer), dostarczający systemy dla hiperskalowalnych centrów danych, wygenerowali przychody w wysokości 2,8 mld dol., a więc 34 proc. większe niż rok wcześniej, natomiast wartość sprzedaży pamięci masowych w serwerach wyniosła 4,2 mld dol., co oznacza wzrost o 24 proc.

Dwugłos w kwestii Fibre Channel

• Artur Bałuta, MIT Sales Manager, Dell EMC

Fibre Channel  jest bardzo popularną technologią, szczególnie w Polsce. Klienci bardzo sobie chwalą ten standard jako warstwę komunikacji dla systemów pamięci masowych. Rozwiązania konwergentne mogą z czasem wypierać SAN, ale u klientów, którzy już używają technologii FC, nie widać chęci do zmiany. Systemy bazujące na tym protokole dają gwarancję stabilnej transmisji danych, przewidywalnej wydajności oraz niezawodności.

 

• Radosław Wierchowicz, dyrektor działu technicznego i rozwiązań chmurowych, Engave

Rozwiązania hiperkonwergentne, Software Definied Storage, a nawet tradycyjne systemy macierzowe z powodzeniem radzą sobie, wykorzystując infrastrukturę Ethernet.  Parametry tego protokołu nie odbiegają od tych oferowanych przez Fibre Channel. Jeśli do tego dodać niższe koszty zakupu oraz utrzymania Ethernetu, należy liczyć się ze spadkiem popularności i wykorzystania technologii Fibre Channel. 

 

Dyski twarde nadal w grze

Wiele firm nie nadąża za tempem zmian i wciąż korzysta z nieefektywnej infrastruktury, która nie radzi sobie z przetwarzaniem i analizą danych. W tej chwili najlepszą receptą na poprawę wydajności jest zastosowanie nośników SSD. Kluczową kwestią okazuje się dobór odpowiednich proporcji pomiędzy dyskami HDD i pamięciami flash – obowiązek ten spoczywa zazwyczaj na barkach integratorów.

Największym atutem „twardzieli” pozostaje cena – 1 GB powierzchni dyskowej można nabyć nawet za 0,03 dol. Jeszcze do niedawna wydawało się, że dostawcy HDD doszli do ściany, niemniej WD zaprezentowało pod koniec ubiegłego roku technologię MAMR, zwiększającą czterokrotnie gęstość zapisu danych w porównaniu z tradycyjnymi nośnikami. Producent zapewnia, że dzięki nowemu standardowi ceny HDD będą 10 razy niższe od cen SSD co najmniej do 2028 r.

O tym, że pogłoski o śmierci dysków twardych są przedwczesne, świadczą m.in. statystyki sprzedaży macierzy dla klientów korporacyjnych. Największą popularnością cieszą się systemy hybrydowe wyposażone w dyski twarde i pamięci flash. Przychody ze sprzedaży tych urządzeń w ostatnim kwartale ubiegłego roku wyniosły 2,7 mld dol. Nośniki SSD w tego typu systemach zajmują zazwyczaj około 10 proc. ogólnej przestrzeni dyskowej. Firmy sięgające po rozwiązania hybrydowe potrzebują wydajności IOPS na poziomie 5–30?tys. Szybkie nośniki obsługują stosunkowo niewielkie bazy danych SQL czy aplikacji CAD.

Jednak największa dynamika sprzedaży występuje w segmencie systemów all-flash. W IV kw. 2017 r. wyniosła 15 proc., a analitycy IDC prognozują, że w 2019 r. rynek macierzy wyposażonych jedynie w nośniki SSD osiągnie wartość 9 mld dol. – niemal dwukrotnie więcej niż w 2016 r. W przeszłości urządzenia tej klasy ze względu na bardzo wysoką cenę były zarezerwowane wyłącznie dla dużych firm. Jednak ceny dysków spadają średnio w tempie ok. 30 proc. rocznie. Macierze all-flash średniej klasy umożliwiają osiągnięcie wydajności na poziomie 30–500?tys. IOPS, co zaspokaja wymagania przedsiębiorstw w zakresie pracy z aplikacjami krytycznymi.

Tego typu rozwiązania warto zaoferować klientom zamierzającym wdrożyć VDI, korzystającym z Business Intelligence lub posiadającym bazy danych z dużą ilością zapytań. Z naszego doświadczenia wynika, że wymiana macierzy z dyskami obrotowymi na all-flash pozwala skrócić analizy oraz generowanie raportów z systemów bazodanowych z kilkudziesięciu godzin do kilkunastu minut – mówi Tomasz Spyra, CEO RAFcom.

Co istotne, wciąż istnieje duży popyt na macierze składające się z wirujących dysków z interfejsami SATA, NL-SAS lub SAS. Ich nabywcami są mniejsze i średnie przedsiębiorstwa o niewielkich wymaganiach co do wydajności – wystarcza im poniżej 5 tys. IOPS.

Mirosław Chełmecki

dyrektor działu pamięci masowych i serwerów, Veracomp

Nowe technologie, takie jak chmura, Internet rzeczy i sztuczna inteligencja, zwiększają popyt na urządzenia dostarczające cyfrowe zasoby. Zmiana naszych nawyków, korzystanie z urządzeń mobilnych, dostęp do informacji oraz media społecznościowe niezmiennie wpływają na powstawanie ogromnych ilości danych, które są przechowywane i udostępniane. Zastosowanie macierzy w tych obszarach jest niezbędne.  Jednakże wzrost pojemności nośników oraz technologii umożliwiających racjonalne zarządzanie zasobami, może ograniczyć wartość sprzedaży systemów. Jeśli spojrzymy na macierze dyskowe pod kątem dostarczanej pojemności, nadchodzące lata przynoszą wzrosty rzędu 30–50 proc. Inaczej to wygląda w przeliczeniu na liczbę sprzedawanych urządzeń, w tym przypadku należy się liczyć z kilkuprocentowym wzrostem.

 

Oprogramowanie rządzi

Jeszcze do niedawna to macierze dyskowe i serwery dyktowały warunki pracy w centrum danych. Jednak wraz ze wzrostem popularności Software Defined Storage
następuje zamiana ról. Rosnące możliwości oprogramowania sprawiają, że przedsiębiorcy zaczynają rezygnować z macierzy SAN, a ich miejsce zajmują serwery x86. W niektórych przypadkach pozbycie się tego typu sprzętu skutkuje ograniczeniem wydatków nawet o 70 proc.

Przy obecnym stanie rozwoju SDS posiadanie rozbudowanej infrastruktury pamięci masowych może mijać się z celem. Często wiąże się to z dodatkowymi kosztami zakupu, jak również utrzymania, nieprzekładającymi się na wydajność czy funkcjonalność. Ciekawym przykładem jest vSAN. To rozwiązanie zapewnia natywną obsługę pamięci masowej i upraszcza architekturę środowiska oraz administrowanie nim – tłumaczy Radosław Wierchowicz, dyrektor działu technicznego i rozwiązań chmurowych Engave.

Na fali popularności nowego trendu wypłynęły systemy hiperkonwergentne. To typowe rozwiązania „pod klucz”, integrujące moc obliczeniową, pamięć masową oraz oprogramowanie. Dzięki ich zastosowaniu można ograniczyć chaos związany z zarządzaniem sprzętem oraz aplikacjami różnych producentów, a także zlikwidować odseparowane i tworzące wyspy serwery i pamięci masowe.

– Polskie firmy nieufnie podchodzą do tych rozwiązań. Systemy hiperkonwergentne są droższe niż te złożone z osobnych komponentów. Niemniej tego typu infrastrukturę można zaoferować klientom, którzy chcą zbudować większą platformę wirtualizacyjną, oraz tam, gdzie dział IT nie zamierza budować sieci SAN – mówi Tomasz Spyra.

Wprawdzie ceny systemów hiperkonwergentnych mogą odstraszać niektórych klientów, ale dostawcy uspokajają, że w tym przypadku TCO jest nawet o 50 proc. niższe aniżeli w przypadku korzystania z tradycyjnej infrastruktury.Ale nie wszyscy zachwycają się nową technologią. Oponenci wskazują na jej niedoskonałości w zakresie skalowalności oraz uzależnienie się od jednego dostawcy.

Zdaniem integratora

• Piotr Biela, członek zarządu netology

Nie potrafię sobie przypomnieć, kiedy ostatni raz zaproponowaliśmy rozwiązanie blokowe bazujące na dyskach talerzowych. Znaczne zmniejszenie różnicy pomiędzy cenami SSD i HDD oraz mechanizmy kompresji i deduplikacji sprawiają, że niegdyś dzielący obie technologie kanion został zredukowany do… niewielkiego zagłębienia. Oczywiście analiza opłacalności technologii uwzględniająca jedynie koszty terabajta zniekształcałaby pełen obraz sytuacji. Nie można zapominać o olbrzymiej ilości dodatkowych profitów, takich jak chociażby możliwość błyskawicznego kreowania środowisk testowych i deweloperskich czy skrócenie czasu potrzebnego na przetwarzanie danych. Jedynym obszarem, gdzie bronią się macierze bazujące wyłącznie na HDD, są platformy budowane z myślą o składowaniu dużych ilości danych. Choć w tym przypadku tradycyjne protokoły blokowe oddają pole obiektom.

 

Ciekawą alternatywą dla systemów hiperkonwergentnych są rozwiązania hiperskalowalne – prekursorami w tej dziedzinie są Amazon, Facebook czy Google. Dużym walorem wspomnianej architektury jest oddzielenie warstwy mocy obliczeniowej od pamięci masowych, dzięki czemu można niezależnie rozbudowywać przestrzeń dyskową oraz komponenty wpływające na wydajność systemu. Dobry przykład stanowi Internet rzeczy, gdzie poszczególne urządzenia gromadzą dużo danych, ale nie wymagają silnych procesorów. Użytkownicy doceniają także możliwość zarządzania za pomocą jednego systemu zarówno serwerami wirtualnymi, jak i bare metal.

 

Zawrotne prędkości

W świecie pamięci masowych liczy się nie tylko skalowalność, ale również szybkość przetwarzania danych. Jeszcze do niedawna za prawdziwe demony prędkości uchodziły macierze all-flash. Ostatnio coraz głośniej mówi się o zmianie warty. Systemy all-flash powstały kilka lat temu jako alternatywa dla macierzy obsługujących dyski twarde. Jednak środowisko pracy zmienia się niczym w kalejdoskopie, stąd potrzebne jest świeże spojrzenie na architekturę pamięci masowych.

Niektórzy producenci zaczynają wprowadzać na rynek pierwsze serwery oraz macierze z nośnikami NVMe. Nowy standard pozwoli uwolnić prawdziwy potencjał pamięci flash. Pojedynczy nośnik NVMe (PCIe x4) umożliwia uzyskanie wydajności 700 tys. IOPS, co jest wynikiem nieosiągalnym dla macierzy z 24 dyskami SSD.

W 2016 r. została opublikowana specyfikacja NVMe over Fabrics, zapewniająca dostęp do nośników poprzez okablowanie Ethernet, Fibre Channel czy InfiniBand. Standard ten pozwala uzyskać nawet dziesięciokrotnie większą wydajność niż 16 Gb Fibre Channel przy odczycie bloków 4 kB.

– NVMe over Fabrics jest w bardzo wczesnej fazie rozwojowej. Osobiście postrzegam go jako zaawansowany proof of concept. Przyglądamy mu się uważnie, niemniej upłynie jeszcze dużo czasu, zanim znajdzie zastosowania produkcyjne – mówi Piotr Biela, członek zarządu netology.

Bieżący rok nie przyniesie przełomu na rodzimym rynku pamięci masowych. Niemniej trzeba liczyć się z tym, że w najbliższych latach do głosu dochodzić będą przedstawiciele nowej fali. Dlatego już dziś warto z uwagą śledzić ich poczynania i promowane technologie.

Piotr Sękowski

System Storage Sales Manager, IBM Poland & Baltics

Macierze all-flash stanowią alternatywę dla każdej innej konfiguracji środowisk produkcyjnych. Natomiast systemy dla środowisk nieprodukcyjnych archiwalnych jeszcze przez dłuższy czas nadal będą bazować na dyskach NL-SAS/SATA. Całkowity koszt posiadania systemu all-flash, wykorzystującego mechanizmy redukcji danych, jest porównywalny z kosztem macierzy SAS. Atutem rozwiązań bazujących wyłącznie na SSD jest też większa wydajność, dzięki czemu procesory serwerowe są lepiej wykorzystywane. Poza tym można ograniczyć liczbę licencji aplikacyjnych. Do tego należy dodać oszczędności związane z użyciem energii elektrycznej oraz chłodzeniem. Co ciekawe, nośniki flash nie reagują negatywnie na falę dźwiękową wywołaną na przykład aktywacją systemu gaszenia. To ważne, ponieważ spotkaliśmy się z przypadkami, że dane składowane na dyskach SAS uległy uszkodzeniu w wyniku uruchomienia systemu gaszenia.