Według agencji badawczej Trendfocus, specjalizującej się w rynku pamięci masowych, w ubiegłym roku do klientów trafiły 164 mln urządzeń z pamięcią SSD (dysków, a także modułów i kart rozszerzeń). Stanowi to wzrost ilościowy o 11 proc. wobec 2016 r., natomiast pod względem łącznej sprzedanej pojemności wynik poprawił się o 20,8 proc. Kluczowymi graczami na tym rynku niezmiennie pozostają: Intel, Micron, Samsung, Seagate, Toshiba i Western Digital. Analitycy Grand View Research prognozują, że wartość globalnego rynku nośników SSD w 2025 r. osiągnie poziom 25,5 mld dol., przy średnim rocznym wzroście wynoszącym 14,7 proc. Z kolei sprzedaż dysków mechanicznych systematycznie spada. Szacuje się, że zrównanie obu rynków pod względem liczby nabytych urządzeń nastąpi w 2020 lub 2021 r.

Na wybór pamięci flash, zamiast HDD, ma wpływ wiele czynników, spośród których oczywiście najważniejsze są: ich wydajność, coraz większa niezawodność, bardzo mały pobór energii, a także wyjątkowo szybko rosnące pojemności dysków. Już teraz bez problemu dostać można nośniki do zastosowania w serwerach i macierzach dyskowych o pojemności 15 TB, a jeszcze w 2018 r. ma być ona podwojona. Wielu producentów mówi już o pojemności 60 TB, a Nimbus Data pokazał nośnik mieszczący 100 TB danych (urządzenie jest dostępne w znacznie pojemniejszej obudowie – 3,5 cala, podczas gdy pozostałe nośniki znajdują się w obudowach 2,5-calowych). 

Na tym tle postęp w rozwoju zwykłych dysków mechanicznych wygląda bardzo słabo. Obecny rekord pojemności jednego nośnika, wynoszący 14 TB, został już pobity przez SSD. Naturalnie cały czas trwają prace nad jej powiększeniem, ale przyrost nie będzie tu dwukrotny, jak ma to miejsce w przypadku pamięci flash – nowsze modele będą sukcesywnie powiększane o 2 TB i ok. 2020 r. należy spodziewać się dysków HDD o pojemności 20 TB.

Nawet najwolniejszy dysk SSD jest 10 razy szybszy od HDD. W branży nie zadaje się więc już pytania, czy SSD wyprze dyski HDD, tylko kiedy to się stanie. Oczywiście dyski HDD pozostaną z nami przez długi czas w rozwiązaniach backupowych czy w dużych systemach pamięci masowych, gdzie głównym kryterium wyboru jest koszt przechowywania danych. Natomiast za 2–3 lata trudno będzie znaleźć komputer bez dysku SSD – mówi Michał Bocheński, Business Development Manager w polskim oddziale Kingstona.

 

Tani, tańszy, najtańszy…

Argument przemawiający za korzystaniem z mechanicznych dysków twardych właściwie pozostał tylko jeden: kilkukrotnie niższa cena za jednostkę pojemności. To ma jednak znaczenie głównie dla osób i firm przetwarzających oraz przechowujących duże ilości danych. W tradycyjnym pececie na system operacyjny, aplikacje i podstawowe dane nie potrzeba więcej niż 200 GB pojemności (bez multimediów, ale te, ze względu na sekwencyjny charakter ich odczytu, nie wymagają nośnika o tak krótkim czasie dostępu, jaki oferuje pamięć flash). Dlatego bardzo szybko rośnie zainteresowanie notebookami hybrydowymi, w których jako podstawowy dysk wykorzystuje się moduł SSD z interfejsem M.2. Użytkownik, jeśli ma taką potrzebę, może dołożyć znacznie bardziej pojemny dysk mechaniczny.
Korzystną sytuacją, z punktu widzenia użytkowników, był znaczny spadek cen pamięci flash w pierwszym kwartale br. 

– Spowodował on, że sprzedawcy zaczęli wręcz ponosić spore straty, bo mieli zalegający towar pochodzący z IV kw. ub.r. Problemy mieli nawet ci, którzy pilnowali się, aby utrzymywać dwu-, trzytygodniową rotację zapasu. Można powiedzieć, że przez moment mieliśmy do czynienia z pewną destabilizacją. Obecnie spadek cen nieco wyhamował, chociaż w tej kwestii prognozowanie nawet najbliższej przyszłości jest bardzo trudne, a wręcz niemożliwe – mówi Michał Orłowski, Regional Sales Manager w Adata Technology.

Firma analityczna TrendForce podaje, że wraz z ogromnym spadkiem cen nośników flash przeznaczonych do samodzielnego montażu przez klientów ich dostawcy w ostatnim kwartale obniżyli ceny także dla producentów komputerów osobistych – w przypadku dysków SSD SATA o 3–5 proc., a dla modułów SSD z interfejsem M.2 o 4–6 proc. Zdaniem analityków wspomniany trend może doprowadzić do tego, że w najbliższym czasie sprzedaż notebooków z wbudowaną pamięcią flash wzrośnie nawet o 50 proc. Statystycznie nośniki te najczęściej będą miały pojemność 256 GB, natomiast zainteresowanie dwukrotnie większymi modelami ma się pojawić w 2019 lub 2020 r.

Niewielka jest jednak detaliczna sprzedaż pamięci z interfejsem M.2. Obecnie do klientów docierają one najczęściej już zainstalowane w laptopach. Pierwsza duża fala ich wymiany na bardziej pojemne nastąpi prawdopodobnie za około dwa lata. Szybko rośnie za to liczba nowych sposobów ich zastosowania. QNAP i Synology umożliwiają instalację tych nośników jako pamięci podręcznej cache w swoich serwerach NAS. Moduły M.2 stały się już standardem w mikroserwerach stosowanych np. we wdrożeniach rozwiązań Internetu rzeczy. Ich popularność z pewnością będzie rosła ze względu na miniaturowe wymiary, mały pobór prądu i większą odporność na niekorzystne warunki atmosferyczne niż w przypadku HDD.

Jaka przyszłość czeka dyski?

Charakterystyczna dla dysków mechanicznych niska cena za jednostkę pojemności jeszcze przez długi czas zapewni ich wykorzystanie w systemach aktywnej archiwizacji i backupu, jak też przechowywania danych, do których pracownicy firm najrzadziej uzyskują dostęp.
Wśród producentów w najbardziej komfortowej sytuacji jest Western Digital. Po przejęciu SanDiska oraz HGST ma w ofercie pełną gamę nośników HDD i SSD, zarówno dla konsumentów, jak i największych przedsiębiorstw. Przedstawiciele producenta poinformowali CRN Polska, że na razie nie dostrzegają postępującej kanibalizacji dysków mechanicznych przez pamięci flash.
W równie dobrej sytuacji jest Toshiba. Co prawda, ma najmniejsze rynkowe udziały w sprzedaży HDD, ale za to jest jednym z największych na świecie producentów układów NAND stosowanych w dyskach SSD.
Analitycy branży dość niecierpliwie oczekują na to, jaki ruch wykona Seagate. Ma on już od pewnego czasu w ofercie nośniki SSD, ale wyłącznie do zastosowań w centrach danych (dyski z interfejsami SATA i SAS oraz moduły M.2 i karty rozszerzeń PCIe). Nic na razie nie wiadomo, aby producent miał rozszerzyć ofertę o urządzenia klasy konsumenckiej. Potrzeby tych klientów zaspokaja dyskami hybrydowymi z pamięcią flash jako cache. Tymczasem na Open Compute Summit pokazał… najszybszy mechaniczny dysk na świecie (rodzina Exos), którego wydajność ma równać się niemal z efektywnością dysków SSD, dzięki odczytowi danych z prędkością rzędu 480 MB/s.

 

 

 

Wyścig na bity w komórce

Jeszcze dwa lata temu wiele mówiono o ówczesnej nowości rynkowej – kościach pamięci 3D NAND, które umożliwiają zapisanie trzech lub więcej bitów w jednej komórce pamięci, przyczyniając się do znacznego wzrostu pojemności całego dysku. Dziś nośniki z pamięciami Triple-Level Cell (TLC) są na ostatniej prostej, jeśli chodzi o proces wyparcia tych z układami Multi-Level Cell (MLC) i Single-Level Cell (SLC). 

Trójwymiarowa technologia ma sporo przewag: zapewnia większą pojemność dzięki zwiększeniu gęstości upakowania danych, ma dłuższą żywotność, a także zmniejsza zużycie energii – mówi Toni Hsu, Account Manager na Europę Północną i Środkową w firmie Transcend. – Szacujemy, że w 2018 r. pamięci 3D NAND będą stanowić 70 proc. dostaw nośników flash, a ich ceny pozostaną stabilne lub będą spadać. Kolejnym etapem rozwoju technologii będzie wprowadzenie w przyszłości do naszej oferty dysków SSD z kośćmi typu QLC NAND, przechowującymi w jednej komórce pamięci 4 bity danych.
Na popularność technologii 3D NAND będzie wpływać przede wszystkim popyt na nośniki o coraz większej pojemności. Z szacunków IDC wynika, że do 2020 r. wygenerowanych zostanie 40 ZB nowych danych. Do ich przechowania potrzebne byłoby 40 mld dysków o pojemności 1 TB, a wiadomo, że takiej ich liczby firmy nie będą w stanie wyprodukować.

W momencie wprowadzania na rynek kości w technologii 3D NAND można było spotkać się z negatywnymi opiniami na temat ich trwałości. Każda z komórek pamięci jest w stanie przetrwać tylko ok. 1 tys. cykli zapisu, co w porównaniu z ponad 10 tys. w przypadku pamięci MLC wydawało się bardzo małą wartością. Problem rozwiązano dzięki udoskonalonym algorytmom zaszytym w kontrolerach dysków, dbającym, aby częstotliwość zapisu w poszczególnych komórkach była odpowiednio rozłożona, a ponadto w samych dyskach jest też wiele komórek nadmiarowych, które zastępują te już zużyte.

W efekcie, jak podkreślają wszyscy producenci, na razie w ogóle nie występują problemy z trwałością nośników z zainstalowanymi kośćmi 3D NAND. Dla użytkowników nie ma też właściwie znaczenia, z jakiego rodzaju nośnika korzystają, a więc parametr opisujący technologię produkcji kości pamięci praktycznie stał się nieistotny i nie ma sensu używać go jako argumentu sprzedażowego.

Michał Orłowski
Regional Sales Manager, Adata Technology

Odkąd obniżyliśmy ceny dysków M.2 do poziomu cen urządzeń z interfejsem SATA, ich sprzedaż sukcesywnie wzrasta, zgodnie z trendem, który prognozowaliśmy w ubiegłym roku. Wraz ze spadkiem cen rośnie także popyt na bardziej pojemne nośniki. Przewidujemy, że niższe ceny mogą szybko przełożyć się również na większą popularność zewnętrznych dysków SSD, których szybkość ma znaczenie m.in. podczas obróbki wideo w wysokiej rozdzielczości.

 

NVMe – czarny koń pamięci SSD

Od początku produkcji urządzeń SSD z interfejsem dysków SATA/SAS było wiadomo, że to tylko etap przejściowy. Interfejsy te cechuje bowiem wiele ograniczeń w zakresie transferu danych, a wśród nich najbardziej znaczącym jest limit prędkości. Dlatego już dekadę temu rozpoczęto prace zarówno nad nowym protokołem transmisji danych, jak też interfejsem urządzeń. Dzięki temu powstał protokół NVMe (Non-Volatile  Memory Express) oraz interfejs M.2, który umożliwia podłączenie pamięci flash bezpośrednio do magistrali PCIe.

Jednym z podstawowych ograniczeń dysków twardych jest to, że w danym momencie są w stanie przetwarzać tylko jedno żądanie (głowica dysku nie może znajdować się w dwóch miejscach w tym samym czasie), a więc transfer danych ma charakter sekwencyjny. Dlatego też interfejsy stosowane w dyskach w ogóle nie przewidują możliwości równoległego przesyłania większej ilości danych, z czym nie ma żadnego problemu w przypadku pamięci flash. Tam w jednym cyklu teoretycznie możliwe jest wykonanie nawet 64 tys. żądań odczytu, do czego jeszcze dziś nie są gotowe same procesory, magistrale komputerów ani aplikacje – więc mamy duży zapas.

W środowiskach firmowych, gdzie serwery i pamięci masowe będą wyposażone w nośniki NVMe, wąskim gardłem natychmiast okaże się infrastruktura sieciowa. Dlatego już dwa lata temu zaprezentowano pierwszą wersję protokołu sieciowego NVMf (NVM Express over Fabrics), który będzie w pełni zgodny z protokołem NVMe i w żaden sposób nie będzie ograniczał wydajności tych nośników. Obecnie sterowniki większości nowych kart sieciowych są już zgodne z NVMf, więc gdy te nośniki zaczną zyskiwać należną im popularność, nie powinno być kłopotów z ich implementacją.

Paweł Śmigielski
dyrektor regionalny na Polskę oraz Europę Środkowo-Wschodnią, Kingston Technology

W drugiej połowie 2016 r. i przez cały 2017 r. brakowało chipów NAND, które stanowią podstawę dysków SSD. Skutkowało to wzrostem cen nośników flash, który wymusił wręcz powrót na rynek dysków o pojemności 120 GB, wycofanych już wcześniej z portfolio producentów, bo klienci zdecydowani na przyspieszenie pracy swojego komputera nie chcieli wydawać dużych kwot na pojemniejsze dyski. Tymczasem na początku bieżącego roku okazało się, że mamy nadprodukcję kości pamięci, która tylko w pierwszym kwartale doprowadziła do obniżenia cen nośników o 30 proc., a tych o najmniejszej pojemności nawet o 40 proc. Co więcej, spodziewamy się kolejnych obniżek i szacujemy, że ceny na koniec roku będą o połowę niższe niż pod koniec ubiegłego.

 

 

NVMe w macierzach all-flash

Protokół NVMe przyniesie ogromną korzyść w przypadku macierzy dyskowych. Eliminacja interfejsów i podłączenie nośników bezpośrednio do magistrali kontrolera macierzowego umożliwi uzyskanie wydajności za ułamek ceny, którą teraz trzeba zapłacić za duże urządzenie z setkami dysków. Ale zanim do tego dojdzie, upłynie jeszcze trochę czasu.

Nośniki bazujące na protokole NVMe bardzo dobrze przyjmują się obecnie jako moduły pamięci masowej w rozwiązaniach z zakresu infrastruktury hiperkonwergentnej oraz jako dyski w zainstalowanych tam serwerach. Powoli trafiają też do macierzy dyskowych, ale na razie traktowane są tam raczej w charakterze ciekawostki. Większość producentów zapowiada, że wraz z nową wersją kontrolerów pojawi się także możliwość instalowania dysków NVMe. W ogromnej większości firm ich adaptację utrudniać będzie posiadana infrastruktura sieciowa oraz wykorzystywane w niej protokoły (CIFS i NFS dla serwerów NAS oraz FC i iSCSI w sieciach SAN). Realnych korzyści z dysków NVMe oraz protokołu NVMf należy spodziewać się w ciągu kilku najbliższych lat.

Stosowanie dysków NVMe w infrastrukturze serwerowej nie do końca ma w tej chwili sens także ze względu na architekturę aplikacji. Większość z nich nie jest gotowa na otrzymywanie tak dużej ilości danych w tak krótkim czasie. Wykorzystane w oprogramowaniu algorytmy są „świadome”, że dane będą spływały umiarkowanie powoli ze zwykłych dysków twardych, więc one też nie muszą się spieszyć. Dlatego, aby uzyskać pełną korzyść z nowych wersji, warto sprawdzić, czy do tej swego rodzaju rewolucji gotowe jest też oprogramowanie.

Odzyskiwanie i niszczenie danych

Szybki wzrost popularności nośników bazujących na pamięci flash oznacza zupełnie nowe wyzwania dla ekspertów zajmujących się zawodowo odzyskiwaniem danych oraz – jeśli zachodzi taka potrzeba – ich bezpowrotnym niszczeniem. Przedstawiciele laboratoriów odzyskiwania danych od początku podkreślali, że analiza uszkodzonych nośników flash jest znacznie trudniejsza niż w przypadku mechanicznych dysków z powodu różnorodności algorytmów zapisu danych stosowanych przez producentów. Adam Kostecki, dyrektor ds. sprzedaży w Kroll Ontrack, twierdzi jednak, że w tej kwestii nastąpił pewien postęp.

– Dzięki wieloletniemu doświadczeniu w odzyskiwaniu danych z pamięci flash proces stał się łatwiejszy. Opracowaliśmy narzędzia do kontrolerów obecnych na rynku i jedynie w przypadkach, gdy mamy do czynienia z nowymi kontrolerami, proces odzyskiwania danych wymaga uprzedniego przygotowania dodatkowych narzędzi – wyjaśnia specjalista z katowickiej firmy. 

Według Adama Kosteckiego obecnie jedna piąta dysków trafiających do laboratorium Kroll Ontrack to SSD, a udział tych nośników oczywiście rośnie. Skuteczność odzyskiwania danych jest aktualnie na podobnym poziomie jak w HDD. 

Wiele krwi napsuły użytkownikom pierwsze modele dysków SSD, których trwałość pozostawiała wiele do życzenia. Producenci zarzekali się, że są to choroby wieku dziecięcego i wraz z kolejnymi modelami trwałość będzie rosła. Eksperci pozostają jednak sceptyczni. 

– Wprawdzie wiek nośnika może mieć znaczenie dla jego potencjalnej awaryjności, ale do naszego laboratorium trafiają nawet najnowsze modele dysków SSD i innych nośników flash – podkreśla Adam Kostecki.

Nadchodzące rozporządzenie RODO wymusza na firmach szczególną dbałość o dane osobowe oraz minimalizowanie ryzyka ich wycieku. Dlatego wkrótce zdecydowanie wzrośnie zainteresowanie usługami trwałego usuwania danych – także z nośników flash, których pierwsze generacje trafiają już do utylizacji. O ile w przypadku dysków twardych wystarczy kilkakrotnie nadpisać wybrane sektory losowymi danymi, aby praktycznie uniemożliwić lub uczynić nieopłacalnym odzyskanie informacji, o tyle w przypadku pamięci flash taka operacja nie ma sensu. Z poziomu systemu operacyjnego nie ma możliwości wybrania konkretnej fizycznej komórki do nadpisania. Za jej wybór odpowiada firmware nośnika, dbając o to, aby nie została ona zapisywana zbyt często, co może wpłynąć na jej trwałość.
Alternatywą okazuje się fizyczne zniszczenie nośnika w specjalnej niszczarce (demagnetyzer, stosowany wobec dysków twardych, zupełnie nie sprawdzi się w przypadku pamięci flash) albo rozebranie dysku i przewiercenie wszystkich kości pamięci. Jakiś czas temu producenci obiecywali stworzenie mechanizmu, który umożliwiałby nieodwracalne wyczyszczenie wszystkich komórek pamięci, ale bez niszczenia całego urządzenia, co np. pozwoliłoby na oddanie go lub odsprzedaż. Operacja ta miałaby być inicjowana za pomocą  specjalnego oprogramowania, a wykonywana przez firmware dysku. Niestety, do dziś nie ma nośników wyposażonych w taką funkcję.