Niezawodność serwerów plików to numer jeden na liście kryteriów wyboru wśród użytkowników tego typu rozwiązań. Z reguły, szczególnie w mniejszych przedsiębiorstwach, są w nich zgromadzone wszystkie firmowe dane, kopie zapasowe ze stacji roboczych oraz zapisy z kamer monitoringu wideo. Utrata dostępu do tych informacji może znacznie zakłócić funkcjonowanie przedsiębiorstwa, a ich całkowita strata – doprowadzić do bankructwa. Tymczasem często zbyt duża uwaga jest przykładana do samego serwera NAS, a niewystarczająca do zainstalowanych w nim nośników.

Dysk dyskowi nierówny

Jednym z często popełnianych w firmach błędów jest to, że w nowo kupionym serwerze NAS instalowane są już nieużywane, leżące „w szufladzie” administratora twarde dyski. Nie dość, że trudno jest ocenić ich wytrzymałość i poziom dotychczasowego zużycia, to jeśli zostaną wykorzystane różne modele, będą pracować z różną szybkością, co negatywnie wpłynie na stabilność transferu danych.

Tymczasem wdrażany w firmie serwer NAS powinien zawierać niezawodne nośniki. Należy zadbać o to, by wszystkie dyski w danej grupie RAID pochodziły z tej samej serii, co zagwarantuje stałą wydajność. Równie ważne jest, by zainwestować w napędy specjalnie przystosowane do pracy w macierzach dyskowych, w tym serwerach NAS. Seagate już od wielu lat ma w ofercie takie urządzenia – ich najnowsze modele (dostępne pod marką IronWolf) zostały zaprojektowane tak, by za rozsądną cenę zagwarantować bardzo dobrą wydajność i pojemność, wyjątkową wytrzymałość (w tym dużą tolerancję na wibracje) i niski pobór prądu. Co bardzo ważne, parametry te nie pogarszają się w czasie, wraz z intensywnym użytkowaniem dysku.

Zwykły dysk do komputera osobistego został zaprojektowany tak, by w danym momencie mógł korzystać z niego tylko jeden użytkownik. Z kolei w przypadku dysków do serwerów NAS nic nie stoi na przeszkodzie, by równolegle zapisywały i odczytywały dane dziesiątki osób. Dlatego bez problemu napędy te mogą być wykorzystywane do wielu zadań – jako repozytorium backupu i archiwizacji danych, do przesyłania treści multimedialnych (audio i wideo), obsługi niewielkich środowisk wirtualnych itd.

SSD bez kompromisów

Sukcesywnie spadające ceny i wydajność znacznie lepsza od HDD to oczywiste kryteria w przypadku wyboru dysków SSD, ale tu też konieczne jest zwrócenie uwagi na ich trwałość. Jest ona zapewniana głównie przez zainstalowanie w tych nośnikach nadmiarowych kości pamięci, których pojemność nie jest dostępna w trakcie normalnego użytkowania, a są one wykorzystywane, gdy komórki używanych dotychczas układów zużyły się w wyniku zbyt dużej liczby operacji zapisu i kasowania. Algorytm wbudowany w kontroler dysku dba o to, by wszystkie komórki były używane w równym stopniu, co opóźnia występowanie problemów z całym urządzeniem. Ich producenci publikują także wartości takich parametrów jak TBW (Total Bytes Written – łączna ilość danych, którą będzie można zapisać na dysku bez narażania ich na utratę) oraz DWPD (Drive Writes Per Day – średnia ilość danych, które będzie można zapisać na dysku w trakcie trwania okresu gwarancyjnego).

Seagate ma w ofercie także dyski SSD z rodziny IronWolf, przeznaczone do instalowania w serwerach NAS. W każdym z nich przy kościach pamięci bufora cache jest stosowany specjalny kondensator, który zapewnia podtrzymanie zasilania dla kości pamięci i gwarantuje spójność danych w przypadku, gdyby wystąpiła nagła awaria zasilania (w zwykłych dyskach zawartość cache najczęściej jest tracona, co może doprowadzić do uszkodzenia struktury przechowywanych danych, np. bazy danych lub maszyny wirtualnej).

Wydajność także ma duże znaczenie w przypadku dysków SSD przeznaczonych do profesjonalnych zastosowań. Niektórzy producenci dysków konsumenckich stosują triki, dzięki którym przez pierwszych kilka minut pracy urządzenia nośnik zapewnia wyśmienitą wydajność, znacznie lepszą niż w przypadku dysków dla firm. Ta jednak później nie tylko znacznie spada, lecz także staje się niestabilna. Tymczasem w przypadku profesjonalnych rozwiązań są stosowane specjalne układy, które stabilizują transfer danych i czas dostępu do nich, dzięki czemu możliwe jest zaprojektowanie rozwiązania IT, by działało z określoną wydajnością.