CRN W poprzedniej dekadzie na rynku pamięci masowych dla przedsiębiorstw nie działo się zbyt wiele fascynujących rzeczy. Za to w obecnej mamy do czynienia niemal z rewolucją. Którą z zaprezentowanych w ostatnich latach innowacji należy uznać za najważniejszą?

Scott Sinclair Z pewnością powszechne wykorzystanie pamięci flash we wszystkich obszarach związanych z IT. Chociaż trzeba zrobić zastrzeżenie, że technologia ich produkcji znana jest od kilku dekad, a w ostatnich latach tylko ją zmodyfikowano, co pozwoliło na zwiększenie pojemności i trwałości oraz obniżenie ceny. Dzięki temu pamięci flash przyniosły znaczące zmiany w dziedzinie IT – zarówno przyspieszenie pracy już funkcjonujących aplikacji, jak i powstanie zupełnie nowych zastosowań informatyki, głównie w zakresie uczenia maszynowego. Skorzystały na tym też rozwiązania Internetu rzeczy, bo niewskazane byłoby montowanie mechanicznego dysku w urządzeniach z sensorami, zainstalowanych często w miejscu, gdzie panują niesprzyjające warunki środowiskowe. Bez pamięci flash trudno sobie wyobrazić także wszelkie urządzenia mobilne. Wyprodukowano nawet twarde dyski wielkości karty Compact Flash, które miały być montowane w telefonach i aparatach cyfrowych, lecz z oczywistych powodów pomysł się nie sprawdził.

CRN Ale nośniki flash także nie są niezawodne… Kilka lat temu wiele dyskutowało się o trwałości danych zapisanych w ich komórkach pamięci. W końcu producenci zadeklarowali, że problem już nie istnieje. Czy słusznie?

Scott Sinclair Rzeczywiście, dziesięć lat temu, gdy coraz powszechniej zaczęto stosować dyski SSD, było wiele wątpliwości co do ich trwałości, a klienci często zgłaszali utratę danych. Problem dotyczył przede wszystkim bardzo szybkiego zużywania się komórek pamięci podczas zapisu. Wcześniej to zjawisko trudno było zaobserwować, bo np. w telefonach komórkowych dane były wówczas głównie odczytywane, a zapisywane rzadko. Natomiast w ostatnich latach producenci kości pamięci wykonali naprawdę tytaniczną pracę, by zwiększyć ich trwałość. Pomogli im producenci dysków i znajdujących się w nich kontrolerów, którzy usprawnili algorytmy zaimplementowane po to, aby w każdej komórce pamięci dane były zapisywane z odpowiednią, równomierną częstotliwością, co wydłuża czas życia nośnika. Pozytywne skutki tych działań zaobserwowali klienci. W ubiegłym roku, gdy pytaliśmy w badaniu o przyczynę wyboru pamięci flash, na pierwszym miejscu wskazywali wzrost wydajności, ale na drugim – niezawodność i trwałość nośników.

CRN Nadal jednak można odnieść wrażenie, że dyski SSD to bomba, tylko z opóźnionym zapłonem…

Scott Sinclair W pewnym sensie tak, ale jej „wybuch” jest mocno oddalony w czasie, a do tego następuje w momencie łatwym do przewidzenia. Można ocenić stopień zużycia dysków SSD i przewidzieć koniec ich życia lub awarię. Kontroler w nośniku na bieżąco raportuje, ile danych zostało na nim zapisanych od samego początku używania oraz przez ile czasu dysk pracował. Dzięki temu administrator wie, że w danym miesiącu powinien wymienić konkretne dyski w centrum danych, bo przekroczone zostały limity i zdecydowanie rośnie ryzyko utraty danych. To nigdy nie było możliwe w przypadku mechanicznych napędów. Mogły ulec uszkodzeniu na wiele różnych sposobów, a przewidzenie awarii praktycznie nie wchodziło w grę, nawet mimo wprowadzania w nich mechanizmów typu S.M.A.R.T.

 

CRN W firmach przetwarzających duże ilości danych konieczne jest dobieranie rodzajów nośników do typu przechowywanych informacji. W przypadku wirtualizacji i baz danych stosuje się dyski flash. Dla plików, do backupu i rzadziej odczytywanych danych lepsze są mechaniczne napędy, a do archiwizacji i niektórych rodzajów backupu – taśmy. Czy ten podział zmieni się w ciągu najbliższych lat? Jak wpłyną na niego nowe sposoby wykorzystania technik IT, np. Internetu rzeczy?

Scott Sinclair Tego typu podział nadal wydaje się naturalny. Co więcej, gdybym usłyszał to pytanie 3–4 lata temu, powiedziałbym, że ze względu na pojawianie się coraz nowszych rodzajów danych, sposobów ich zapisu i dostępu do nich, konieczne będzie stosowanie jeszcze większej liczby rodzajów nośników. Jeśli wybór takich produktów będzie duży, łatwiej będzie dobrać właściwy. Ale rzeczywistość okazała się inna. Po pierwsze, administratorzy wiedzą tylko w przybliżeniu, jakiej wydajności potrzebują do przechowywania konkretnych danych. Z tego powodu firmy mają tendencje do przeinwestowywania i kupowania na zapas – czasem zostanie on wykorzystany, a czasem nie. Po drugie, bardzo staniały pamięci flash i wiemy, że ten proces będzie postępować. I to one zostaną podzielone na kilka kategorii względem zapewnianej wydajności, co będzie przydatne w przypadku nowatorskich rozwiązań IT.

CRN To oznacza, że któryś z nośników wkrótce umrze śmiercią naturalną. Tylko który pierwszy – taśma czy dysk?

Scott Sinclair Pamiętam, jak 15 lat temu eksperci branży IT mówili, że taśma już umarła. A dziś wszyscy wiemy, że to nieprawda, bo taśmy nadal są szeroko wykorzystywane. Uważam, że pierwszy umrze dysk, ale na pewno nie stanie się to w ciągu najbliższej dekady. W zakresie korzyści użytkowych taśmy są nie do pobicia. Należy do nich długoterminowe przechowywanie danych niewymagające poboru prądu, także poza siedzibą przedsiębiorstwa i to przez dekady. Dzięki taśmom firmy mogą też łatwiej dostosować się do coraz bardziej restrykcyjnego prawa, zobowiązującego do archiwizowania bardzo dużej ilości informacji. Oprócz tego łatwiejsze jest zwiększanie pojemności nośnika taśmowego niż twardego dysku.

CRN Gdy nie będzie dysków, firmy będą skazane na korzystanie z macierzy all-flash. Te jednak nadal są bardzo drogie, co skłania klientów raczej do inwestowania w rozwiązania hybrydowe z dyskami SSD funkcjonującymi jako warstwa o największej wydajności i pamięcią flash jako cache o dużej pojemności…

Scott Sinclair Macierze all-flash na pewno będą tanieć, chociaż nie tak bardzo jak konsumenckie nośniki SSD. Na wyższą cenę wpływa konieczność zapewnienia bardzo wysokiej trwałości zapisu i wydajności przetwarzania udostępnianych serwerom danych. Zresztą czy są drogie, to kwestia względna i moim zdaniem mocno zależna od kosztów pracy na danym rynku. W USA i w Europie Zachodniej wynagrodzenia administratorów są bardzo wysokie, więc inwestuje się w rozwiązania, które nie wymagają wielkiego zaangażowania pracowników działu IT. W krajach azjatyckich, gdzie ludzka praca jest bardzo tania, obserwujemy odwrotny trend. Polska i inne kraje Europy Środkowo-Wschodniej są pośrodku. Ale nie ma co się dziwić, że firmy – gdy koszt pracy nie jest zbyt wysoki – wolą zainwestować w kilka warstw nośników pamięci masowych w infrastrukturze IT (co oczywiście prowadzi do rozproszenia zasobów), bo stać je na zatrudnienie specjalistów do zarządzania nimi. Po prostu taniej jest kupić serwery z zainstalowanymi nawet kilkoma dyskami SSD o wysokiej pojemności i połączonymi w RAID, niż inwestować w macierz all-flash oraz infrastrukturę sieci SAN.

 

CRN Przez kilkadziesiąt lat funkcjonowania taśm i dysków na rynku pamięci masowych można było wiele razy usłyszeć o rewolucji w rozwiązaniach do przechowywania danych, które miały wyeliminować wszystkie stare rodzaje nośników. Mówiono o dyskach holograficznych, pamięci, w której wartości bitów byłyby odzwierciedlane przez kierunek obrotu atomów, nośnikach zapewniających zapis magnetyczny, ale zdecydowanie szybszy odczyt optyczny itp. Czy w ciągu najbliższej dekady nastąpi przełom, w wyniku którego pamięci flash zyskają popularność tylko na chwilę?

Scott Sinclair Nie sądzę. Prowadzone są prace nad pamięcią RAM, której zawartość nie będzie tracona w momencie odcięcia zasilania. Ale to rozwiązanie także bazuje na koncepcji flash. Przełomu raczej należy spodziewać się w związku z sieciami, przetwarzaniem danych oraz aplikacjami. Do tej pory to twarde dyski stanowiły wąskie gardło w infrastrukturze IT. Pojawienie się szybkich nośników flash, szczególnie wykorzystujących protokół NVMe, spowodowało, że wąskim gardłem stały się wszystkie pozostałe elementy infrastruktury. Obecnie specjaliści intensywnie pracują nad zwiększeniem przepustowości serwerów oraz sieci i z tym nie będzie dużego problemu. Natomiast wyzwanie stanowi oprogramowanie, którego architektura z reguły uwzględnia fakt, że stosunkowo niewiele danych znajduje się w szybkiej pamięci operacyjnej. Zakłada się, że reszta jest na twardym dysku, a z niego dane są pobierane dość powoli. Dziś producenci komputerów pracują nad kwantowym przetwarzaniem danych, rośnie popularność chmury publicznej, więc wszystko wskazuje na to, że za 10–20 lat trzeba będzie „przepisać” całe oprogramowanie, jakie istnieje na świecie.

CRN Może wówczas faktycznie wszystkie systemy IT staną się „software-defined”?

Scott Sinclair Patrząc z technicznego punktu widzenia, można uznać, że to już się stało. Sprzęt coraz bardziej traci na znaczeniu, a firmy konkurują głównie w zakresie oprogramowania. Widać to szczególnie wyraźnie w funkcjach macierzy dyskowych. Producenci zapewniają możliwość wymiany kontrolerów w działającym urządzeniu, wdrożenie nowych rodzajów nośników, replikację danych. Tymczasem informacje zgromadzone w macierzy muszą być dostępne dla serwerów nieprzerwanie, co może zapewnić tylko oprogramowanie sterujące jej pracą.

CRN Rewolucją w zarządzaniu macierzami dyskowymi miała być ich wirtualizacja – najpierw w postaci wirtualizatorów sprzętowych, a potem programowych. Ostatnio jednak jakoś o tym cicho…

Scott Sinclair Wirtualizacja pamięci masowych była pomyślana jako rozwiązanie problemu w sytuacji, gdy firma zainwestowała w różne projekty, w wyniku których nabyła funkcjonujące oddzielne macierze różnej kategorii i od różnych producentów. Dzięki wirtualizacji zyskiwała możliwość połączenia tych macierzy w jeden zasób i udostępnienia ich serwerom z zestawem dodatkowych funkcji, m.in. automatycznego przenoszenia danych między nośnikami o różnej wydajności. Tymczasem dzisiaj coraz częściej przedsiębiorstwa mają tylko jedną centralną macierz z bardzo wieloma funkcjami i z nośnikami pogrupowanymi w warstwy według wydajności, więc pierwotny cel stosowania wirtualizacji stał się w dużej mierze nieaktualny.

 

CRN Czy to znaczy, że nie warto interesować się już tego typu rozwiązaniami?

Scott Sinclair Warto, ponieważ przedsiębiorstwa „odkryły” inne rodzaje zastosowań wirtualizacji pamięci masowych. Wirtualizatory potrafią połączyć w jeden zasób np. znajdującą się w serwerze kartę PCIe z pamięcią flash, będącą obecnie najszybszym nośnikiem dla aplikacji, z dyskami w macierzy. Dzięki temu administrator unika ogromnej pracy polegającej na ręcznym przypisywaniu aplikacji i danych konkretnym nośnikom oraz nieustannego strojenia całego środowiska pod kątem wydajności. Wiele ankietowanych przez nas firm przyznaje też, że ogromny problem sprawia im przenoszenie danych na nową macierz dyskową. To wiąże się z kosztami i przerwami w pracy. Tymczasem wirtualizacja w znacznym stopniu upraszcza ten proces. Wystarczy podłączyć nową macierz i zlecić powolne przenoszenie danych, a cały czas można korzystać z tych zgromadzonych na starej macierzy. Dopiero po zakończeniu kopiowania i zweryfikowaniu poprawności tego procesu, przełącza się serwery na nową macierz, a starą odłącza lub wykorzystuje do przechowywania mniej znaczących danych, np. kopii zapasowych.

CRN Jak w tę koncepcję wpisują się obiektowe pamięci masowe, które też wykorzystują swego rodzaju wirtualizację danych?

Scott Sinclair To bardzo interesująca dziedzina i szybko się rozwija. Skoncentrowano się w niej nie na bitach i bajtach, ale na charakterze przechowywanych danych, dzięki czemu użytkownicy mogą sami decydować jakimi metadanymi opisać dany obiekt. Wyeliminowano wiele ograniczeń związanych głównie z wielkością woluminu w tradycyjnym systemie plików oraz przypisywaniem reguł poszczególnym plikom i ich grupom. Obiektowe pamięci masowe znajdują zastosowanie przede wszystkim w chmurze publicznej, w której z definicji mamy do czynienia z obiektami, a nie z plikami. Widzimy, że obecnie coraz więcej aplikacji instalowanych lokalnie wyposażanych jest w interfejs umożliwiający łączenie ich z obiektowymi usługami chmurowymi. Taki sposób zarządzania informacjami zyskuje popularność i być może wkrótce stanie się dominujący w firmowych środowiskach IT.

CRN Coraz więcej przedsiębiorstw rozpoczyna świadczenie usług typu Storage as a Service. Jakie są praktyczne zastosowania tego modelu poza oczywistymi, takimi jak backup online i gromadzenie dużych repozytoriów nieaktywnych plików?

Scott Sinclair Naturalnym ograniczeniem usług StaaS dla przedsiębiorstw są opóźnienia w transmisji danych między ich infrastrukturą IT a chmurą, więc w wielu przypadkach się nie sprawdzą. Ale gdy firma korzysta np. z ulokowanych w chmurze serwerów wirtualnych, oczywiście powinna mieć dostęp do pamięci masowej zlokalizowanej jak najbliżej tych serwerów, czyli również w chmurze. W dużej mierze to czy firma będzie korzystać z usług chmurowych zależy także od wewnętrznych procesów w przedsiębiorstwie, regulacji prawnych, dostępności ekspertów itd. Jakiś czas temu przeprowadziliśmy badanie dotyczące chmur hybrydowych. Pytaliśmy, dlaczego firmy niektóre dane pozostawiają w swojej siedzibie. Najczęstszą odpowiedzią było: „dla większego bezpieczeństwa danych”. A gdy zapytaliśmy, dlaczego część z nich  przenoszą do chmury, najczęściej odpowiedź brzmiała… „dla większego bezpieczeństwa danych”. To idealnie obrazuje, że jeśli przedsiębiorstwo nie ma wystarczających zasobów, aby zapewnić danym ochronę, korzysta z chmury. Ale jeśli jest pewne wewnętrznego systemu bezpieczeństwa, zostawia te dane u siebie.

 

CRN Przeciwnicy chmury publicznej często posługują się przykładami przedsiębiorstw, które przeniosły swoją działalność do chmury i po pewnym czasie z niej zrezygnowały…

Scott Sinclair Takich przypadków nie jest dużo, poza tym każdy jest inny. Z reguły rezygnacja z chmury wynika z braku strategii dotyczącej IT w firmie. Widzę dwie najczęściej pojawiające się przyczyny. Pierwsza jest związana z kwestiami prawnymi – przedsiębiorstwo uległo marketingowym namowom dostawców usług, a dopiero później zorientowało się, że niektórych rodzajów danych po prostu nie wolno przechowywać u zewnętrznych operatorów. Druga przyczyna to brak umiejętności porównania zalet środowiska on-premise i chmurowego oraz odniesienia ich do własnych potrzeb.

CRN Specjaliści coraz częściej podkreślają wyzwania związane z backupem danych. Okna backupowe kurczą się lub znikają zupełnie. Niektórzy twierdzą, że w ogóle chcieliby wyeliminować kopie zapasowe i zastąpić je replikacją. Czy rzeczywiście jest tak źle?

Scott Sinclair Backup od lat stanowi jedno z większych wyzwań dla firm – zarówno w warstwie technicznej, jak i mentalnej. Zawsze proces ten był dla nich rodzajem polisy ubezpieczeniowej, kosztem, który nigdy się nie zwróci, jeśli przedsiębiorstwo nie doświadczy katastrofy. Dlatego m.in. dziś występuje trend wykorzystywania kopii backupowych nie tylko do przywracania systemu do pracy w przypadku awarii. Zgromadzone dane administratorzy starają się wykorzystywać w środowisku testowym i deweloperskim. Analitycy informacji w firmie korzystają z okazji do przeprowadzenia badań na wykonanych kopiach danych bez obciążania głównych serwerów. Osoby odpowiedzialne za utrzymanie ciągłości pracy przedsiębiorstw naciskają, aby w przypadku awarii można było od razu korzystać z danych z kopii backupowej w taki sposób, jakby były zgromadzone w zasobie podstawowym. A co do warstwy technicznej, backupu nie da się uniknąć. Replikacja tu nie pomoże, bo jeśli dane zostaną uszkodzone, niepoprawnie zmodyfikowane lub zawirusowane, w takiej właśnie postaci zostaną zreplikowane.

CRN Drugim obok backupu trudnym zagadnieniem, zresztą często z nim mylonym, jest archiwizacja. Problem polega na tym, że coraz więcej regulacji prawnych zobowiązuje firmy i instytucje do przechowywania danych przez całe dekady. Oczywiście muszą regularnie kopiować je na nowe media i utrzymywać w możliwych do odczytania formatach. Czy są na rynku narzędzia, które uczynią ten proces łatwiejszym?

Scott Sinclair Generalnie rozwiązaniem problemu są wspomniane już obiektowe pamięci masowe. Ich oprogramowanie „rozumie” dane, którymi zarządza, potrafi też przypisać im odpowiednie okresy retencji, czyli zobowiązania do przechowywania informacji w niezmienionej formie. Oczywiście trzeba przenosić dane na nowe nośniki. Często ma miejsce absurdalna sytuacja: w firmie przechowuje się archiwa na taśmach sprzed 10–15 lat, a obok znajdują się szczelnie zafoliowane napędy taśmowe, które – jak wierzą administratorzy – umożliwią kiedyś odczytanie tych nośników. Dlatego trzeba zawsze korzystać z najnowszych technik gromadzenia danych, a spośród dostawców usług obiektowego przechowywania danych wybierać tych o najlepszej reputacji, którzy najpewniej będą działać także za 20–30 lat.