CRN Przez kilkadziesiąt lat funkcjonowania taśm i dysków na rynku pamięci masowych można było wiele razy usłyszeć o rewolucji w rozwiązaniach do przechowywania danych, które miały wyeliminować wszystkie stare rodzaje nośników. Mówiono o dyskach holograficznych, pamięci, w której wartości bitów byłyby odzwierciedlane przez kierunek obrotu atomów, nośnikach zapewniających zapis magnetyczny, ale zdecydowanie szybszy odczyt optyczny itp. Czy w ciągu najbliższej dekady nastąpi przełom, w wyniku którego pamięci flash zyskają popularność tylko na chwilę?

Scott Sinclair Nie sądzę. Prowadzone są prace nad pamięcią RAM, której zawartość nie będzie tracona w momencie odcięcia zasilania. Ale to rozwiązanie także bazuje na koncepcji flash. Przełomu raczej należy spodziewać się w związku z sieciami, przetwarzaniem danych oraz aplikacjami. Do tej pory to twarde dyski stanowiły wąskie gardło w infrastrukturze IT. Pojawienie się szybkich nośników flash, szczególnie wykorzystujących protokół NVMe, spowodowało, że wąskim gardłem stały się wszystkie pozostałe elementy infrastruktury. Obecnie specjaliści intensywnie pracują nad zwiększeniem przepustowości serwerów oraz sieci i z tym nie będzie dużego problemu. Natomiast wyzwanie stanowi oprogramowanie, którego architektura z reguły uwzględnia fakt, że stosunkowo niewiele danych znajduje się w szybkiej pamięci operacyjnej. Zakłada się, że reszta jest na twardym dysku, a z niego dane są pobierane dość powoli. Dziś producenci komputerów pracują nad kwantowym przetwarzaniem danych, rośnie popularność chmury publicznej, więc wszystko wskazuje na to, że za 10–20 lat trzeba będzie „przepisać” całe oprogramowanie, jakie istnieje na świecie.

CRN Może wówczas faktycznie wszystkie systemy IT staną się „software-defined”?

Scott Sinclair Patrząc z technicznego punktu widzenia, można uznać, że to już się stało. Sprzęt coraz bardziej traci na znaczeniu, a firmy konkurują głównie w zakresie oprogramowania. Widać to szczególnie wyraźnie w funkcjach macierzy dyskowych. Producenci zapewniają możliwość wymiany kontrolerów w działającym urządzeniu, wdrożenie nowych rodzajów nośników, replikację danych. Tymczasem informacje zgromadzone w macierzy muszą być dostępne dla serwerów nieprzerwanie, co może zapewnić tylko oprogramowanie sterujące jej pracą.

CRN Rewolucją w zarządzaniu macierzami dyskowymi miała być ich wirtualizacja – najpierw w postaci wirtualizatorów sprzętowych, a potem programowych. Ostatnio jednak jakoś o tym cicho…

Scott Sinclair Wirtualizacja pamięci masowych była pomyślana jako rozwiązanie problemu w sytuacji, gdy firma zainwestowała w różne projekty, w wyniku których nabyła funkcjonujące oddzielne macierze różnej kategorii i od różnych producentów. Dzięki wirtualizacji zyskiwała możliwość połączenia tych macierzy w jeden zasób i udostępnienia ich serwerom z zestawem dodatkowych funkcji, m.in. automatycznego przenoszenia danych między nośnikami o różnej wydajności. Tymczasem dzisiaj coraz częściej przedsiębiorstwa mają tylko jedną centralną macierz z bardzo wieloma funkcjami i z nośnikami pogrupowanymi w warstwy według wydajności, więc pierwotny cel stosowania wirtualizacji stał się w dużej mierze nieaktualny.