Jeszcze do niedawna eksperci od pamięci masowych ekscytowali się rywalizacją producentów w segmencie macierzy all-flash. Ale to już historia. Obecnie każdy z liczących się graczy ma w swoim portfolio tego typu systemy, a ceny 1 GB na kościach pamięci flash stopniały z 15 do 1 dol. Nie dziwi więc, że od pewnego czasu mamy do czynienia z procesem konsolidacji – czego dowodzą działania Della, HPE, IBM-u czy Western Digital. Na rynku wciąż jednak pojawiają się nowi gracze, których losy układają się różnie. Niektórzy, jak Nutanix, wspinają się na szczyt i wyznaczają nowe trendy. Inni, co pokazuje najświeższy przykład Tintri, choć mają ciekawe pomysły, nie potrafią dostosować się do trudnych reguł gry rynkowej. Jednak ich niepowodzenia nie zrażają pozostałych śmiałków z Doliny Krzemowej. Zdaniem Marca Staimera z Dragon Slayer Consulting dużym ułatwieniem dla startupów jest rozwój oprogramowania open source. CentOS, Ceph, Docker, Linux, Swift czy ZFS zmniejszają bariery wejścia na rynek, ponieważ deweloperzy nie muszą zaczynać od zera.

Powtórka ze Storwize?

Czternaście lat temu Gal Naor wspólnie z Jonathanem Amitem założyli firmę Storwize, zajmującą się macierzami dyskowymi. Sześć lat później IBM wyłożył na jej zakup 140 mln dol. Wówczas unikalną wartością systemu była kompresja w czasie rzeczywistym, która umożliwiała znaczne ograniczenie kosztów przechowywania danych. Po transakcji życia Gal Naor założył firmę StorOne i zajął się przygotowaniem oprogramowania Total Resource Utilization. 

Producenci biorą udział w wyścigu, wprowadzając co kilkanaście miesięcy nowe rozwiązania. Za każdym razem próbują wmówić klientom, że są one innowacyjne. Ale czy w tak krótkim okresie można stworzyć przełomową technologię? – zastanawia się Izraelczyk, który w ten sposób daje swoim potencjalnym partnerom do zrozumienia, że woli konkrety od sloganów.

Wdrożenie aplikacji TRU umożliwia ograniczenie liczby urządzeń oraz nośników danych. Oprogramowanie obsługuje fizyczne serwery lub urządzenia wirtualne z różnymi nośnikami (SSD, HDD czy NVMe), a także zapewnia możliwość przechowywania danych w postaci plików, bloków i obiektów. Testy przeprowadzone przez StorOne pokazują, że użycie zaledwie kilku dysków SAS SSD umożliwia uzyskanie setek tysięcy IOPS, natomiast zainstalowanie kilku modułów NVMe pozwala przekroczyć milion IOPS. 

Gdyby zapytać użytkowników macierzy dyskowych, czego oczekują od swoich urządzeń, zapewne odpowiedzieliby, że bardziej wydajnego sprzętu. Ja uważam, że powinni raczej rozważyć, czy warto inwestować w bardziej złożony system pamięci masowych, żeby uzyskać, dajmy na to, 250 tys. IOPS, jeśli taki sam wynik można osiągnąć za pomocą kilku zwykłych dysków – mówi Gal Naor.

 

Trzeba przyznać, że CEO StorOne zdecydował się na odważny krok, jakim było przygotowanie aplikacji wykorzystującej potencjał procesorów oraz nośników – dwóch komponentów pamięci masowych, których parametry w ostatnich latach uległy znacznej poprawie. Większość producentów zmierza w innym kierunku, opracowując uniwersalne oprogramowanie do obsługi różnorodnych systemów, w tym także starszych modeli. W rezultacie software staje się bardziej złożony, a tym samym mniej efektywny. Czy w takim razie klienci docenią odwagę izraelskiego przedsiębiorcy? Do tej pory produkt został dostrzeżony przez inwestorów, którzy przeznaczyli na rozwój StorOne 38 mln dol.

Infrastruktura ze sztuczną inteligencją

Wizję Gal Naora podzielają założyciele firmy Datera. Ich zdaniem tempo rozwoju rynku pamięci masowych zależeć będzie od oprogramowania. Dlatego kalifornijski startup wprowadził na rynek system Data Services Platform, służący do obsługi danych w nowoczesnych hybrydowych środowiskach IT. Jednolita platforma ma zaspokajać potrzeby przedsiębiorstw w zakresie przechowywania baz danych, kontenerów czy aplikacji chmurowych. Jej twórcy przyznają, że podczas projektowania wzorowali się na hiperskalowalnych systemach chmurowych.

Oprogramowanie DSP może być uruchamiane na serwerach x86, dostarczanych bezpośrednio przez Daterę lub zewnętrznych dostawców – Cisco, Della, HPE czy Supermicro. System zapewnia m.in. deduplikację, kompresję, automatyczny tiering i migrację danych w czasie rzeczywistym. Przedstawiciele startupu podkreślają, że ich produkt bazuje na procesach uczenia maszynowego, optymalizujących efektywność i koszty pracy infrastruktury. W rezultacie wpływ czynnika ludzkiego na funkcjonowanie platformy jest zredukowany do minimum.

Elastyczność jest bardzo ważną cechą pamięci masowych, ale nie mniej istotną rolę odgrywa wydajność, o której decydują parametry sprzętu oraz inteligencja systemu – tłumaczy Hal Woods, CTO Datery.

 

Warto dodać, że firma z Santa Clara nie uwzględnia w swojej architekturze macierzy dyskowych. Zdaniem jej specjalistów im prościej, tym lepiej, bo – jak podkreślają – „złożoność IT zabija innowacje”.

Startup działa od 2013 r. i od tego czasu pozyskał od funduszy inwestycyjnych 40 mln dol. Niemniej jego szefowie liczą na kolejne zastrzyki finansowe, które mają pozwolić na promocję i ekspansję Data Services Platform w Europie. Rozwiązanie Datery doceniła redakcja amerykańskiego wydania CRN, umieszczając DSP na liście 50 najlepszych aplikacji przeznaczonych do obsługi centrów danych.

Dane w kontenerach

Kontenery w ostatnich latach zawładnęły sercami i umysłami programistów. Gartner przewiduje, że do końca 2020 r. ponad 50 proc. przedsiębiorstw będzie korzystać z tych rozwiązań. Dla porównania: w ubiegłym roku wskaźnik ten wynosił niespełna 20 proc. Według analityków z 451 Research w ciągu najbliższych dwóch lat rynek kontenerów będzie rósł w tempie 40 proc. rocznie i w 2020 r. osiągnie wartość 2,7 mld dol. 

Pojawienie się kontenerów oznacza nowe wyzwania dla działów IT. Te największe są związane z zarządzaniem i ochroną danych. Użytkownicy potrzebują pamięci masowej, która przechowywałaby dane dłużej, niż wynosi czas życia kontenerów. Są one bowiem z natury tymczasowe i mobilne, a więc potrzebują platformy storage uwzględniającej obie cechy. Takim rozwiązaniem jest oprogramowanie z rodziny PX firmy Portworx. Platforma łączy istniejące serwery, macierze SAN, NAS, DAS, a także instancje chmurowe, świadcząc usługi z zakresu obsługi danych dla kontenerów. Narzędzia PX zapewnia ją klonowanie, tworzenie migawek, replikację czy szyfrowanie danych. Oprogramowanie jest zintegrowane z Docker Swarm, Kubernetes, Rancher i Mesosphere DC/OS.

Nasz produkt powstał specjalnie z myślą o środowisku kontenerowym i realizuje niezbędne zadanie związane z przechowywaniem, zarządzaniem oraz ochroną danych, zapewniając ich trwałość, wydajność oraz wysoką dostępność. Wdrożenie PX-Series umożliwia oszczędzenie od 40 do 60 proc. kosztów związanych z obsługą pamięci masowych – tłumaczy Murli Thirumale, założyciel i CEO Portworx.

Startup z Los Altos, założony w 2014 r., może pochwalić się takimi klientami jak: Carrefour, DreamWorks, Lufthansa Systems, American Express czy Lloyds Bank. To poważny argument dla resellerów oraz integratorów, którzy rozważają sens współpracy z szerzej nieznanymi dostawcami.

Portworx pozwolił nam uruchomić w kontenerach wymagające najwyższej wydajności aplikacje, takie jak Cassandra, Postgres i Kafka. To było jedno z kluczowych zadań mających na celu modernizację naszego studia odpowiedzialnego za tworzenie software’u – wyjaśnia Ali Zaidi, Director of Platform Services w DreamWorks.

 

 

Porządkowanie zimnych danych

Kilka miesięcy temu branżowe media poinformowały o rozpoczęciu współpracy IBM-u z Komprise. Big Blue nie wybrał nowego partnera przypadkowo i niewykluczone, że w nieodległej przyszłości koncern wchłonie kalifornijski startup. Przy czym lista chętnych do zakupu młodej firmy z siedzibą w Campbell może być znacznie dłuższa, gdyż z Komprise kooperują ponadto AWS, NetApp, Dell EMC, Microsoft, Google i HPE. Nie mniej interesująco przedstawia się lista klientów wciąż młodej firmy, na której znajdują się m.in.: Electronic Arts, AIG, Yale czy Stanford University. Co sprawia, że istniejący od zaledwie czterech lat startup przyciąga gigantów ze świata IT oraz renomowanych klientów?

Otóż Komprise oferuje oprogramowanie łączące funkcje zarządzania pamięciami masowymi z zaawansowaną analityką. Software analizuje dane przechowywane zarówno w środowisku lokalnym, jak i chmurze, niezależnie od tego, czy znajdują się na systemach Dell EMC, NetApp, IBM bądź innych producentów. Administrator korzystający z rozwiązań Komprise może definiować rozmaite reguły dotyczące przenoszenia danych oraz ich archiwizacji. Oprogramowanie tworzą dwa elementy: Komprise Director oraz Komprise Observer. Pierwszy z nich administruje danymi i zazwyczaj uruchamia się go w modelu SaaS lub (rzadziej) jako maszynę wirtualną. Drugi jest „wirtualką” umieszczaną w środowisku klienta, która odpowiada za inwentaryzację pamięci masowych oraz realizację polityk zdefiniowanych przez Komprise Directora.

O ile koszty przechowywania zasobów cyfrowych nie są zbyt wielkie, o tyle ręczne zarządzanie nimi generuje poważne wydatki. Komprise automatyzuje proces przenoszenia tzw. zimnych danych (rzadko używanych) na tańsze i pojemniejsze nośniki – wyjaśnia Kumar Goswami, CEO i założyciel Komprise. 

Przykładowo Government Utilities Technology Service dzięki wdrożeniu Komprise obniżyło koszty storage’u o 70 proc., samego backupu zaś o 88 proc. 

Obsługujemy ponad 100 PB danych. Z naszych obserwacji wynika, że 76 proc. zalicza się do zimnych zasobów, ale w niektórych branżach ten wskaźnik jest wyższy od średniej. W grupie firm reprezentujących media i rozrywkę wynosi on 88 proc., a w przypadku opieki zdrowotnej aż 82 proc. Jednak najbardziej perspektywicznym obszarem wydaje się genomika, gdzie roczny przyrost zimnych danych przekracza 300 proc. – mówi Kumar Goswami.

Pamięć obiektowa z ludzką twarzą

George Dochev, CTO i współzałożyciel LucidLink, jeszcze kilka lat temu pracował w DataCore Software. Większość zadań wykonywał zdalnie ze swojego domowego biura we Francji, łącząc się z główną siedzibą na Florydzie, a także oddziałem w Bułgarii. Kod źródłowy oprogramowania SANsymphony składał się z dziesiątek tysięcy plików, a wymiana informacji pomiędzy pracownikami działającymi w różnych placówkach stała się bardzo kłopotliwa i wymagała zastosowania specjalnego sprzętu. Nie było to jednak optymalne rozwiązanie.

W 2016 r. George Dochev oraz Peter Thomson z DataCore Software założyli firmę LucidLink, która opracowała produkt przeznaczony do dystrybucji rozproszonych systemów plików. Użytkownicy przechowujący dokumenty tekstowe, zdjęcia lub filmiki w chmurze Amazona czy Dropboxie nie mają problemów z ich synchronizacją ani pobieraniem na lokalny komputer. Jednak w przypadku plików o dużej objętości oraz środowisk produkcyjnych sprawy poważnie się komplikują. Wprawdzie można korzystać z różnego rodzaju przejściówek (Nasuni, Panzura), ale nie wpływają one korzystnie na wydajność środowiska. Natomiast LucidLink umożliwia strumieniowe przesyłanie danych bezpośrednio z chmury AWS S3 bez konieczności ponownego ich pobierania lub synchronizacji. Po rozwiązanie mogą sięgać użytkownicy urządzeń działających pod kontrolą systemów Linux i nie wymaga ono instalacji jakiegokolwiek sprzętu lub aplikacji.

Promujemy nasz produkt wśród użytkowników chmury publicznej i nie musimy ich przekonywać do tego modelu. Niemniej chcemy im pokazać, że można dużo łatwiej niż dotychczas korzystać z zasobów. Automatyzacja procesów znacznie ułatwia dostęp do danych w trybie obiektowym – wyjaśnia Peter Thompson, CEO i współzałożyciel LucidLink.

LucidLink zgromadził od funduszy inwestycyjnych 5 mln dol., ale na razie nie ma na koncie spektakularnych wdrożeń. Wydaje się jednak, że przyszłość startupu rysuje się w jasnych barwach. Nietuzinkowy produkt to niejedyny atut firmy z San Francisco – nie mniej istotne znaczenie ma rosnąca popularność pamięci obiektowej.