CRN Dzisiaj trudno oprzeć się wrażeniu, że producenci i
klienci zaczęli mówić różnymi językami. Dostawcy skupili się na marketingowych
przekazach, jak chmura, Software-Defined czy Big Data. Tymczasem klienci są
zagubieni, bo nie wiedzą co wybrać, zarówno ze strategicznego, jak też
taktycznego punktu widzenia. Czy można zgodzić się z opinią, że dostawcy nie
zawsze starają się zrozumieć rzeczywiste potrzeby klientów i próbują „wmówić”
im własną wizję informatycznego świata?

Patrick Schmidt Taka obserwacja jest poprawna, ale
z paroma zastrzeżeniami. To jednak producenci wymyślają nowe rozwiązania.
Czasami przy współudziale klientów, ale czasami bez, bo działy R&D
ambitnych dostawców potrafią pójść daleko poza granice wyobraźni użytkowników.
Wszyscy chcą stworzyć dodatkową wartość. Nie tylko poprzez wymyślenie nowych
rozwiązań, ale także nowych standardów czy sposobów wykorzystania tego, co
klient już posiada.

 

CRN Zdaje się jednak, że większość klientów już nie
nadąża za tempem rozwoju systemów IT…

Patrick Schmidt Dokładnie tak. Nie jest to zresztą
zjawisko ani nowe, ani niepożądane. W wielu centrach danych naszych klientów
widzimy, że „opuścili” kilka ostatnich cykli innowacji. Nie można ich jednak za
to całkowicie krytykować: zupełnie nowe systemy pojawiają się co 2-3 lata,
podczas gdy średni czas eksploatacji starych to 4-5 lat. Teraz jednak
znaleźliśmy się na dużym „innowacyjnym zakręcie”. Ogromna ilość danych, które
przetwarzamy, zmusiła wszystkich do zmiany podejścia do zarządzania
infrastrukturą i wprowadzenia rozwiązań typu Software-Defined. Teraz wspólnym
zadaniem wszystkich dostawców rozwiązań IT jest pomoc firmom w zrobieniu dużego
kroku i wprowadzeniu do centrów danych warstwy programowej, która ułatwi
zarządzanie infrastrukturą.

 

CRN Z jakiego typu wyzwaniami to się wiąże?

Patrick Schmidt Przede wszystkim z koniecznością
bardzo skrupulatnej analizy stanu posiadania i określenia ścieżki migracji. Nie
tylko w warstwie technologicznej, ale także, a może nawet przede wszystkim,
biznesowej. Dla części klientów taki „przeskok” o kilka lat w rozwoju
technologicznym może oznaczać małą rewolucję, co – gdyby robili to na bieżąco –
byłoby ewolucją. My jako producenci staramy się natomiast jak najlepiej
wspierać w tym procesie zarówno naszych klientów, jak też partnerów. Rozwijamy
działalność usługową i zatrudniamy kolejnych specjalistów, dzięki którym możemy
zaproponować klientom pełny zakres usług, m.in. migrację baz danych,
projektowanie infrastruktury, audyt warstwy zasilania i chłodzenia.

 

CRN Ile czasu średnio tak duży skok zabiera klientom?

Patrick Schmidt Tu nie ma reguły, bo za każdym
razem trzeba prowadzić indywidualne analizy. Cały proces z reguły zaczyna się,
gdy w firmie wydarzy się coś ważnego i przedsiębiorstwo nie może już
funkcjonować w taki sposób, jak robiło to dotychczas. Najczęściej zaczyna
brakować pieniędzy, ponieważ budżety IT pozostają na stałym poziomie, a
potrzebnych jest więcej pamięci masowych i mocy do przetwarzania danych,
serwerownia nie mieści już nowego sprzętu lub konieczne staje się wdrożenie
nowej wersji aplikacji… To firma sama musi ocenić ile ma czasu – oczywiście
im jest go mniej, tym bardziej potrzebne jest stanowcze działanie. Ważne jest,
aby pamiętać, że jedna zmiana może wymusić inne i na takie ewentualności też
trzeba się przygotować.

 

CRN Wielu producentów w branży IT jako odpowiedź na to
wyzwanie przygotowało urządzenia klasy appliance czyli rozwiązania gotowe do
szybkiego wdrożenia. Czy u klienta możliwe jest przeprowadzenie takiej rewolucyjnej
„odnowy” właśnie w ten sposób, czy też konieczna jest klasyczna integracja – system
po systemie?

Patrick Schmidt W prostych środowiskach IT
zastosowanie urządzeń typu appliance może się sprawdzić. Ale w dużych na pewno
nie, zarówno ze względu na niewystarczającą skalowalność, jak też brak
otwartości na integrację z innymi systemami. Tam konieczne jest globalne spojrzenie
na proces zarządzania infrastrukturą IT i dostosowanie jej do wymagań
stosowanych aplikacji, a często też potrzeb konkretnych użytkowników. Przy
obecnej eksplozji ilości danych firmy nie powinny ryzykować kupowania
rozwiązań, których – gdy nagle przyjdzie taka konieczność – nie będą w stanie
szybko rozbudować.

 

CRN W 2013 r. Cisco kupiło firmę Whiptail, producenta macierzy
z pamięciami flash. Czy – po udanym
wejściu na rynek serwerów – jest to
także próba rozpoczęcia działań związanych z oferowaniem pamięci masowych? Czy
można spodziewać się dalszych przejęć w tym obszarze?

Patrick Schmidt Nic mi nie wiadomo o planach
przejęcia jakiegoś większego dostawcy pamięci masowych. Natomiast firmę
Whiptail kupiliśmy, żeby oferowane przez nią rozwiązania móc integrować z
naszymi serwerami. Była to poniekąd nasza odpowiedź na coraz bardziej
zauważalny trend w konstruowaniu systemów IT. Polega na tym, że aby
przyspieszyć dostęp do danych na potrzeby wirtualnych desktopów czy projektów
Big Data, pamięci masowe trzeba jak najbardziej zbliżyć do serwerów. Przyszłość
modelu, w którym wszystkie dane będą scentralizowane, wydaje się wątpliwa…

 

CRN Jak to? Przecież od kilkunastu lat to właśnie
sieci Storage Area Network, gdzie na potrzeby komunikacji serwerów z macierzami
dyskowymi tworzona jest specjalna infrastruktura, były wskazywane jako
najbardziej wydajne rozwiązanie?

Patrick Schmidt Według badań analityków w 2020 r.
będzie potrzeba 12 razy więcej przestrzeni dyskowej klasy korporacyjnej niż
obecnie. Nie sądzę, żeby firmy zgodziły się na poniesienie tak dużego kosztu. Do
tego dochodzi wspomniana już coraz częstsza konieczność jak największego
przybliżenia pamięci masowych do serwerów. Ze względów wydajnościowych idealnym
rozwiązaniem jest czasem instalacja kart rozszerzeń z pamięciami flash. Dlatego
trzeba założyć, że posiadane przez firmy pamięci masowe ulegną przynajmniej
częściowemu rozproszeniu.

 

CRN A więc w pewnym sensie historia zatoczy koło, bo
wracamy do modelu z lat 90. ubiegłego wieku?

Patrick Schmidt Tak, ale nadal konieczne jest
sprawowanie pełnego nadzoru nad tymi pamięciami i zgromadzonymi danymi oraz
odpowiednie zabezpieczanie ich, zarządzanie replikacją itd. Dlatego wkrótce coraz
popularniejsze będą rozwiązania klasy Software Defined Storage, które umożliwiają
wgląd we wszystkie zasoby dyskowe – także te zgromadzone bezpośrednio w
serwerach – z jednego, centralnego miejsca. Taka swego rodzaju wirtualizacja
danych wychodzi znacznie taniej, niż inwestowanie w duże macierze dyskowe i
zarządzanie nimi. Ale oczywiście nie oznacza to nagłej, rewolucyjnej zmiany – nadal
będziemy mieli wciąż przecież rozwijany protokół Fibre Channel i sieci SAN.