W chmurze publicznej jest tanio, pod warunkiem że chodzi o w miarę proste usługi bazujące na współużytkowaniu zasobów serwerowych i pamięciowych. Jeżeli klienci decydowali się na przenoszenie swoich krytycznych systemów czy baz danych, działających w sposób ciągły i wymagających od operatora chmury publicznej alokowania zasobów, to wtedy robiło się znacznie drożej”. Ta opinia Grzegorza Krawczyka z polskiego oddziału Cisco znakomicie oddaje wątpliwości, jakie z czasem zaczęły narastać wokół idei public cloud, która miała w szybkim tempie wyprzeć pozostałe modele biznesowe. Obecnie można więc zaobserwować, jak wiele przedsiębiorstw na świecie przenosi swoje aplikacje z powrotem do własnych centrów przetwarzania danych. Przy czym powrót nie polega na całkowitym odwrocie od chmury, ale umiejętnym rozdzieleniu tego, co powinno działać we własnej infrastrukturze, od tego, co ma funkcjonować w chmurze.

Co ważne, kilkuletnie doświadczenia z chmurą sprawiły, że klienci oczekują teraz, iż lokalna obsługa aplikacji będzie równie „łatwa i przyjemna” jak ta zapewniana przez public cloud. Dlatego zaczyna dominować podejście nazywane multicloud albo hybrydowym IT, w którym własne centrum danych funkcjonuje jako chmura prywatna. W niej umieszczane jest to, co musi być z powodów ekonomicznych albo związanych z bezpieczeństwem przetwarzane lokalnie, a mniej istotne aplikacje, generujące mniejszy ruch oraz środowiska testowe i deweloperskie są przenoszone do chmury.

Z doświadczeń zza granicy mogą obecnie korzystać polscy klienci, którzy przez ostatnie lata wykazywali niewielkie zainteresowanie chmurą publiczną. Mają szansę uczyć się na cudzych błędach i – jak wynika z danych Eurostatu – w umiarkowanym tempie, ale systematycznie zwiększają użycie chmury publicznej w polskich firmach (zob. ramka „Chmura rośnie w swoim tempie”, str. 31).

 

Modernizacja stymulowana cyfryzacją

Wciąż jednak najważniejsza pozostaje infrastruktura lokalna. Jej sprzedaż rośnie zarówno na świecie, jak i w Polsce. Według analityków z IDC najważniejszym trendem prowadzącym do zwiększenia sprzedaży na globalnym rynku rozwiązań dla centrów danych będzie w ciągu najbliższych trzech lat modernizacja dotąd wykorzystywanej infrastruktury. Nie inaczej jest u nas. W procesie tym uczestniczą firmy ze wszystkich branż. Grzegorz Krawczyk wskazuje przede wszystkim na te, które w swoim biznesie stawiają na szeroko pojętą cyfryzację.

– Do ciekawych wniosków doprowadziło nasze ubiegłoroczne badanie, w którym ponad 700 klientów zapytaliśmy, czy w ich przedsiębiorstwach funkcjonuje dział rozwoju aplikacji biznesowych – mówi specjalista z Cisco.

Jedna trzecia respondentów odpowiadających na ankietę Cisco potwierdziła istnienie takiego działu. A to oznacza, że potrzebuje też infrastruktury, która go obsłuży. W klasycznym modelu rozwijane oprogramowanie wymagało przejścia ze środowiska deweloperskiego do testowego, by na końcu znaleźć się w produkcji. Ciągła potrzeba tworzenia nowych środowisk zwykle prowadzi do konfliktów między działami programistycznymi i IT. Nie będzie ich, gdy dostępna stanie się nowoczesna infrastruktura, więc firmy posiadające działy developmentu będą zmuszone do modernizacji swoich centrów danych.

 

Zdaniem Sławomira Franczaka, kierownika ds. rozwoju biznesu UPS w Legrand Polska, w związku z postępującą cyfryzacją coraz istotniejsze jest zapewnienie infrastruktury IT działającej na odpowiednim poziomie, zwłaszcza w sektorze przemysłowym.

Zalety dobrze zorganizowanej serwerowni lub małego centrum danych zaczynają zauważać jednostki samorządowe, które czynią kroki w kierunku modernizacji infrastruktury – zauważa Sławomir Franczak.

Wymiana rozwiązań na nowsze umożliwia przedsiębiorstwom wdrażanie bardziej transparentnych modeli operacyjnych IT, dając im szerszy wgląd w środowisko informatyczne i tym samym większą kontrolę nad uruchamianymi aplikacjami. Modernizacja wiąże się przy tym z wprowadzaniem coraz większej automatyzacji w centrum danych, i to nie tylko w obszarze infrastruktury IT, ale także w warstwie fizycznej, obejmującej zasilanie i chłodzenie. Automatyzacja prowadzi do lepszego wykorzystania zasobów i zarządzania nimi, ogranicza też ryzyko występowania błędów wiążących się z manualną obsługą.

Przed nami pięć lat wzrostów

Chmura nie zmniejsza popytu na infrastrukturę, i to nie tylko na polskim, wciąż bardzo sceptycznym wobec cloud computingu rynku. Choć na świecie trwa wielka ofensywa globalnych dostawców chmury publicznej, której przejawy możemy obserwować

również w Polsce, lokalni operatorzy komercyjnych centrów danych także zwierają szyki, doskonaląc ofertę dla przedsiębiorstw. Dzięki temu, choć można byłoby oczekiwać spadków sprzedaży sprzętowej infrastruktury IT dla przedsiębiorstw, tak się nie dzieje.

Jak wynika z analizy Synergy Research Group, w sześciu kluczowych kategoriach sprzętu IT przychody dostawców w 2017 r. wzrosły o 3 proc., osiągając wartość 113 mld dol. Największym segmentem są serwery do centrów danych, ale akurat w ich przypadku w ubiegłym roku zanotowano 1-proc. spadek. Z kolei drugi segment pod względem wielkości, czyli przełączniki i routery, urósł o 4 proc.

Dominującym dostawcą infrastruktury pozostaje Cisco Systems. Rynkowa kapitalizacja tej spółki to obecnie 194 mld dol. Największy producent sprzętu sieciowego jest według Synergy liderem w czterech spośród sześciu wyróżnionych kategorii. Jedynie w „hosted and cloud collaboration” znajduje się na pozycji drugiej, natomiast w gronie dostawców „serwerów dla data center” zajmuje piąte miejsce. W ubiegłym roku należało do niego 26 proc. zagregowanej sprzedaży we wszystkich sześciu segmentach, co oznacza spadek o 1 proc. w porównaniu z 2016 r.

Do HPE, generalnie numeru 2 wśród dostawców, należy 11 proc. rynku obejmującego sześć różnych segmentów. Jak twierdzi Synergy, HPE zajmuje pierwszą pozycję w kategorii serwerów dla data center, drugie miejsce w kategorii sprzętu WLAN oraz trzecie w przypadku przełączników i routerów.

Kategoria sprzętowych rozwiązań typu „hosted and cloud collaboration” jest jedyną, w której nie przewodzi ani Cisco, ani HPE. W tym segmencie liderem jest Microsoft. W pozostałych kategoriach na drugich pozycjach są: Dell EMC („enterprise data center servers”), Huawei („switches and routers”), Microsoft („on-premise collaboration”) oraz Check Point („network security”).

Wśród dostawców, którzy w 2017 r. osiągnęli największe wzrosty sprzedaży w tych mocno konkurencyjnych segmentach na rynku infrastruktury dla centrów danych, są: Super Micro, Arista Networks oraz RingCentral.

Zdaniem analityków Synergy pomimo gwałtownego rozwoju oferty dostawców chmury publicznej rynek producentów infrastruktury IT dla przedsiębiorstw będzie przynosił coraz wyższe przychody przez co najmniej pięć lat. Jednak w tym okresie ma zmieniać się jego struktura – wraz ze wzrostem znaczenia rozwiązań hostowanych oraz modeli biznesowych bazujących na abonamencie, a także pojawianiem się nowych technologii.

 

Automatycznie i inteligentnie

Inteligentne technologie są wykorzystywane w warstwie infrastruktury fizycznej już od jakiegoś czasu. Zasilacze UPS czy rozwiązania z zakresu klimatyzacji precyzyjnej są wyposażane w programowalny firmware i algorytmy kontrolujące to, jak sprzęt powinien się zachować, gdy zmienią się warunki środowiskowe. Przykładowo systemy sterujące chłodzeniem mogą tak wpływać na działanie zaworów, wentylatorów czy pomp, by w sposób skoordynowany utrzymane zostały zdefiniowane przez użytkownika parametry.

Sprzęt zasilający i chłodzący może być wyposażony w czujniki, które będą zbierać ogromną ilość informacji na temat swojego działania oraz środowiska panującego w centrum danych. Mogą one służyć do określania tego, jak warstwa fizyczna ma działać i reagować (przykładowo przełączyć zasilanie na bypass, wyłączyć ładowanie baterii, wysłać ostrzeżenie do administratora itp.). Mogą również być wykorzystywane przez platformy DCIM, które zapewnią obszerne informacje na temat stanu centrum danych i pokażą trendy dotyczące użycia zasobów, niezawodności i efektywności infrastruktury.

Zespół Data Center Science firmy Schneider Electric niedawno policzył, że straty energii w warstwie fizycznej w typowym centrum danych w ciągu ostatnich 10 lat zostały ograniczone aż o 80 proc.! Stało się to możliwe dzięki sukcesom w zwiększaniu sprawności zasilaczy UPS oraz technik chłodzenia – przykładowo w wyniku ekonomizacji, czyli efektywnego wykorzystania niskiej temperatury powietrza zewnętrznego do chłodzenia centrum danych oraz ograniczenia mieszania powietrza zimnego z gorącym. Zdaniem specjalistów z APC to dobry punkt wyjścia do dalszego zwiększania efektywności data center, które może polegać na wykorzystaniu sztucznej inteligencji i uczenia maszynowego.

 

Infrastruktura w abonamencie

Przeniesienie zalet chmury publicznej do chmury prywatnej, czyli firmowego centrum danych, może skutkować pojawieniem się modeli korzystania z infrastruktury, które umożliwią przenoszenie kosztów inwestycyjnych (CAPEX) w sferę operacyjną (OPEX).

Adam Dyszkiewicz

Senior Business Development Manager – Datacenter, Fujitsu

Zgodnie z przewidywaniami w obszarze infrastruktury dla centrum danych obserwujemy duże zainteresowanie macierzami typu all-flash. Z powodu stałego spadku cen nośników SSD wydajne rozwiązania tego rodzaju stały się dostępne również dla średnich firm. Rośnie poza tym wykorzystanie platform konwergentnych i hiperkonwergentnych, co przejawia się zwiększonym zainteresowaniem konwergentnymi rozwiązaniami klastrowymi dla mniejszych przedsiębiorstw i oddziałów. Ważne staje się także zastosowanie chmury w zadaniach archiwizacyjnych i zgodność z przepisami RODO. Klienci poszukują też rozwiązań backupowych i archiwizacyjnych typu appliance. Ma na to wpływ prostota wdrożenia, ograniczenie problemów wydajnościowych i implementacyjnych, jak również elastyczność licencjonowania, skalowalność oraz przewidywalność kosztowa w trakcie wieloletniego użytkowania.

Zdaniem integratora

• Cezary Odziemczyk, dyrektor działu wsparcia sprzedaży, Atende

Coraz częściej u klientów występuje efekt sezonowości przychodów, gdy pojawiają się cykle sprzedaży. Z tego powodu są oni żywotnie zainteresowani płaceniem tylko za to, co jest efektywnie wykorzystywane, w modelu capacity on demand. Rozwiązania wdrażane przez klientów przy pewnej skali stają się bowiem kosztowne i mogą być przewymiarowane. Model CAPEX-owy jest wtedy po prostu zbyt drogi. Dodatkowo coraz częściej klienci końcowi łączą zakup produktów z usługą ich utrzymania, głównie z racji dużego zaawansowania technologii i braku własnych kompetencji, a koszt zasobów ludzkich jest wyższy niż inwestycja w rozwiązania IT. Usługi są wyceniane w modelu OPEX-owym i z tego powodu coraz częściej są łączone i sprowadzane do jednej kwoty. Po zakupie klient końcowy może podjąć decyzję, jak chce płacić za usługę – rocznie, kwartalnie, miesięcznie – i ocenić, czy jest ona dla niego przydatna. Może również szybko i sprawnie zmienić usługodawcę, co w modelu CAPEX-owym nie jest już takie łatwe. Z kolei dla integratora główne korzyści z modelu abonamentowego wynikają z powtarzalności produktu, co stwarza możliwość dotarcia do większej liczby klientów i daje przewidywalność przychodów.

 

– Klienci coraz częściej stawiają na outsourcing. Zamiast budować własne centra danych, zwracają się do zewnętrznych firm specjalizujących się w wynajmowaniu serwerów – twierdzi Sławomir Franczak.

Promując „konsumpcyjny” styl wykorzystania infrastruktury przez przedsiębiorstwa, dostawcy tworzą modele w większym lub mniejszym stopniu bazujące na abonamencie.

– Jesteśmy przygotowani do oferowania usług w taki sposób. Ważną rolę do odegrania mają w tym nasi integratorzy – zauważa Grzegorz Krawczyk.

Przedstawiciel Cisco daje przykład sprzedaży na polskim rynku, który polegał na wstawieniu przez integratora wyleasingowanej infrastruktury, oferowanej w modelu usługowym, do siedziby klienta. Była to niewielka konfiguracja, obejmująca trzy serwery, dla której integrator zobowiązał się do świadczenia umowy SLA na działanie infrastruktury, a klient sam nią zarządza.

– Klienta nie interesuje, co jest pod spodem, bo zależy mu tylko na tym, by to działało. Uiszcza miesięczną opłatę za infrastrukturę, która fizycznie stoi u niego, ale nie należy do niego – wyjaśnia Grzegorz Krawczyk.

Czy model subskrypcyjny, oparty na abonamencie, nie jest jednak zagrożeniem dla integratora, który być może najchętniej sprzedałby infrastrukturę w całości, uzyskując jednorazowy zysk, za to znacznie większy niż comiesięczne wpływy liczone w krótszej perspektywie czasowej?

Zdania są podzielone. Niektórzy rozmówcy CRN Polska twierdzili wprost, że tej rewolucji integratorzy będą niechętni. To zbyt daleko idąca zmiana w stosunku do tego, do czego przyzwyczaili się przez lata. A jednocześnie problem z punktu widzenia wynagradzania handlowców. Ich zdaniem opór stawiać mogą też sami klienci, którzy przywykli do tradycyjnego podejścia do planowania budżetów.

Jednak w opinii zwolenników subskrypcji powody niechęci są bardziej mentalne niż realne. Z perspektywy klienta przejście z modelu CAPEX na OPEX oznacza korzyść polegającą na tym, że za ułamek ceny produktu otrzymuje od razu pełną funkcjonalność. W dodatku ma gwarancję, że będzie używał stale uaktualnianego rozwiązania – każdy, kto płaci abonament, korzysta zawsze z najnowszej wersji oprogramowania. Z profitami mamy do czynienia także z punktu widzenia integratora – abonament zapewnia mu przewidywalność przyszłych wpływów. Jeśli w starym modelu trzeba za każdym razem zaczynać od zera i co roku realizować nowy plan sprzedażowy, to w przypadku subskrypcji wpływy przechodzą na kolejne lata. Poza tym integrator jest cały czas związany umową z klientem i wie, co się u niego dzieje. Po upływie kontraktu ma szansę odnowić go bez rozpoczynania całego procesu sprzedaży.

Chmura rośnie w swoim tempie

Według statystyk Eurostatu korzyści z wykorzystania chmury obliczeniowej doceniają niezmiennie przede wszystkim większe przedsiębiorstwa w Polsce, zatrudniające powyżej 250 osób. W ubiegłym roku do korzystania z chmury przyznawało się 37 proc. z nich, o 6 proc. więcej niż rok wcześniej. Wciąż daleko nam do liderów, bo w Finlandii z chmury korzysta 89 proc. dużych firm, a w Belgii – 76 proc. Za to w sąsiednich Czechach takich przedsiębiorstw jest niewiele więcej niż u nas, bo 39 proc. Jeśli chodzi o średnie firmy (poniżej 250 pracowników), to według danych Eurostatu z chmury obliczeniowej korzystało pod koniec ubiegłego roku w Polsce 17 proc. z nich. Choć to wciąż niemal dwukrotnie mniej, niż wynosi unijna średnia, warto zaznaczyć, że ubiegły rok był pierwszym od 2015, w którym wzrosła liczba przedsiębiorstw średniej wielkości wdrażających rozwiązania chmurowe.