Systematycznie ograniczane budżety działów IT w firmach oraz rosnące koszty energii sprawiają, że szczególną wagę przywiązuje się do konsolidowania infrastruktury serwerowej. Głównym narzędziem przy takich projektach jest wirtualizacja, której poziom popularności w firmach stale wzrasta. Na sprzedaż serwerów wpływa kryzys ekonomiczny, ale też przetwarzanie w chmurze. Dlatego analitycy z IDC i Gartnera prognozują jedynie niewielki wzrost sprzedaży serwerów w bieżącym roku.

Opinię tę potwierdzają przedstawiciele producentów i dystrybutorów.

– Rynek zdecydowanie stygnie, a prognozy mówią, że sprzedaż w bieżącym roku nie przekroczy wyników osiągniętych w 2012 r. – twierdzi Adam Dyszkiewicz, Servers Product Manager w Fujitsu Technology Solutions.

Jednak według Marka Jaszczuka, dyrektora działu Enterprise w Actionie, kryzys na naszym rynku nie jest na razie szczególnie ważnym czynnikiem wpływającym na biznes serwerowy. Rok 2012 w Actionie zamknął się wzrostem sprzedaży serwerów – zarówno pod względem wartościowym, jak i ilościowym. Marek Jaszczuk wskazuje też na fakt, że Polska jest na etapie przejściowym pomiędzy dwoma wieloletnimi budżetami unijnymi. To oznacza, że część dużych projektów może być chwilowo wstrzymana. Nie spowoduje to jednak spadku popularności serwerów oferowanych małym i średnim firmom.

Bardziej zastanawia rosnąca konkurencja cenowa między oficjalnym a tzw. brokerskim kanałem sprzedaży oraz idąca za tym erozja marż i brak kontroli producentów nad kanałem na rynkach lokalnych – podsumowuje przedstawiciel Actionu.

 

Wirtualizacja nie budzi już wątpliwości

Przewidując to, co nastąpi na rynku, można założyć, że poziomy wirtualizacji i konsolidacji będą nadal rosły, obejmując nie tylko serwery, ale też pamięć masową oraz sieci. Klienci zaczną tworzyć chmury prywatne łączące ich centrale i oddziały, a także korzystać z chmury w modelu hybrydowym.

Tymczasem – skoro rządzą konsolidacja i oszczędzanie – to serwery, które mają znaleźć nabywcę, powinny być efektywne energetycznie, cechować się dużą wydajnością i skalowalnością, a przy tym wysoką dostępnością. Świadomość tego, co się kupuje, znacznie wzrosła w segmencie małych i średnich przedsiębiorstw. Decydując się na kupno nowej infrastruktury bądź modernizację już posiadanej, firmy zwracają uwagę na oferty przekładające się na większy zwrot z inwestycji.

 

Grzegorz Dobrowolski

 

dyrektor sprzedaży Data Centre & Virtualization w Cisco Systems

Klienci pozostawiają we własnych centrach danych wszystkie kluczowe aplikacje oraz systemy. Chmura traktowana jest bardziej jako usprawnienie operacji wewnętrznych i przekształcenie modelu działania IT wewnątrz organizacji.

 

Resellerzy i integratorzy powinni mieć na uwadze przede wszystkim to, że wirtualizacja jest „na celowniku” każdego administratora, bez względu na rozmiar systemu informatycznego. Serwery są kupowane w celu wdrażania nowych aplikacji, a te są uruchamiane najczęściej w maszynach wirtualnych. Dlatego specjalizowanie się w optymalizacji i wirtualizacji środowiska IT powinno dawać przewagę konkurencyjną i wymierne dochody. Coraz częstszymi użytkownikami serwerów będą się stawać także małe i średnie firmy, które zaczną korzystać z systemów ERP i CRM.

 

Stelażowy x86 liderem nie na zawsze

Od kilku lat największą popularnością cieszą się serwery x86. Ich sprzedaż w zeszłym roku dodatkowo stymulowało m.in. pojawienie się intelowskich procesorów o architekturze Sandy Bridge. IDC utrzymuje, że przychody ze sprzedaży platformy x86 w ostatnim kwartale 2012 r. wyniosły aż 66,2 proc. wartości światowego rynku serwerów. Był to już czwarty z kolei kwartał z tak rekordową sprzedażą tego typu urządzeń.

Powodów popularności platformy x86 należy upatrywać w oferowanych przez nią najlepszych możliwościach optymalizacji kosztów względem obecnego zapotrzebowania na moc obliczeniową. Jednak palmy pierwszeństwa nie zdobyły raz na zawsze, ponieważ dalsze zwiększanie wydajności przy zachowaniu oczekiwanej energooszczędności staje się na platformie x86 technologicznie niemożliwe. Dlatego czołowi producenci zarówno chipów (Intel, AMD), jak i wykorzystujących je serwerów (HP, Dell) bardzo aktywnie pracują nad implementacją w serwerach układów ARM, Atom czy Tesla, znanych z rozwiązań mobilnych.

Analizując wielkość sprzedaży serwerów różnych typów, można zauważyć, że konsolidacja oznacza coraz większe wykorzystanie serwerów do montażu w szafach przemysłowych i systemów kasetowych (blade). Te pierwsze już od dłuższego czasu dominują na rynku, odchodzi się natomiast od serwerów typu wieża i wolno stojących. Małe firmy, które dotąd wykorzystywały mniejsze serwery tego rodzaju, mogą teraz (dzięki szybkim łączom) korzystać z mocy obliczeniowej udostępnianej przez główne centrum danych przedsiębiorstwa bądź z chmury. Poza tym już nawet małe firmy powszechnie korzystają z 19-calowych szaf przemysłowych.

– W Polsce wciąż najbardziej popularnym typem jest serwer stelażowy, jako najbardziej uniwersalny – mówi Grzegorz Dobrowolski, dyrektor sprzedaży Data Center & Virtualization w Cisco Systems. Jego zdaniem pod względem liczbowym duże znaczenie mają maszyny z tylko jednym gniazdem na procesor, jednak wirtualizacja przesunęła środek ciężkości w stronę większych maszyn, o dużej liczbie pamięci i rdzeni.

Rośnie też znaczenie serwerów wysokiej gęstości, zaprojektowanych z myślą o dużej efektywności i skalowalności (i to nie tylko z powodu koniunktury u dostawców usług). Dla swoich zwirtualizowanych środowisk informatycznych coraz częściej systemy kasetowe wybierają także przedsiębiorstwa. Zdaniem Grzegorza Dobrowolskiego pierwsze generacje serwerów kasetowych nie cieszyły się jednak dużym zainteresowaniem klientów w Polsce, w odróżnieniu od Europy Zachodniej i wybranych krajów Europy Środkowej, np. Węgier.

 

Adam Dyszkiewicz

 

Servers Product Manager, Fujitsu Technology Solutions

Dzisiaj jeden serwer może zapewnić moc obliczeniową 4–5 serwerów podobnej klasy wyprodukowanych 3–4 lata temu. Taka konsolidacja daje znaczne oszczędności zużycia energii potrzebnej do zasilania serwera, ale również chłodzenia serwerowni.

 

– Nowe architektury systemów kasetowych wprowadziły nową jakość i funkcjonalność, zmieniając postrzeganie tych platform także przez klientów w Polsce – mówi przedstawiciel Cisco.

Wśród firm rośnie też świadomość tego, czym są zintegrowane platformy obliczeniowe (fabric computing) umożliwiające łączenie serwerów, pamięci masowych i urządzeń sieciowych – na zasadzie bloków – w jeden zoptymalizowany system. Taką ofertę mają praktycznie wszyscy liczący się na rynku producenci serwerów i sprzętu dla centrów danych. Grzegorz Dobrowolski twierdzi, że ten trend cieszy się coraz większym zainteresowaniem wśród klientów, również w Polsce. Spowodowane jest to obniżeniem kosztów operacyjnych związanych z utrzymaniem czy implementacją rozwiązania oraz poprawą niezawodności i ciągłości działania systemów dla aplikacji o kluczowym znaczeniu dla firmy.

Rachunki za energię coraz ważniejsze

Szacunki Gartnera pokazują, że w centrum danych energia dostarczana do sprzętu IT jest w największym stopniu konsumowana przez serwery (45 proc. wobec 29 proc. dla pamięci masowych i 26 proc. dla sieci). Natomiast w czasach, gdy najważniejszym hasłem staje się cięcie kosztów, czynnikiem równie ważnym jak wydajność stają się oszczędności uzyskiwane dzięki nowym generacjom sprzętu. Na czym polega to w przypadku serwerów i jakie ekonomiczne argumenty trafiają do klientów?

Zdaniem Adama Dyszkiewicza wydajność w przypadku serwerów nadal ma ogromne znaczenie. Zauważa on jednocześnie, że zaczęto trochę inaczej podchodzić do jej liczenia – dziś coraz ważniejszy staje się stosunek wydajności rozwiązania do ilości zużywanej energii. Przez ostatnie lata w kolejnych generacjach serwerów parametr ten bardzo się poprawiał.

Z myślą o wirtualizacji oraz poprawie efektywności zarządzania i utrzymania systemu Cisco Systems zaprojektowało rozwiązanie UCS (Unified Computing System). Umożliwia ono centralne zarządzanie systemem kilkuset serwerów (zarówno kasetowych, jak i stelażowych), usprawnienie komunikacji z pamięcią i interfejsami I/O (dla środowisk fizycznych i wirtualnych) oraz znaczące zmniejszenie liczby aktywnych komponentów dzięki wprowadzonym zmianom konstrukcyjnym.

Własne serwery kontra usługi

Badania doradczo-analitycznej firmy Audytel wykazują, że tylko w szczególnych przypadkach budowa własnego centrum danych bywa finansowo opłacalna. Argumentem przemawiającym za taką decyzją jest wielka skala potrzeb (przekładająca się na powierzchnię od 1000 m2). Drugim powodem budowy własnego centrum danych mogą być – według Audytela – unikalne wymagania biznesowe (z bardzo wyśrubowanym SLA albo niestandardowymi sprzętem i parametrami).

 

W każdym innym przypadku korzystniejsze jest wynajmowanie mocy obliczeniowej i przestrzeni dyskowej, a już na pewno wtedy, gdy skala potrzeb w tym zakresie nie jest duża, są one zmienne w czasie oraz gdy na wdrożenie danego systemu czy aplikacji jest mało czasu.

Zdaniem analityków Audytela rynek centrów danych w Polsce dojrzewa. Świadczy o tym podaż powierzchni, która na koniec zeszłego roku wynosiła ok. 50 tys. m2 (drugie tyle zajmą obecnie budowane lub rozbudowywane). Oferta rynkowa obejmuje ponad 60 komercyjnych centrów danych o bardzo różnych parametrach jakościowych, cenach i zakresach usług.

Jak natomiast z punktu widzenia dostawców serwerów przebiegają wybory klientów? Czy stawiają oni na wynajem sprzętu i usług w chmurze, czy raczej wolą mieć wszystko pod kluczem i kontrolą we własnym centrum danych?

Dzieląc się swoimi doświadczeniami, Marek Jaszczuk przyznaje, że na co dzień Action ma do czynienia i z jednym, i drugim rodzajem klientów. Można przy tym zakładać, że duża firma, która ma własne centrum danych, prędzej czy później uruchomi prywatną chmurę. Wtedy pozostaje już tylko krok do hybrydy, czyli  połączenia z chmurą publiczną. Z kolei mniejsze przedsiębiorstwa zaczynają dostrzegać zalety braku posiadania infrastruktury przy jednoczesnej możliwości wynajęcia jej jako usługi.

– To trochę tak, jak przesiadka na samochód z automatyczną skrzynią biegów – zdecydowana większość kierowców już nie wraca do ręcznej, chociaż paradoksalnie nadal większość nowych aut na naszych drogach to manuale – podsumowuje Marek Jaszczuk.

Adam Dyszkiewicz uważa, że wielu polskich klientów podchodzi sceptycznie do chmury, szczególnie publicznej. Wzmożone zainteresowanie Fujitsu odnotowuje natomiast w segmencie rozwiązań automatyzujących pracę zwirtualizowanej serwerowni, dzięki czemu powstaje chmura prywatna.

Co ciekawe, Grzegorz Dobrowolski uważa, że o zagadnieniach związanych z chmurą mówi się teraz mniej. Przyznaje jednak, że cloud computing znalazł swoje miejsce na rynku i pojawia się coraz więcej jego implementacji. Podkreśla też, że chmura obliczeniowa to bardziej model świadczenia usług niż technologia sama w sobie.

 

Jeśli nie sprzedaż serwerów, to może chmura?

Są klienci, którzy wolą posiadać własną infrastrukturę, jak też zwolennicy wynajmowania zasobów w chmurze. Firm korzystających z drugiej opcji będzie przybywać. Najwięksi dostawcy serwerów coraz chętniej działają na obu frontach. Oprócz sprzedaży urządzeń budują swoje chmury. To może być ryzykowna gra, zaczynają bowiem w ten sposób kopiować biznes swoich największych klientów. Niemniej jednak HP, Dell i IBM uruchomiły publiczne chmury wykorzystujące platformę OpenStack, by zarabiać na oferowaniu korporacyjnych rozwiązań hybrydowych. Swoją chmurę oferuje też Fujitsu.

 

Marek Jaszczuk

 

dyrektor działu Enterprise, Action

Jeszcze długo będziemy zarówno unowocześniać obecne centra danych, jak też stawiać nowe. Ale i tak za 2–3 lata trzeba będzie je wszystkie modernizować.

 

Z drugiej strony dostawcy – broniąc się przed ofensywą chmury publicznej – próbują rozszerzyć ofertę w kierunku chmury prywatnej. Co ciekawe, Amazon, największy gracz na rynku publicznej chmury, dowodzi, że wymierne korzyści ze stosowania tego modelu znikają w chmurze prywatnej. Natomiast chmura publiczna na świecie według przewidywań Gartnera ma być warta w 2017 r. 131 mld dol.

Jak w takich warunkach, gdy producenci sprzętu coraz głębiej wchodzą w chmury, powinni się zachować ich partnerzy – przygotowywać się do zostania także brokerami usług w chmurze publicznej?

Marek Jaszczuk nie wyklucza takiego modelu, uważając, że włączenie do własnego portfolio dobrze zdefiniowanych i bezpiecznych usług świadczonych w chmurze wydaje się dość prostym i biznesowo uzasadnionym krokiem dla integratora. Pozostaje tylko kwestia marży.

– Należy postawić sobie pytanie: czy rzeczywiście więcej zarobię, przekonując swojego klienta do zakupu usług w chmurze producenta X, czy instalując i obsługując mu rozwiązanie sprzętowo-aplikacyjne dostarczone we własnym zakresie – podsumowuje.

Jego zdaniem pierwsza opcja pozwoli obsłużyć większą liczbę firm posiadających małe własne zasoby obliczeniowe. Z kolei drugą będą raczej wybierać klienci, którzy już dysponują dobrze rozwiniętym zapleczem technicznym i oczekują zwrotu z tej inwestycji.

 

Przyszłość serwerów i centrum danych

Konsolidacja oznacza większe wykorzystanie systemów o dużej gęstości. Jednak coraz wyższy poziom nasycenia rynku serwerów wirtualizacją nieuchronnie przybliża moment, w którym zyski z konsolidacji infrastruktury osiągną granice swoich możliwości. Co będzie wtedy napędzało technologiczny rozwój centrum danych?

Coraz większe skomplikowanie środowisk wirtualnych już zaczyna być nowym wyzwaniem dla obsługi centrów danych. Kolejnym krokiem jest więc zastosowanie rozwiązań do automatyzacji pracy środowiska serwerowego, umożliwiających kontrolę nad skomplikowanymi środowiskami złożonymi z wielu różnych systemów operacyjnych i wirtualizatorów oraz zarządzanie zarówno warstwą sprzętową (serwery, pamięci masowe, przełączniki), jak też warstwą wirtualizacji i systemów operacyjnych.

Ze strony konsumenckiej rozwój centrów danych będzie napędzała szybko rosnąca – względem mocy obliczeniowej procesorów – ilość danych. Za ten wzrost będą odpowiedzialni też klienci biznesowi, ale oni dodatkowo będą coraz bardziej wymagać maksymalnego bezpieczeństwa zasobów oraz nieprzerwanej w blisko 100 proc. dostępności danych i aplikacji.

Konsolidacja i wirtualizacja są jedynie doskonałym sposobem na poprawę efektywności wykorzystania infrastruktury, a rozwój centrum danych napędzają aplikacje i usługi oraz generowana przez nie olbrzymia ilość danych. Firma Gartner wśród 10 najważniejszych trendów technologicznych w obszarze centrum danych (oprócz wirtualizacji) wymienia m.in.: Big Data oraz rozwój systemów Business Intelligence, usługi chmury w modelu hybrydowym, architekturę blokową (fabric computing), automatyzację i uproszczenie infrastruktury.

Wybrani producenci serwerów i ich dystrybutorzy na polskim rynku

Actina: Action

Adax: Incom

Asus: AB, Action

Cisco Systems: ABC Data, Konsorcjum FEN, RRC, Tech Data

Fujitsu Technology Solutions: AB, ABC Data, Tech Data, Veracomp

HP: AB, ABC Data, Action, Tech Data, Veracomp

IBM: Arrow ECS, Avnet, RRC, Tech Data

Oracle/Sun: Arrow ECS

Supermicro: Action, Avnet

Thomas Krenn: sprzedaż bezpośrednia

Triline: AB