Według IDC w 2013 r. sprzedaż serwerów fizycznych w regionie EMEA spadła o 2,7 proc. (do 2,2 mln). Jednak dostawcy rozwiązań do wirtualizacji nie powinni mieć powodów do narzekania. W tym samym bowiem czasie liczba nowych serwerów dostarczanych od razu z wirtualizującym hypervisorem wzrosła o 9,6 proc. (do 717 tys.). Z kolei liczba sprzedanych licencji na oprogramowanie do wirtualizacji serwerów zwiększyła się o 13,5 proc. (do 1 mln). Krótko mówiąc, wirtualizacja serwerów stała się standardem, a jej wdrożenie jest ważnym krokiem w procesie optymalizacji funkcjonowania centrum danych. Z tej technologii korzystają nie tylko duże korporacje, ale również wiele średniej wielkości przedsiębiorstw. Także od strony technologicznej ten segment rynku można uznać za dojrzały. Dyskusje na temat wirtualizacji przestały się skupiać na hypervisorze. Obecnie dotyczą przede wszystkim narzędzi do zarządzania i automatyzacji.

Dlatego, mimo ogromnej popularności, od pewnego czasu sama wirtualizacja nie jest już pewnym źródłem przychodów. Szczęśliwie dla dostawców wirtualizacja serwerów to tylko stan wyjściowy. Z jednej strony centrum danych to dynamiczne środowisko, które jest dostosowywane do zmieniających się potrzeb – dlatego wirtualizacja nie może być pozostawiona sama sobie. Z drugiej strony ta technologia zwiększa złożoność środowiska IT, a w konsekwencji komplikuje zarządzanie nim. Dla zespołu IT oznacza to dodatkowe zadania związane z administrowaniem. Przy pewnej skali przestaje wystarczać sterowanie ręczne i potrzebne stają się odpowiednie narzędzia automatyzujące.

Środowisko zwirtualizowane musi być monitorowane pod kątem wydajności, objęte backupem i zautomatyzowanymi procesami zarządzania. Jest to przestrzeń do sprzedaży dodatkowych, zaawansowanych narzędzi, zarówno dostarczanych przez samych producentów hypervisorów, jak i przez zewnętrzne firmy. Doskonałym przykładem jest w tym przypadku firma Veeam, której oprogramowanie do backupu i monitorowania maszyn wirtualnych bije rekordy popularności. W ostatnich latach czołowi producenci rozwiązań wirtualizacyjnych agresywnie wprowadzali do sprzedaży kompleksowe rozwiązania do budowy środowisk typu Software Defined Data Center (np. VMware vCloud-Hybrid Service czy Microsoft Cloud OS). Klienci początkowo byli przytłoczeni złożonością tych rozwiązań, ale stopniowo zaczynają coraz lepiej rozumieć płynące z nich korzyści, co z kolei napędza popyt.

 

Konkurencja napiera na VMware

Istotne zmiany zachodzą w układzie sił na rynku wirtualizacji. Kilka lat temu niemal monopolistyczna pozycja VMware wydawała się niepodważalna. Tymczasem Gartner w magicznym kwadrancie dot. wirtualizacji serwerów już od pewnego czasu umieszcza w obszarze liderów dwie firmy: VMware i Microsoft. Choć VMware ma jeszcze wyraźną przewagę, widać, że dystans między konkurentami kurczy się.

 

Przełomowym wydarzeniem dla Microsoftu było wprowadzenie na rynek Windows Server 2012 oraz jego aktualizacji R2 w 2013 r. Ten system oferuje szereg funkcji, które umożliwiły dostawcy z Redmond zmniejszenie dystansu do VMware, zarówno pod kątem technicznym, jak i udziału w rynku. Poza tym System Center Virtual Machine Manager 2012 i Windows Azure Pack znacznie poprawiły możliwości tworzenia prywatnych chmur z użyciem Hyper-V. W efekcie oferta Microsoftu zaspokaja teraz większość potrzeb w zakresie wirtualizacji serwerów w korporacyjnych środowiskach IT. Potwierdza to IDC – w 2013 r. hypervisor ESX był zainstalowany w ponad połowie zwirtualizowanych serwerów w regionie EMEA, podczas gdy pod kontrolą Hyper-V pracowała jedna trzecia tych serwerów.

Wprawdzie firmy, które już zwirtualizowały swoje środowiska z użyciem konkurencyjnych produktów, nie spieszą się z migracją, ale spora ich liczba znajduje miejsca, w których mogą wykorzystać i przetestować Hyper-V. Najczęściej są to lokalne biura, sklepy lub zapasowe centra danych. Taka strategia umożliwia klientowi ocenę Hyper-V przed podjęciem decyzji o większym wdrożeniu.

Z kolei Citrix wycofuje się z rynku tradycyjnej wirtualizacji serwerów, co znalazło odzwierciedlenie w magicznym kwadrancie Gartnera. Analitycy przenieśli tego producenta z sekcji wizjonerów do segmentu niszowych graczy. Citrix obrał inny kierunek – rozwija XenServera w taki sposób, aby był atrakcyjnym rozwiązaniem do budowy infrastruktury chmurowej (m.in. integracja z rozwiązaniami Citrix Cloud Platform) oraz środowisk wirtualnych desktopów.

Konrad Michael

kierownik ds. sprzedaży, EMC

Rozwiązania wirtualizacji pamięci masowych to oferta przede wszystkim dla firm, które mają trudności z utrzymaniem rozproszonych, heterogenicznych i często skomplikowanych środowisk informatycznych. Są idealne dla firm wykorzystujących sprzęt i infrastrukturę sieciową pochodzącą od różnych dostawców, które są trudne do zarządzania, a ich rozwój oraz właściwa eksploatacja są „zasobochłonne”. Typowym problemem jest brak pełnej świadomości klientów, kontroli i możliwości przewidzenia, jakie aplikacje biznesowe wymagają jakich zasobów, w jakim okresie i z jaką intensywnością. Wpływa to bezpośrednio na planowane inwestycje i koszty utrzymania posiadanego sprzętu.

Krzysztof Waszkiewicz

Business Solutions Architect, VMware

Administratorzy środowisk wirtualnych oczekują, że ich wdrażanie i późniejsze zarządzanie będzie znacznie uproszczone. Między  innymi dlatego dostawcy serwerów zaczynają oferować je z preinstalowanym oprogramowaniem do wirtualizacji. To pozwala na uruchomienie produkcyjnego środowiska wirtualnego po 15 minutach od podłączenia urządzenia do sieci. Mamy też duże wsparcie ze strony producentów pamięci masowych i sprzętu sieciowego. Bez tego nie byłoby możliwe budowanie odpowiednio elastycznych środowisk.

 

W niektórych regionach na rynku wirtualizacji zaczyna się natomiast rozpychać Huawei. Po raz pierwszy producent pojawił się w magicznym kwadrancie w lipcu 2014 r., na razie w obszarze niszowych graczy. Huawei ma ciekawe portfolio produktów do wirtualizacji, obejmujące warstwę sprzętową i oprogramowanie. Oferuje m.in. pakiet FusionCloud, którego częścią jest FusionSphere. To rozwiązanie do wirtualizacji serwerów x86 jest stworzone na bazie hypervisora Xen i przeznaczone do działania na odpowiednio przystosowanym sprzęcie. Huawei pracuje również nad oprogramowaniem wykorzystującym kod KVM. Użytkownikami tych produktów są przede wszystkim klienci w krajach BRIC (Brazylia, Rosja, Indie i Chiny). W innych regionach, w szczególności w USA i Europie, popularyzację rozwiązań producenta spowalniają kwestie polityczne.

Warto też zwrócić uwagę na Red Hata. Ten największy dostawca komercyjnych linuksowych produktów miał bardzo udany początek roku. W I kwartale 2014 r. jego przychody zwiększyły się o 17 proc. Obserwowany wzrost popularności hypervisora KVM wynika w dużym stopniu z rosnącej liczby wdrożeń OpenStack, z których prawie połowa wykorzystuje właśnie hypervisor Red Hata. Ponadto rynek wirtualizacji jest już dojrzały i resellerzy szukają nowych możliwości zwiększenia sprzedaży. Jedną z nich stanowią serwery linuksowe, których odsetek wirtualizacji (ok. 45 proc.) jest wyraźnie niższy niż systemów Windows (według szacunków Gartnera wynosi 70–75 proc. ).

 

Wirtualizacja desktopów

Wysokie nakłady inwestycyjne to główna bariera związana z wdrożeniami wirtualnych desktopów. Są to projekty wymagające pod względem technicznym, zarówno od strony sprzętu, jak i oprogramowania – stąd wysokie koszty. Dlatego wprawdzie nie widać gwałtownego boomu w przypadku tego rozwiązania, ale zainteresowanie nim utrzymuje się na stałym poziomie. Wirtualizacja desktopów najczęściej jest wdrażana w dużych podmiotach z sektora finansów i bankowości, telekomach, w przedsiębiorstwach z sektora energetycznego czy ubezpieczeniowego.

Klienci oczekują, że wirtualizacja desktopów spowoduje uzyskanie oszczędności podobnych do tych, które przynosi wirtualizacja serwerów. Podchodząc do tego typu projektów, nie należy jednak stawiać przede wszystkim na redukcję kosztów. W tym przypadku do głównych korzyści należy zaliczyć większą elastyczność środowiska informatycznego, usprawnienie procesów i skrócenie czasu reakcji działu IT na potrzeby biznesowe. Istotne jest również coraz większe zainteresowanie klientów usługami dostępnymi w modelu chmurowym i rozwiązaniami dla urządzeń mobilnych. Dzięki wirtualizacji desktopów możliwe jest umożliwienie pracownikom dostępu do firmowych zasobów z dowolnego miejsca i urządzenia.

Krzysztof Celmer

Country Manager Poland, Citrix Systems

Patrząc z perspektywy całego rynku, dostrzegamy, że wciąż bardzo popularne są rozwiązania do wirtualizacji serwerów, gdyż to one generują widoczne oszczędności finansowe. Ponadto dużym popytem cieszą się rozwiązania do wirtualizacji aplikacji, ponieważ zapewniają ogólne uelastycznienie działania przedsiębiorstw. W naszej opinii ogromny potencjał sprzedażowy wykazują zarówno rozwiązania do wirtualizacji aplikacji, jak i desktopów. Ma na to wpływ kilka czynników, chociażby zakończenie przez Microsoft wsparcia dla platformy Windows XP oraz pakietu Microsoft Office 2003.

 

Sam zwrot nakładów inwestycyjnych na wdrożenie jest rozłożony w czasie i może obejmować budżety kilku działów spoza IT. To istotny fakt, na który należy zwracać uwagę klientom. W praktyce dochodzi do rozbicia kosztów pomiędzy budżety CAPEX i OPEX wielu działów firmy. To powoduje, że trudno wykazać realne korzyści finansowe, szczególnie w krótkim okresie.

 

Pamięci masowe

W świecie pamięci masowych mianem wirtualizacji określa się różne mechanizmy abstrakcji warstwy sprzętowej. Mogą to być rozwiązania do łączenia macierzy różnych producentów w jedną, wirtualną macierz. Inne oferują mechanizmy wirtualizacji wyłącznie w obrębie oferty danej firmy. Oprócz tego część vendorów dodaje do swoich produktów tylko wybrane funkcje wirtualizacji, np. dynamiczne przydzielanie przestrzeni dyskowej (thinprovisioning). Ostatnio najwięcej uwagi przykuwa jednak model Software Defined Storage, ponieważ niesie ze sobą potencjalnie duże korzyści: znaczne oszczędności, efektywniejsze wykorzystanie macierzy oraz szybsze dostarczanie ich zasobów.

Ta koncepcja zakłada budowanie systemów macierzowych na bazie standardowych serwerów x86 zarządzanych przez specjalne oprogramowanie, pełniące podobną funkcję jak hypervisor w przypadku wirtualizacji serwerów lub desktopów. Takie podejście daje możliwość łatwego skalowania środowiska pamięci masowych, zwiększa elastyczność ich doboru oraz charakteryzuje się niższymi kosztami użytkowania niż tradycyjne rozwiązania NAS i SAN. Oddzielenie danych i systemu zarządzania od warstwy fizycznej umożliwia zbudowanie chmury i dostarczanie jej zasobów w bardzo elastyczny sposób.

Wirtualizacja serwerów pokazała, że do budowy dużych środowisk przetwarzania danych można wykorzystywać zwykłe farmy standardowych serwerów x86. W podobnym kierunku będą dążyć firmy, które mają różne rodzaje pamięci dyskowych. Dzięki modelowi Software Defined Storage będą mogły tworzyć rozbudowane, ale spójne, wydajne i gwarantujące wysoką dostępność środowiska pamięci masowych. Należy też liczyć się z tym, że już wkrótce udoskonalona zostanie koncepcja SDS i nastąpi jej integracja z pozostałymi obszarami wirtualizacji.

 

Wirtualizacja środowisk sieciowych

Branża sieciowa „wstrzymała oddech”. Klienci nie dokonują zakupów, czekają bowiem aż wyklaruje się sytuacja na rynku Software Defined Network, a dostępne rozwiązania staną się bardziej dojrzałe. W nadchodzących latach technologia ta stworzy jednak ogromną szansę na sprzedaż sprzętu i aplikacji sieciowych. Głównymi odbiorcami rozwiązań SDN w Polsce prawdopodobnie będą duże centra danych i telekomy. Na rodzimym rynku nie widać natomiast projektów realizowanych dla klientów korporacyjnych, w których wymagane byłoby wdrożenie tej technologii. Największą barierą są obecnie koszty sprzętu i wdrożenia SDN. Producenci takich urządzeń skupili się bowiem na implementacji SDN w największych, najdroższych modelach przełączników. Więcej informacji na temat zarządzania środowiskami sieciowymi podajemy w artykule „Automatyzacja w IT daje duże oszczędności” na str. 8.

Bartłomiej Machnik

Datacenter Infrastructure Product Manager, Microsoft

Firmy coraz częściej oczekują rozwiązań bardziej zaawansowanych niż zwykła wirtualizacja: otwartych, z możliwością szybkiego i taniego skalowania poza własne centra danych. Dlatego coraz częściej mówi się o chmurach hybrydowych, czyli połączonych własnych centrów danych, z chmurami publicznymi, takimi jak Microsoft Azure, lub oferowanymi przez dostawców usług. Aby jednak nie była to jedynie teoretyczna możliwość, musimy stale rozwijać nasze oprogramowanie. Dlatego rozwiązania SDN, SDS, a także Software Defined Compute, są już integralnymi składnikami systemu Windows Server 2012 R2 i będą w dalszym ciągu intensywnie rozwijane.