Zacznijmy od ogólnej sytuacji na rynku z perspektywy producentów narzędzi do wirtualizacji serwerów. Najnowszy z raportów Gartnera z serii Magic Quadrant for x86 Server Virtualization Infrastructure pokazuje silną polaryzację w tym segmencie. Z jednej strony widać dwóch wyraźnych liderów: VMware i Microsoft. Ten pierwszy wciąż pozostaje na czele, ale znajduje się pod silną presją Microsoftu, nasycania się rynku oraz rosnącej popularności usług chmurowych. Z kolei Microsoft – w porównaniu z poprzednim raportem – poczynił postępy. Co istotne, producent jest w trakcie prac nad kolejną edycją Windows Servera, który będzie zawierać nową wersję Hyper-V. Z drugiej strony na rynku funkcjonuje kilku mniejszych graczy – Citrix, Oracle, Red Hat, Huawei i Odin – działających w specyficznych obszarach, do jakich można zaliczyć bazy danych o znaczeniu krytycznym.

Jeśli chodzi o same technologie, należy zwrócić uwagę przede wszystkim na to, że maszynom wirtualnym wyrosła konkurencja w postaci kontenerów. Są coraz częściej brane pod uwagę przez klientów ze względu na łatwe w obsłudze narzędzia programistyczne, standaryzację, popyt na mikrousługi oraz ogólnie na popularność cloud computingu. Kolejną alternatywą dla wirtualizacji lokalnych środowisk są coraz popularniejsze usługi IaaS. Specjaliści Gartnera twierdzą, że maszyny wirtualne dostarczane z chmury publicznej stanowiły w 2015 r. już 20 proc. wszystkich maszyn wirtualnych (w 2011 r. zaledwie 3 proc.). Wygląda na to, że trend ten będzie się utrzymywał i większa liczba nowych serwerów wirtualnych będzie działać w chmurze niż w środowisku lokalnym.

Cloud computing można określić jako sposób korzystania z zasobów obliczeniowych, który znajduje zastosowanie w przypadku specyficznych zadań – szczególnie tych wymagających skalowania i elastycznego przydzielania zasobów. Rosnąca popularność chmury stymuluje ewolucję w technikach wirtualizacji tak, aby stawały się one coraz lżejsze. Dzięki temu zdecydowanie łatwiejsze staje się tworzenie, wdrażanie i skalowanie aplikacji. Potwierdzeniem tej ewolucji jest ogromne zainteresowanie kontenerami.

 

Według Gartnera wśród firm, które już korzystają z wirtualizacji lokalnych serwerów i chmur prywatnych, rośnie zainteresowanie automatyzacją tych środowisk, usługami zarządzalnymi lub hostingiem. Najbardziej zaawansowane przedsiębiorstwa zaczynają chętniej budować swoje chmury prywatne z wykorzystaniem rozwiązań open source. W przypadku dużych firm wyraźnie widać, że większość z nich korzysta z więcej niż jednej platformy wirtualizacji. Poza tym często integrują one swoje środowisko lokalne z chmurami publicznymi, konstruując rozwiązania hybrydowe.

Wirtualizacja serwerów i kontenery stanowią podstawę do budowania chmur prywatnych, publicznych i hybrydowych. W szczególności usługi IaaS są świadczone na bazie środowisk wykorzystujących maszyny wirtualne. O ile w obszarze chmur publicznych następuje ekspansja, o tyle w przypadku użytkowników korporacyjnych analitycy Gartnera dostrzegają już pewne nasycenie i niewielki wzrost liczby maszyn wirtualnych.

 

Bezpłatny hypervisor nie jest zły

Podstawowe oprogramowanie do wirtualizacji serwerów od lat jest bezpłatne. Jednak, wbrew pozorom, darmowy hypervisor to nie jest zła informacja dla integratorów. Potencjał biznesowy związany ze sprzedażą wirtualizacji serwerów w dużej mierze wynika z szeregu możliwości, które ona stwarza, w zakresie nowego sprzętu, ale przede wszystkim szerokiego wachlarza związanych z nią usług. Projekty wirtualizacyjne bardzo często obejmują szereg elementów, np. dodatkowe oprogramowanie do zarządzania i automatyzacji. Poza tym firmy realizujące projekty wdrożeniowe na bezpłatnej platformie do wirtualizacji mogą zarobić na usługach. Tańsze oprogramowanie oznacza niższe koszty całego projektu. W efekcie łatwiej przekonać klienta do wdrożenia. Biorąc przy tym pod uwagę, że marże na sprzedaży licencji na oprogramowanie nie są wysokie, brak przychodu ze sprzedaży hypervisora nie ma aż tak dużego znaczenia. Poza tym można zarabiać na dodatkowych narzędziach (np. do backupu), które są często objęte programami rabatowymi przez producentów czy też programami dla integratorów, co w praktyce oznacza np. rabat przy zakupie licencji bądź bonus po przeprowadzonej transakcji.

Wirtualizacja w Polsce

Według danych Veeam Availability zaledwie 41 proc. usług w dużych przedsiębiorstwach w naszym kraju zostało zwirtualizowanych. Z deklaracji ankietowanych dyrektorów IT wynika, że w ciągu najbliższych dwóch lat wskaźnik ten wzrośnie, lecz jedynie do 45 proc. Wraz z powolną, ale jednak postępującą popularyzacją tej techniki rośnie również zainteresowanie szeregiem związanych z nią elementów: narzędziami do zarządzania i automatyzacji środowisk wirtualnych oraz szerokim spektrum usług.

 

Przyzwoite przychody można również uzyskiwać z konsultingu w zakresie właściwego przygotowania klienta do samodzielnego wdrożenia wirtualizacji lub z przeprowadzenia tego procesu (planowania, migracji aplikacji ze środowisk fizycznych do wirtualnych, testów itd.). Bardziej zaawansowane projekty wirtualizacyjne wymagają wdrożenia właściwego systemu zarządzania takim środowiskiem. Inną bardzo ważną kwestią są przychody z różnego rodzaju usług, które integrator może świadczyć klientowi: począwszy od usług wdrożeniowych, uruchomienia systemu, jego integracji z warstwą sprzętową, skończywszy na usługach wsparcia technicznego. Kolejny obszar stanowią usługi związane z utrzymaniem środowiska klienta albo wręcz przeniesieniem zwirtualizowanej infrastruktury do serwerowni dostawcy usług.

W przypadku outsourcingu zarządzania infrastrukturą integrator może pełnić rolę drugiej linii wsparcia dla działu IT klienta. Świadczenie takiej usługi często obejmuje bieżącą administrację i zarządzanie środowiskiem informatycznym, wdrażanie aktualizacji i ewentualnych poprawek, dbałość o bezpieczeństwo, ale także kontrolę nad całością architektury serwerowej lub zarządzanie migracją środowiska. Integrator zazwyczaj pełni również rolę doradcy. W praktyce oznacza to, że może udzielać rekomendacji, gdy np. dla jednego ze stosowanych w organizacji produktów kończy się oficjalne wsparcie ze strony dostawcy (np. Microsoftu dla Windows Server 2003).

Wyniki ankiety przeprowadzonej przez VMware pokazują, że na każdego dolara wydanego na oprogramowanie do wirtualizacji przypada 11,26 dol., które klienci przeznaczają na pozostałe elementy potrzebne do wdrożenia środowiska wirtualnych serwerów. Z tego najwięcej, bo 4,07 dol., przypada na profesjonalne usługi. W następnej kolejności są to wydatki na: macierze dyskowe (2,81 dol.), produkty sieciowe (1,26 dol.), aplikacje biznesowe (1,24 dol.) i inne oprogramowanie (0,96 dol.) oraz zabezpieczenia (0,92 dol).

Tomasz Krajewski

Presales Manager Eastern Europe, Veeam Software

Automatyzacja staje się niezbędna do efektywnego zarządzania coraz bardziej złożoną infrastrukturą wirtualną. Kwestią do rozważenia w tym kontekście jest nie „czy”, ale „kiedy” przedsiębiorstwo wdroży odpowiednie rozwiązanie. Usprawnienie procesów zarządzania to tylko jedna z odnoszonych korzyści. Oprogramowanie nowej generacji oferuje ponadto kilka dodatkowych możliwości. Poza wskazaniem, które maszyny wymagają natychmiastowej uwagi, rozwiązanie do zarządzania środowiskami wirtualnymi potrafi generować raporty biznesowe. Z takim dokumentem dział IT jest choćby w stanie skuteczniej uzasadnić użytkownikom biznesowym konieczność dodatkowych inwestycji.

 
Automatyzacja zarządzania i chmura prywatna

Mechanizmy automatyzacji i zarządzania wirtualizacją nie są obszarem zarezerwowanym dla dużych firm czy dostawców usług. Metod automatyzacji jest bowiem wiele i znajdują zastosowanie w środowiskach różnej wielkości. Kluczem okazuje się odpowiednie dobranie tych metod tak, aby były adekwatne do potrzeb klienta. Określenie zakresu automatyzacji zależy przede wszystkim od skali środowiska IT oraz planów jego rozwoju. Im większe środowisko, tym większe korzyści. Jednak nawet w niewielkim środowisku, składającym się z kilku maszyn wirtualnych, są operacje, które warto zautomatyzować. Chodzi o regularnie wykonywanie czynności, o których administrator mógłby po prostu zapomnieć w natłoku innych zadań. Do takich należą tworzenie kopii zapasowych czy sprawdzanie aktualizacji.

 

Trzy pytania do…

 

Artura Matzki, dyrektora infrastruktury w Integrated Solutions

CRN Jakie jest zainteresowanie polskich firm rozwiązaniami do automatyzacji zarządzania środowiskami wirtualnymi?

Artur Matzka Firmy coraz częściej pytają o automatyzację i orkiestrację, zarówno środowisk wirtualnych, jak i fizycznych. Obecnie większość z nich jest jednak na etapie testowania różnych rozwiązań i wdrażania automatyzacji fragmentarycznie – ograniczają się do wybranych obszarów. Tylko nieliczne, bardzo duże podmioty podchodzą do automatyzacji całościowo. W polskich realiach istnieje ryzyko, że w średniej wielkości przedsiębiorstwach koszt rozwiązania do automatyzacji i jego wdrożenia mógłby być wyższy niż zysk osiągnięty dzięki automatyzacji. Dlatego tego typu projekty mają szanse powodzenia przede wszystkim w dużych, zaawansowanych technicznie firmach.

 

CRN Czy integratorzy mogą świadczyć zdalnie usługi automatyzacji i zarządzania środowiskami wirtualnymi?

Artur Matzka Klienci najczęściej pytają o usługi wsparcia, utrzymania i konsultację w kontekście całego środowiska wirtualnego – serwerów, pamięci masowych SAN i NAS, sieci lokalnej i wirtualizacji. Rzadziej usługi te dotyczą codziennego administrowania środowiskiem IT.

 

CRN Czy w polskich realiach model Software Defined Anything cieszy się zainteresowaniem?

Artur Matzka Wirtualizacja serwerów okazała się słusznym kierunkiem rozwoju środowiska IT. Dziś intensywny rozwój zaawansowanych technologii umożliwia wykonanie następnego kroku: wirtualizację warstwy pamięci masowych i sieci. Pozwoli to na budowę centrum danych na dowolnym sprzęcie, w całości zdefiniowanym programowo. Na razie jednak na polskim rynku jesteśmy na etapie budowania świadomości wśród firm i testowania tego typu rozwiązań. Z pewnością wirtualizacja pamięci masowych jest mniej popularna niż wirtualizacja serwerów. Sama technika jest dostępna już od pewnego czasu, ale najwięcej firm zainteresowało się nią dopiero po pojawieniu się funkcjonalności klastrów rozległych metro. Dzięki nim urządzenia służące do łączenia zasobów systemów pamięci masowych pochodzących od różnych dostawców mogły być wykorzystane do tworzenia architektury centrum danych odpornej na katastrofy, zamiast tradycyjnego „uzdrawiania” po awarii. Z kolei wirtualizacja sieci to najmłodsza z technik, ale cieszy się bardzo dużym zainteresowaniem firm. Aktualnie wdrożenia w Polsce ograniczają się do środowisk testowych i deweloperskich, ale w mojej ocenie już wkrótce będzie ona powszechnie wykorzystywana.

 

Podstawową metodą automatyzacji jest tworzenie skryptów, które potrafią wykonać działania na pojedynczych wirtualnych maszynach. W ten sposób można zautomatyzować, np. przydzielanie zasobów. Takie podejście sprawdzi się w przypadku autonomicznych systemów, których konfiguracje nie są zależne od innych systemów. Jeśli wiele maszyn wirtualnych tworzy np. klaster aplikacyjny, konieczne jest skoordynowanie ich konfiguracji, co z reguły wiąże się z budowaniem przepływu zadań, czyli sekwencji operacji wykonywanych w określonej kolejności, co wymaga synchronizacji między wieloma systemami. W kompleksowych scenariuszach logika programu odpowiadającego za taki przepływ może być skomplikowana, przekraczając możliwości prostych skryptów. Wtedy warto polecić klientowi wdrożenie silnika przepływów.

Jeśli klient wykorzystuje 50-100 maszyn wirtualnych, opłaca się już automatyzacja procesów ich tworzenia (np. z użyciem szablonów) oraz instalowania w nich systemów operacyjnych. Im wcześniej się w to zainwestuje, tym szybciej pojawią się korzyści. Wprowadzenie automatyzacji do już istniejącego środowiska czy też na zaawansowanym etapie wdrożenia jest znacznie trudniejsze, niż kiedy zrobi się to na początku. Profity będą większe, jeśli wszystkie maszyny wirtualne zostaną stworzone według tych samych reguł. Dzięki temu bowiem łatwiejsza będzie późniejsza automatyzacja zarządzania nimi.

Wojciech Kotkiewicz

szef działu wsparcia technicznego, ABC Data Value+

Klienci coraz częściej decydują się na rozwiązania kompleksowe, z ujednoliconym zarządzaniem, łatwością rozbudowy, a przede wszystkim z optymalnym wykorzystaniem zasobów w ich serwerowniach i profesjonalnym wsparciem ze strony integratora. Bardzo istotnym elementem dotyczącym w zasadzie każdego segmentu infrastruktury IT jest bezpieczeństwo. Problem w jednym obszarze może bowiem rzutować na całe środowisko. Konieczne jest więc zabezpieczenie ruchu do części serwerowej. Dodatkowo, aby zapewnić ciągłość pracy środowiska, należy stosować narzędzia do tworzenia kopii zapasowych serwerów wirtualnych i szybkiego ich przywracania po awarii.

Bartłomiej Machnik

Datacenter & Cloud Platform Product Manager, Microsoft

Obserwujemy duże zainteresowanie klientów rozwiązaniami automatyzującymi zarządzanie środowiskiem wirtualnym. W przypadku większych środowisk ich ręczna obsługa jest niemal niemożliwa lub przynajmniej bardzo pracochłonna i podatna na błędy. Tworzenie architektury chmury hybrydowej czy rozwiązań umożliwiających awaryjne odtwarzanie infrastruktury centrów zapasowych w chmurze publicznej to zadania bardzo trudne do realizacji bez dobrych rozwiązań automatyzujących zarządzanie. Coraz wyższy priorytet zyskują również kwestie związane z bezpieczeństwem i zapewnieniem ciągłości działania.

 

Przy liczbie maszyn wirtualnych sięgającej kilkuset sztuk warto już rozważyć wdrożenie systemu orkiestracji, umożliwiającego ich samoobsługowe tworzenie przez działy biznesowe, które z nich korzystają. Dzięki temu dział IT nie będzie zaangażowany w przygotowanie każdej maszyny wirtualnej. Przy takiej skali opłacalna staje się również automatyzacja operacji dotyczących serwerów fizycznych. Nadal operacje związane z wdrożeniem nowego serwera będą nadzorowane przez administratora, ale nie będzie on musiał ręcznie wpisywać wszystkich komend. Poza tym skrypty kontrolujące wykonywanie i poprawność backupów można rozszerzyć o sprawdzanie poprawności konfiguracji.

 

 

Wirtualizacja niejedno ma imię

Na przykład wirtualizacja sieci, stacji roboczych czy aplikacji to obszary interesujące dla integratorów. Przykładowo aż 70 proc. dużych firm w Polsce zapowiada w planach inwestycyjnych związanych z centrami danych wirtualizację desktopów (źródło: Veeam Availability). Urządzenia mobilne pracowników są coraz częściej wykorzystywane jako punkty dostępowe, na których – dzięki wirtualizacji – wyświetlane jest bezpieczne, spersonalizowane pod kątem danego użytkownika środowisko pracy. Za pośrednictwem wirtualnego pulpitu można korzystać z wcześniej zaakceptowanych przez firmę programów.

Również szeroko pojęty cloud computing w prawie każdym modelu bazuje nie tylko na rozwiązaniach do wirtualizacji serwerów, ale również sieci, desktopów i aplikacji. Dla integratorów oznacza to, że powiązanie ze sobą w jedną spójną ofertę usług i rozwiązań z obszarów wirtualizacji, mobilności oraz chmury może być nowym sposobem na zbudowanie głębszej relacji z klientem, a co za tym idzie na zwiększenie przychodów. Odbiorcami takiej oferty są różne podmioty, przede wszystkim z komercyjnego sektora usługowego, ale coraz częściej także placówki opieki zdrowotnej czy administracji publicznej.

Powoli rośnie zainteresowanie rozwiązaniami do wirtualizacji sieci czy pamięci masowych, ale nadal są one traktowane jako nowość. W związku z tym klienci często ograniczają się na razie do eksperymentowania z nimi w środowiskach testowych. Niemniej stanowią one bardzo ciekawą szansę dla integratorów. Dzięki SDS (Software Defined Storage) bez konieczności kupowania kolejnych urządzeń klient ma możliwość wykorzystania już posiadanych zasobów dyskowych, często różnych producentów. Spójnie zarządzane środowisko SDS oferuje nawet funkcje typowe dla macierzy dyskowych klasy korporacyjnej, jak migawki i thin provisioning.

Sebastian Kisiel

Lead System Engineer w Citrix

Wirtualizacja jest podstawą dla rozwiązań do zarządzania mobilnością w firmie. Mowa nie tylko o zarządzaniu samymi urządzeniami, czyli o MDM, które coraz częściej zaspokajają jedynie wycinek potrzeb klientów, ale przede wszystkim o bardziej rozbudowanych systemach klasy EMM. Obejmują one, oprócz MDM, także takie elementy jak zarządzanie aplikacjami mobilnymi (MAM) czy korporacyjne narzędzia do współdzielenia i synchronizacji plików (EFSS). Bez wirtualizacji w warstwie serwerowej, ale coraz częściej również wirtualizacji sieci takie rozwiązania nie mają szansy istnieć.