Małe i średnie firmy często wymieniają wirtualizację jako technologię IT ważną w prowadzeniu ich działalności. Takiej odpowiedzi udzieliło aż 72 proc. przedsiębiorstw w badaniu przeprowadzonym przez Techaisle. Więcej głosów oddano tylko na backup i rozwiązania typu disaster recovery. Jednocześnie aż 56 proc. firm deklaruje, że jest to dla nich jedna z trudniejszych do zrozumienia technologii.

Firmy, w zależności od wielkości, oczekują różnych korzyści z przeprowadzenia wirtualizacji. Małe i średnie przedsiębiorstwa stawiają przede wszystkim na poprawę efektywności wykorzystania zasobów informatycznych i możliwość ograniczenia wydatków związanych z infrastrukturą IT. Jeśli firma jest w fazie wzmożonego rozwoju, wielokrotnie konieczne jest wdrożenie dodatkowych systemów. Dzięki wirtualizacji można uniknąć różnych wydatków, chociażby związanych z zakupem dodatkowych serwerów, lepiej wykorzystując posiadane zasoby. Natomiast w większych firmach na znaczeniu zyskują inne zalety wirtualizacji serwerów, np. ograniczenie kosztów zasilania. Dla korporacji priorytetem jest też odpowiednie zarządzanie zasobami i ich dostępność.

 

Remedium na bolączki

Informatycy z sektora MSP za największe wyzwanie dla działów IT uznają realizację coraz większej liczby projektów w ramach niezmieniającego się budżetu. Drugim problemem jest konieczność przechowywania szybko zwiększającej się ilości danych. Roczny przyrost wynoszący ponad 30 proc. nie jest niczym szczególnym. W takim tempie w ciągu 2,5 roku podwaja się ilość potrzebnej przestrzeni dyskowej. To powoduje większe wydatki na macierze.

Wirtualizacja serwerów ułatwia zmierzenie się z tymi wyzwaniami. Badanie przeprowadzone przez Aberdeen Group pokazuje, że małe i średnie firmy po zastosowaniu wirtualizacji skróciły o ponad połowę czas potrzebny na instalowanie nowych aplikacji, a przerwy w ich pracy zostały zredukowane o 30 proc. Korzyści jest zresztą znacznie więcej. Dzięki tej technologii zdecydowanie ogranicza się ilość potrzebnego sprzętu, co prowadzi do obniżenia całkowitych kosztów utrzymania infrastruktury (TCO). Przyczyniają się do tego nie tylko niższe wydatki na inwestycje, ale również obniżone rachunki za zasilanie i chłodzenie. Upraszcza się też zarządzanie infrastrukturą IT.

Wirtualizacja umożliwia również optymalizację wykorzystania dostępnych zasobów, przede wszystkim mocy obliczeniowej. Konsolidacja aplikacji (średni współczynnik wynosi 10 maszyn wirtualnych na jednym serwerze fizycznym) prowadzi do kilkakrotnego zwiększenia wykorzystania mocy obliczeniowej. Co ciekawe, według analityków z Aberdeen średnie obciążenie serwerów po wirtualizacji wynosi w MSP 45 proc., podczas gdy producenci rekomendują wykorzystanie na poziomie 80 proc. Warto też zwrócić uwagę na możliwość przenoszenia wirtualnych maszyn między serwerami bez przerywania ich pracy. W okresach mniejszego obciążenia można przenieść aplikację na mniejszą liczbę serwerów, a pozostałe na ten czas automatycznie wyłączyć.

 
Trzy sposoby na wirtualizację

W przeciwieństwie do firm IT i osób pasjonujących się nowymi technologiami, klienci nie interesują się nowymi funkcjami czy udoskonaleniami systemów, lecz poszukują rozwiązania swoich problemów. Na tym więc powinni skupiać się resellerzy w rozmowach z klientami, a w ramach przedstawionej oferty wirtualizacja powinna być tylko jednym z elementów – obok infrastruktury sprzętowej, na której dane rozwiązanie będzie działać.

Jak zaprojektować rozwiązanie wirtualizacyjne odpowiednie do potrzeb firmy z sektora MSP? Pierwszy sposób polega na wykorzystaniu okazji, jaką jest zainteresowanie klienta kupnem nowych serwerów, gdy stoi on przed koniecznością wymiany dotychczasowego, przestarzałego sprzętu lub planuje zastosowanie nowego systemu operacyjnego. Praktyka dowodzi, że klienci w takich sytuacjach często wirtualizują swoje środowisko. Dlatego warto razem z serwerami zaproponować oprogramowanie do wirtualizacji. Nabywcę powinny przekonać korzyści płynące z wykorzystania tej technologii, takie jak: redukcja liczby serwerów, oszczędność energii, możliwość stosunkowo łatwego stworzenia mechanizmów wysokiej dostępności (HA) i przywracania systemów po awarii (DR).

Po drugie, warto wziąć pod lupę klientów, dla których ważny jest backup i procedury disaster recovery, a także firmy dążące do podniesienia dostępności aplikacji. Doskonałym argumentem są w tych przypadkach finanse. Stworzenie, z wykorzystaniem wirtualizacji, systemu zapewniającego wysoką dostępność i umożliwiającego szybkie przywrócenie aplikacji po awarii jest znacznie tańsze niż budowanie klastrów czy drugiego, zapasowego ośrodka obliczeniowego. W środowisku wirtualnym przywracanie do działania systemów i aplikacji jest łatwiejsze i można do tego używać różnego sprzętu. To bardzo użyteczne w przypadku awarii sprzętowych czy katastrof.

Wirtualizacją będą zainteresowani także klienci, którzy nadal chcą używać starszych systemów operacyjnych i aplikacji bądź też nie mają możliwości ich aktualizacji. Z powodu starzejącego się sprzętu sytuacja wymaga działania (np. kończy się wsparcie techniczne), ale aktualizacja systemu operacyjnego i aplikacji jest niepraktyczna. Klient ryzykuje więc ciągłość działania oprogramowania pracującego na starym sprzęcie. Z drugiej strony grozi mu ryzyko związane z przenoszeniem aplikacji do nowego środowiska. Rozwiązaniem problemu jest wirtualizacja, która umożliwia łatwe przeniesienie kopii działającego serwera do środowiska wirtualnego i przetestowanie, jak aplikacja się w nim zachowuje. Jeśli testy wypadną poprawnie, kopię można uruchomić jako produkcyjną i pozbyć się starego sprzętu.

Rynek wirtualizacji serwerów

Przed kilku laty VMware wypracował sobie pozycję niekwestionowanego lidera na rynku wirtualizacji serwerów, z udziałem przekraczającym w szczytowych momentach 80 proc. Z biegiem czasu wyrosła mu silna konkurencja i obecnie jego udział wynosi globalnie ok. 56 proc. W Ameryce Łacińskiej, jak podaje IDC, liderem rynku jest już Hyper-V (44 proc.). Podobne wnioski płyną z analizy magicznych kwadrantów Gartnera z ostatnich kilku lat. VMware, niegdyś samotny lider w kwadracie liderów, obecnie ma towarzystwo w postaci Microsoftu. Warto dodać, że w 2013 r. z kwadrantu liderów wypadł Citrix. W badaniu Gartner uwzględnia jeszcze trzy firmy: Oracle, Parallels i Red Hat.

 
Solidny sprzęt

Jak już wspomnieliśmy, oprogramowanie do wirtualizacji często jest sprzedawane przy okazji wymiany serwerów. Rozpoczęcie takiego projektu może też stanowić pretekst do zakupu nowych serwerów, zoptymalizowanych pod kątem wirtualizacji. Oferta sprzętu jest bardzo szeroka – oprócz maszyn kasetowych i stelażowych na rynku znajdziemy rozwiązania konwergentne, łączące serwery, pamięć masową i przełączniki sieciowe zamknięte w jednej obudowie. Producenci serwerów mają umowy z dostawcami platform wirtualizacyjnych, w ramach których oferują pakiety sprzętu i oprogramowania. To może być dobra propozycja dla firm szukających oszczędności.

Bardzo ważnym elementem infrastruktury wirtualnej jest współużytkowana, sieciowa pamięć masowa, dostępna dla serwerów przez protokół iSCSI lub Fibre Channel. W sektorze MSP wiele firm nie potrzebuje takich urządzeń, dopóki nie zacznie korzystać z wirtualizacji. Dla resellera jest to więc szansa na sprzedaż dodatkowego sprzętu, przy okazji oferowania rozwiązań do wirtualizacji.

 

Wirtualizacja to podróż

Badania przeprowadzone przez Techaisle pokazują, że 60 proc. firm MSP uznaje swoje wdrożenia wirtualizacji za sukces. Tylko 2 proc. twierdzi, że zakończyły się kompletnym niepowodzeniem, natomiast 38 proc. deklaruje częściowy sukces. Po skutecznym wdrożeniu wirtualnej infrastruktury klienci mogą być zainteresowani implementacją dodatkowych funkcji i stworzeniem chmury prywatnej. Wiele firm korzystających ze zwirtualizowanych serwerów decyduje się następnie na wirtualizację desktopów (odwrotna kolejność raczej się nie zdarza).

Jest kilka głównych przyczyn, które powodują, że projekty wirtualizacji serwerów lub desktopów w MSP mogą zakończyć się niepowodzeniem. Podstawową są nieprzewidziane wydatki związane z koniecznością dokupienia licencji i ewentualnych szkoleń dla przyszłych administratorów. Wdrożenia wirtualizacyjne nie należą do najtańszych (licencje, serwery, macierze dyskowe), chociaż prawie zawsze się zwracają. Czasami ten zwrot nie ma postaci dających się obliczyć oszczędności, ale ujawnia się na przykład w znacznie zwiększonej dostępności systemów lub podniesieniu ich bezpieczeństwa (taki scenariusz jest typowy dla środowisk wirtualizacji desktopów).

Często też pojawia się problem niedostatecznego doświadczenia administratorów wirtualnych środowisk zatrudnionych u klienta. Wirtualizacja oznacza bowiem duży stopień skomplikowania centrów danych. To pole do popisu dla doświadczonych resellerów, którzy swoją wiedzą mogą wesprzeć klientów.

Krzysztof Waszkiewicz

Business Solutions Architect, VMware

VMware Mirage, umożliwiający wirtualizację desktopów i ich centralizację, jest przystosowany do dużych środowisk, ale sprawdza się także w bardzo małych firmach. W takim przypadku zwraca się uwagę nie na optymalizację kosztów i standaryzację, która wynika z tych rozwiązań, lecz na bardzo szczególne możliwości techniczne. Najlepszym przykładem może być kiosk internetowy w oddziale banku, przeznaczony dla klientów. Takie „stanowisko pracy” trzeba należycie zabezpieczyć, a w razie awarii szybko przywrócić jego pierwotny stan.

 

 

Ostatnia z poważniejszych bolączek to brak planowania. Należy zacząć od precyzyjnego zdefiniowania celów wirtualizacji, ponieważ ich brak znacznie zwiększa prawdopodobieństwo niepowodzenia. Później koniecznym (a często pomijanym) etapem jest przeprowadzenie testów kompatybilności między sprzętem i aplikacjami. Na końcu warto także sprawdzić, czy posiadane licencje na aplikacje pozwalają na uruchamianie ich w środowisku wirtualnym i czy nadal będzie można oczekiwać wsparcia twórców tego oprogramowania.

 

Desktopy zaraz za serwerami

Firmy wciąż chętniej wirtualizują serwery niż desktopy, ale zainteresowanie przeniesieniem środowiska pracy użytkowników do centrów danych stale rośnie. Szczególnie w małych i średnich przedsiębiorstwach jest to rzadko stosowane rozwiązanie, ale w pewnych sytuacjach dobrze się sprawdza. Mogą być nim zainteresowane firmy i urzędy mające sieć placówek z niewielką liczbą stanowisk pracy. W takiej sytuacji terminal jest atrakcyjną alternatywą dla tradycyjnego komputera PC, ponieważ ułatwia centralne zarządzanie całym środowiskiem. Również tam, gdzie wykorzystuje się przenośne komputery wymagające zabezpieczenia danych, wirtualizacja desktopów bywa dobrym rozwiązaniem.

– Wirtualizacja desktopów to dobra propozycja dla klientów, dla których bezpieczeństwo danych jest kluczowe i którzy obawiają się ich przechowywania na komputerach użytkowników – uważa Bartłomiej Machnik, Datacenter Infrastructure Product Manager w Microsoft. – Dzięki VDI użytkownicy zachowują komfort pracy zbliżony do wygody korzystania z tradycyjnych, lokalnych stacji roboczych. W rzeczywistości jednak do ich urządzenia trafia wyłącznie obraz interfejsu graficznego udostępniany przez serwer.

Adam Dyszkiewicz

Servers Product Manager, Fujitsu

W mniejszych firmach zwyczajowo największy nacisk kładzie się na koszt rozwiązania. Rozsądnym podejściem jest taki dobór konfiguracji sprzętowej, który zapewni jak najdłuższy czas użytkowania. Dzięki temu inwestycja będzie rozłożona na wiele lat. Istotnym elementem jest również wybór komponentów w taki sposób, aby umożliwić łatwą i tanią rozbudowę środowiska w przyszłości. Duży wpływ na koszty mają również parametry SLA obsługi gwarancyjnej.

Sebastian Kisiel

Lead System Engineer, Citrix Systems

Popularność wirtualizacji serwerów spowodowała, że rynek rozwiązań rozszerzył się i możliwe jest stosowanie tej technologii przez przedsiębiorstwa właściwie dowolnej wielkości. Każda firma planująca swój rozwój powinna rozważyć wirtualizację serwerów, gdyż na pewnym etapie będzie potrzebowała dodatkowych systemów dostarczających nowych usług, co przy zastosowaniu tej właśnie technologii może odbyć się stosunkowo niskim kosztem. Nie jest to zatem kwestia bezpośrednio związana z poziomem przychodów danej firmy, lecz raczej ze sposobem wykorzystania istniejących lub planowanych zasobów IT.

 
Czas na macierze

W odróżnieniu od wirtualizacji serwerów, wirtualizacja pamięci masowych jest przeprowadzana na kilka sposobów. Część rozwiązań służy do łączenia macierzy różnych producentów w jedną, wirtualną. Inne oferują mechanizmy wirtualizacji wyłącznie w obrębie produktów danego producenta. Niektórzy producenci macierzy dyskowych dodają do swoich urządzeń tylko wybrane funkcje wirtualizacji, np. thin provisioning, czyli dynamiczne przydzielanie przestrzeni dyskowej. Rozwiązania do wirtualizacji pamięci masowych różnią się również tym, gdzie uruchamiane jest oprogramowanie do wirtualizacji. Może ono działać w oddzielnym, przeznaczonym wyłącznie do tego celu urządzeniu, być wbudowane w przełącznik SAN lub stanowić część kontrolera macierzy.

Wśród małych i średnich firm dużą popularnością cieszy się oprogramowanie do wirtualizacji pamięci masowych uruchamiane na tradycyjnych serwerach z systemem Windows Server (oferują je DataCore Software i FalconStor). W większych środowiskach stosowane są wirtualizatory sprzętowe, dostarczane m.in. przez IBM, HDS czy EMC. Mechanizmy wirtualizacji pamięci masowych wbudowują w przełączniki SAN firmy Cisco i Brocade. Dużą popularność zdobyły funkcje wirtualizacji w macierzach oferowanych przez HP oraz 3PAR (przejęty w 2010 r. przez HP). Ostatnio w tym obszarze zadebiutował VMware, wprowadzając na rynek oprogramowanie Virtual SAN. Umożliwia ono wykorzystanie dysków HDD i SSD zamontowanych bezpośrednio w serwerach (DAS) jako współużytkowanego zasobu w sieci SAN.

Należy podkreślić, że kryterium wyboru rozwiązania do wirtualizacji macierzy nie powinna być liczba pracowników czy stanowisk komputerowych, ale ilość przetwarzanych przez firmę informacji i plany związane z zapewnieniem ciągłości biznesowej. Dzięki tej technologii można stworzyć elastyczne środowisko zarządzania macierzami. Znacząco uprości to dołączanie nowych urządzeń do posiadanej infrastruktury lub odłączanie tych, które się zestarzały – po przeprowadzeniu migracji danych.

 

Tradycyjny backup się nie sprawdza

Rozwiązania do backupu znane ze środowiska fizycznego, można również stosować w środowisku wirtualnym. Rodzi to jednak szereg problemów, z których najpoważniejszym jest konieczność instalowania agentów backupu w wirtualnych maszynach. Przy dużym zagęszczeniu maszyn wirtualnych na jednym serwerze fizycznym może to doprowadzić do spadku wydajności działania aplikacji. Tradycyjne systemy backupu nie są więc najlepszym rozwiązaniem do zabezpieczania danych w środowisku wirtualnym.

Przy okazji wirtualizacji serwerów można więc zaproponować klientowi również nowe rozwiązanie do backupu, dostosowane do specyfiki środowiska wirtualnego. Producenci dążą do maksymalnego skrócenia czasu przywracania maszyn wirtualnych, ponieważ w skrajnych sytuacjach może ono trwać nawet kilkanaście godzin. Dlatego coraz częściej podkreśla się, że priorytetem są funkcje odzyskiwania danych z backupu (zarówno całych wirtualnych maszyn, jak i pojedynczych plików z wirtualnego środowiska), a nie mechanizmy tworzenia kopii zapasowych.

Sławomir Karpiński

Channel Manager Connect Distribution, wyłącznego dystrybutora DataCore Software

Resellerzy i integratorzy, którzy zaangażują się w sprzedaż rozwiązań do wirtualizacji pamięci masowych, mają szansę na odegranie roli jednego ze strategicznych dostawców dla swoich klientów. Ich zadaniem stanie się zapewnienie bezpieczeństwa najważniejszego zasobu większości firm – danych. DataCore oferuje możliwość łatwego rozpoczęcia współpracy oraz zapewnia wszystkie potrzebne do tego narzędzia – szkolenia, system rejestracji kontraktów, preferencyjne ceny i specjalne licencje na oprogramowanie, dzięki którym można świadczyć usługi przenoszenia danych.