Wirtualizacja stała się powszechnie stosowanym rozwiązaniem w centrach danych już ponad dekadę temu. Gdy oprogramowanie zapewniające optymalizację wykorzystywania zasobów IT (głównie serwerów) upowszechniło się, należne jej zainteresowanie zaczęła budzić chmura – najpierw prywatna, a potem publiczna. Ale wokół zarówno wirtualizacji, jak i chmury wciąż sporo jest mitów i niejasności.

Wielu dostawców szuka swojej niszy na tym rynku (na razie niewielu się to udało), a klienci nie zawsze są pewni inwestycji w to, a nie inne rozwiązanie, które miałoby pomóc w rozwiązaniu ich problemu. Dlatego kluczową rolę do odegrania mają integratorzy – zarówno w kontekście strategicznego i taktycznego doradztwa, jak też późniejszego wdrożenia i być może utrzymania całego systemu.

 

Rynek bardziej skomplikowany niż sama wirtualizacja

Kształt rynku, na którym funkcjonują dostawcy rozwiązań do wirtualizacji, jest bardzo ciekawy. Wzajemne zależności dostawców oraz „śluby” i „rozwody” powodują, że każda decyzja o współpracy z dostawcami musi być przemyślana, bowiem w przyszłości może poskutkować różnymi konsekwencjami.

Przez ostatnich kilkanaście lat świat IT uważnie przygląda się poczynaniom VMware’a, który został kupiony przez EMC w 2004 r. Zastanawiano się wówczas nad sensem tego ruchu, skoro sam VMware bardzo aktywnie współpracował (i czyni to nadal) ze wszystkimi największymi konkurentami EMC, na czele z NetAppem. Zarządcy VMware’a zastrzegli wówczas, że mimo specyficznej sytuacji chcą, aby producent pozostał niezależny i mógł współpracować z każdym graczem na rynku. Trzeba przyznać, że w swoim postanowieniu wytrwali, a EMC im w tym nie przeszkadzało, co wzbudziło duży szacunek w branży IT.

Bartłomiej Machnik

Datacenter & Cloud Platform Product Manager, Microsoft

Klienci często pytają o możliwość wyliczenia parametrów TCO i ROI dla projektów wirtualizacyjnych i związanych z chmurą publiczną. Niestety, jest to dość złożone zagadnienie i nie zawsze da się przeprowadzić takie kalkulacje. Wszystko zależy od tego, czy mamy do czynienia z ciągłym przetwarzaniem danych czy np. chwilowym wzrostem zapotrzebowania na moc obliczeniową związanym z jakimś projektem. Inny rodzaj zasobów jest też przewidziany na potrzeby szkoleniowe, do testów czy wdrożenia produkcyjnego. Oczywiście skorzystanie z chmury publicznej rzadziej opłaca się firmom, które dysponują już własnym, niewykorzystanym sprzętem.

 

Ale w 2015 r. podobne pytanie postawiono na nowo, gdy do gry wkroczył Dell. Wtedy sytuacja jeszcze bardziej się skomplikowała, bo EMC produkował tylko macierze dyskowe, zaś pola działania Della i VMware’a pokrywają się – mowa o produkcji serwerów. Pytania o zachowanie niezależności przez VMware padają do dziś, zaś deklaracje producenta nadal są niezmienne. Pewien niesmak odczuwają tylko takie firmy jak Cisco, Fujitsu, HPE, IBM czy Lenovo, które – będąc ważnymi partnerami VMware’a – wiedzą, że częściowo pracują na zyski Della.

Kolejny ciekawy układ wytworzył się między firmami VMware i Microsoft. Koncerny, które teoretycznie powinny być partnerami, nie żywią do siebie zbytniej sympatii – głównie z powodu konfliktu interesów, bo biznesowo konkurentami są coraz mniej. VMware nie „lubi” Microsoftu, bo ten wszedł na rynek z konkurencyjnym produktem (Hyper-V), który rozdaje za darmo. Z kolei Microsoft krzywo patrzy na VMware’a, bo  ten zachęca użytkowników do rezygnacji z licencji serwerowych (np. Windows Server 2003) i przeniesienia ich do wirtualnych maszyn, zamiast inwestowania w rozwiązania nowe, bardziej funkcjonalne, ale też wymagające szybszego sprzętu.

Do tego dochodzi relacja obu firm z Citriksem. Gdy producent ten oferował tylko rozwiązanie do wirtualizacji aplikacji, był dużym partnerem VMware’a i korzystał z jego platformy do wirtualizacji serwerów. Ale gdy Citrix kupił XenSource’a w 2007 r. i szybko rozszerzył portfolio o rozwiązania do wirtualizacji serwerów i desktopów, partnerstwo zawisło na włosku, a finalnie odeszło w niebyt.

Wielu obserwatorów rynku spodziewało się podobnej sytuacji między Citriksem i Microsoftem, gdy ten drugi też zadeklarował wejście na rynek rozwiązań wirtualizacyjnych, ale tu zwyciężył zdrowy rozsądek. Microsoft zorientował się, że technologicznie w dziedzinie wirtualizacji aplikacji i desktopów nie dogoni Citriksa, więc zdecydował się na rozszerzenie wcześniejszego partnerstwa. W efekcie usługa Windows 10 as a Service będzie wkrótce świadczona z chmury Azure oraz dzięki technologii udostępniania aplikacji i desktopów autorstwa Citriksa.

 

Kierunek: chmura

Rozwijając rozwiązania wirtualizacyjne, producenci dość szybko doszli do takiego poziomu, na którym spełniono większość oczekiwań klientów. Część z nich wręcz zadeklarowała, że nie jest zainteresowana „gonitwą” za nowymi funkcjami, bowiem hołduje zasadzie „zainstaluj i zapomnij”, aby nie musieć później regularnie testować zgodności nowych wersji oprogramowania wirtualizacyjnego z aplikacjami stosowanymi przez biznes. Producenci spełniają ich oczekiwania:

Stanisław Bochnak

Business Solutions Strategist, VMware

Administratorzy pracujący u klientów często obawiają się, że automatyzacja zarządzania infrastrukturą IT może negatywnie wpłynąć na zatrudnienie. Z jednej strony to zrozumiałe, ale zarazem błędne myślenie. Z podobnymi przykładami mieliśmy już do czynienia w historii przemysłu. W trakcie rewolucji przemysłowej też obawiano się, że wprowadzenie zautomatyzowanych maszyn tkackich spowoduje drastyczny spadek zatrudnienia. Tymczasem automatyzacja spowodowała spadek cen, a tym samym ogromny wzrost popytu na sukno. Potrzebne było wręcz zwiększenie zatrudnienia osób obsługujących maszyny. Dokładnie z taką samą sytuacją zaczynamy mieć do czynienia w branży IT.

 

– Od pewnego czasu oferujemy wybrane produkty w wersjach Long Term Service Release (LTSR) – mówi Sebastian Kisiel, Senior Sales Engineer w firmie Citrix. – Charakteryzują się wydłużonym do 10 lat okresem wsparcia, w trakcie którego wraz z aktualizacjami nie są wprowadzane nowe funkcje zmuszające np. do rozbudowy środowiska sprzętowego. Gwarantujemy oczywiście naprawę ewentualnych usterek i zapewniamy poprawki związane z bezpieczeństwem. Oprogramowaniem w tym modelu zainteresowani są przede wszystkim klienci korzystający z ponad tysiąca stanowisk komputerowych.

Z tego powodu rozwój rozwiązań wirtualizacyjnych został w zasadzie zepchnięty na boczny tor. Skupiono się zaś na automatyzacji zarządzania środowiskiem wirtualnym – oczekiwali tego klienci, w których centrach danych działało kilkaset wirtualnych maszyn i ręczne zarządzanie nimi wiązało się z ryzykiem popełnienia błędu ludzkiego. Początkowo nieufnie podchodzono do takich funkcji jak np. przenoszenie włączonych wirtualnych maszyn z jednego fizycznego serwera na drugi. Finalnie jednak bez automatyzacji żaden administrator wirtualnego środowiska nie wyobraża sobie życia.

Na potrzeby terminologii wirtualizacyjnej zaadaptowano też pojęcie chmury, która wcześniej kojarzyła się głównie z usługami internetowymi. Rozpoczęto promowanie chmur prywatnych i hybrydowych, wskazując, że te drugie prawdopodobnie na długo staną się nieodzownym elementem strategii zarządzania danymi przez działy IT w przedsiębiorstwach. Ale są firmy, które w odniesieniu do chmury podejmują odważne decyzje.

Niespecjalnie oglądamy się na rynek wirtualizacji – mówi Bartłomiej Machnik, Datacenter & Cloud Platform Product Manager w Microsofcie. – W tej chwili 98 proc. naszych wysiłków marketingowych i handlowych związanych jest z chmurą publiczną. Oczywiście nie lekceważymy rozwiązań konkurencyjnych, ale odeszliśmy od walki przetargowej na funkcje, bo chcemy grać na trochę nowocześniejszym boisku.

Microsoft nie planuje naturalnie wstrzymania rozwoju oprogramowania Hyper-V dostępnego jako moduł Windows Servera. Ale tak samo jak w przypadku Citrix XenServera rozwiązanie jest dostępne bezpłatnie, a na tradycyjnej wirtualizacji serwerów dziś zarabia tylko VMware.

 

Z serwera do sieci i pamięci masowych

Sukces rozwiązań do wirtualizacji serwerów spowodował, że zaczęto podejmować próby skopiowania tego modelu na inne obszary związane z IT, głównie sieci i pamięci masowe. Tam jednak już nie było tak łatwo. Doszło do wielu nieporozumień, przez co na pełen sukces także w tej dziedzinie przyjdzie jeszcze poczekać.

– Kalka językowa, którą jest „wirtualizacja sieci” nie do końca oddaje istotę tego rozwiązania – mówi Stanisław Bochnak, Business Solutions Strategist w VMware. – Nie mamy tu do czynienia z taką wirtualizacją jak w przypadku serwerów, gdzie urządzenie fizyczne może „udawać” kilka serwerów równocześnie, i to z różnym systemem operacyjnym. Tymczasem w przypadku sieci nie chodzi o to, żeby bardziej obciążyć istniejące urządzenia sieciowe. Wręcz przeciwnie. Główna zmiana dotyczy konfiguracji i zarządzania – tu oprogramowanie jest w stanie automatyzować wiele działań i uchronić administratorów od błędów.

Sebastian Kisiel

Senior Sales Engineer, Citrix

Budując środowisko wirtualizacyjne, trzeba zwracać dużą uwagę na to, w jakim stopniu wykorzystywane są zasoby sprzętowe, a w szczególności macierze dyskowe przechowujące zwirtualizowane obrazy serwerów, desktopów i aplikacji. Popełniony błąd w planowaniu może skutkować niestabilną pracą lub wręcz przestojami całego środowiska. Dlatego warto zainteresować się systemami zapewniającymi elastyczny dobór wirtualizowanych komponentów i swobodę w ich udostępnianiu poszczególnym użytkownikom. Dzięki wbudowanym w rozwiązania wirtualizacyjne repozytoriom administratorzy mogą wybierać, jak ze sklepu, obrazy różnych systemów operacyjnych oraz aplikacji.

 

Dlatego trafniejszym określeniem jest sieć zdefiniowana programowo, bo wszystkie składowe takiej nowoczesnej sieci działają jako obiekty software’owe i są elastycznie rekonfigurowalne w stopniu, jaki jest niemożliwy do uzyskania z urządzeniami fizycznymi. Z kolei w pamięciach masowych wirtualizacja polega przede wszystkim na agregacji różnego typu nośników – wirtualizator indeksuje udostępnianą przez nie pojemność, weryfikuje zapewniany poziom bezpieczeństwa danych oraz testuje wydajność. A potem udostępnia zwirtualizowane zasoby serwerom, w zależności od oczekiwanego przez działające na nich aplikacje poziomu usług. W efekcie uwalnia administratorów od konieczności prowadzenia żmudnych testów wydajnościowych i nie zawsze łatwego rekonfigurowania środowiska pamięci masowych, zależnie od aktualnych potrzeb biznesowych.

 

Koszty w dół

Wirtualizacja pamięci masowych przez długie lata była postrzegana jako drogie i skomplikowane przedsięwzięcie. W głównej mierze przyczyniło się do tego sprzętowe rozwiązanie SAN Volume Controller oferowane przez IBM. Ale ostatnich kilka lat przyniosło znaczny postęp w tej dziedzinie. Moduły wirtualizujące wbudowało w swoje macierze dyskowe wielu producentów (oprócz IBM-u także Dell EMC, HDS czy Huawei), a poza tym dużą popularność zaczęły zyskiwać alternatywne dla sprzętu rozwiązania programowe takich firm jak: DataCore, Dell EMC, FalconStor, StarWind czy VMware. Mają one wiele zalet, ale najważniejsza jest jedna.

Główną korzyścią płynącą z oprogramowania do wirtualizacji pamięci masowych jest to, że znacznie obniża ono koszt zapewnienia wysokiej dostępności przestrzeni dyskowej dla serwerów – mówi Jerzy Adamiak, konsultant ds. pamięci masowych w Alstorze. – Dzięki niemu można stworzyć wirtualną sieć SAN, nie mając ani jednego przełącznika Fibre Channel. Zapewnia ono replikację danych między węzłami w wirtualnym środowisku, co ma szczególne znaczenie, np. gdy w ten sposób chcemy zapewnić przestrzeń dyskową chociażby dla wirtualizatorów serwerów czy desktopów.

O ile w przypadku sprzętowych wirtualizatorów pamięci masowych agregacji mogą podlegać wyłącznie podłączone „z tyłu” macierze dyskowe, o tyle rozwiązanie dostępne w postaci oprogramowania zapewnia znacznie większą elastyczność. W prosty sposób w jedno środowisko można połączyć np. część pamięci operacyjnej serwera, zainstalowaną w nim kartę PCIe z pamięcią flash, wbudowane dyski SSD i zewnętrzny zasób dyskowy. Przeprowadzane przez Storage Performance Council testy wykazały, że można w ten sposób uzyskać wydajność porównywalną z efektywnością najlepszych macierzy all-flash za ułamek ich ceny.

Producenci oprogramowania do wirtualizacji pamięci masowych starają się uzasadnić sens inwestowania w nie – znakomita większość zapewnia jego darmowe lub czasowe wersje. Można też spotkać się z ofertą ułatwiającą przeprowadzenie migracji danych, np. ze starej macierzy dyskowej na nową. Dzięki takiemu rozwiązaniu proces może przebiegać bez konieczności wyłączania urządzeń, a więc z zapewnieniem ciągłego dostępu do danych z serwerów.

Chmura warta miliardy

Opublikowane w styczniu br. wyniki badań IDC raczej nie pozostawiają wątpliwości, który model chmurowego przetwarzania danych zyska uznanie użytkowników. W 2017 r. na świecie na rozwiązania do przetwarzania danych w chmurze ma być wydanych44,2 mld dol., z czego aż 61 proc. na infrastrukturę służącą do świadczenia usług w chmurze publicznej, a tylko 15 proc. wyłącznie w chmurze prywatnej przedsiębiorstw (reszta udziałów przypada na chmurę hybrydową). Jeżeli taki wynik zostanie osiągnięty, będzie to oznaczało wzrost o 18,2 proc. wobec ubiegłego roku. Tymczasem według IDC wartość sprzedaży rozwiązań niesłużących do budowania chmury spadnie o 3,3 proc.