Trwa dynamiczny rozwój serwerów z rodziny x86, które w centrach danych zastępują systemy RISC/Unix. Tym samym drogie zamknięte rozwiązania ustępują miejsca tańszym i uniwersalnym, wykorzystującym układy Intela i AMD. W ostatnich latach platformę x86 objął szybki postęp i to zarówno w zakresie wydajności CPU, jak i przepustowości interfejsów. W rezultacie tego rodzaju serwery są obecnie w stanie obsługiwać aplikacje uruchamiane wcześniej wyłącznie na dużych systemach Unix. Wpłynął na to także rozwój systemów operacyjnych Windows i Linux, uruchamianych na maszynach x86. Rozwiązania uniwersalne są tańsze w eksploatacji, gdyż koszty utrzymania związane z licencjonowaniem oprogramowania są dużo niższe niż w przypadku systemów zamkniętych.

Uniwersalność wynika z tego, że na platformie serwerowej x86 mamy do czynienia z daleko posuniętą standaryzacją i większość komponentów wykorzystuje układy tych samych dostawców, więc serwery typu tower i rack różnych marek są najczęściej pod wieloma względami do siebie podobne. Dostawcy nie chcą jednak, by cena stała się podstawowym kryterium wyboru rozwiązania. W związku z tym doskonalą swoją ofertę i starają się wyróżnić, np. dostępnością produktów i części zamiennych, krótkim czasem dostawy, ofertą wsparcia telefonicznego i na miejscu u klienta, a także usługami serwisowymi.

– Agresywna konkurencja na rynku serwerowym sprawia, że każdy wyróżnik może być kluczowy w procesie sprzedaży. Dlatego, poza parametrami czysto technicznymi, w grę wchodzą inne aspekty, takie jak dojrzałość systemów monitorowania i zarządzania, umożliwiających współpracę z bardzo szeroką gamą rozwiązań, oraz dostępność i skuteczność usług serwisowych – twierdzi Sylwester Chojnacki, Product & Solution Department Director w dziale Enterprise Business Group firmy Huawei.

 

Przedsiębiorstwa zwracają coraz większą uwagę na koszty operacyjne związane z utrzymaniem środowiska informatycznego. Dlatego oferując serwery x86, warto wybierać rozwiązania zapewniające wysokiej jakości narzędzia do zarządzania. Takie, które decydują o sposobie, w jaki systemy są wdrażane, utrzymywane, optymalizowane i aktualizowane.

Znacznie większe różnice techniczne występują między poszczególnymi markami serwerów kasetowych i innych systemów o dużej gęstości. Zawierają one w jednej obudowie wiele modułów serwerowych z własnymi układami CPU, pamięcią i dyskami. W tym przypadku mamy do czynienia z różnymi sposobami łączenia komponentów, zasilania czy chłodzenia. Poszczególni producenci stosują swoje własne architektury układów sieci SAN/LAN/UNIFIED w obudowach. Oferują też różniące się od siebie systemy zarządzania i funkcje, takie jak wirtualizacja sieci czy profile serwerowe.

Ostatnio na znaczeniu zyskują systemy konwergentne. Powstałe z myślą o maksymalnej konsolidacji, opierają się na sprawdzonej przez operatorów chmury metodzie tworzenia infrastruktury przy użyciu standardowego sprzętu serwerowego, zintegrowanego i kontrolowanego przez warstwę programową (software defined). Systemy konwergentne to często kombinacja sprzętu pochodzącego od dwóch lub trzech dostawców (serwerów, pamięci masowych i przełączników sieciowych) oraz oprogramowania wirtualizacyjnego i zarządzającego. Oferowane są w formie gotowych modułów sprzętowo-programowych, których liczbę można zwiększać adekwatnie do wymagań, tworząc klastry w jednym lub wielu miejscach.

– Zainteresowanie rozwiązaniami konwergentnymi zdecydowanie rośnie, a popularność tradycyjnych technologii serwerowych nieznacznie spada – uważa Wojciech Zawada, Enterprise Solutions Marketing Manager CEE w Dellu.

Zdaniem przedstawiciela Della coraz większą popularnością cieszą się platformy charakteryzujące się otwartością standardów technologicznych oraz nowe rozwiązania definiowane za pomocą oprogramowania (np. SDS – Software Defined Storage).

 

Centrum danych coraz bardziej wirtualne

Za sprawą wirtualizacji większość przedsiębiorstw oderwało się od sztywnego i nieefektywnego – zarówno pod wzgędem wydajności, jak i kosztów – tradycyjnego modelu IT, polegającego na alokowaniu wyłącznie fizycznych zasobów do obsługi poszczególnych aplikacji. Wirtualizacja zapewniła im maksymalny poziom wykorzystania posiadanych zasobów serwerowych, scentralizowane i przejrzyste zarządzanie całością zasobów oraz szybkie kreowanie nowych. Wpłynęła także na zwiększenie dostępności usług na skutek zastosowania mechanizmów dynamicznej migracji serwerów wirtualnych i ich klastrowania.

Wojciech Zawada

Enterprise Solutions Marketing Manager CEE w Dell Polska

Zanikają zamknięte rozwiązania, które blokowały rozwój infrastruktury firmy w przeszłości. Przedsiębiorcy chętniej sięgają po otwarte platformy sprzętowe gotowe na przyszły rozwój, np. rozmaite rozwiązania konwergentne. Praktycznie wszystkie przedsiębiorstwa  przy zakupie infrastruktury kierują się obecnie jej całościowym kosztem użytkowania (TCO), stopą zwrotu (ROI), elastycznością rozwiązania oraz jakością wsparcia posprzedażowego, która zapewnia spokojny sen inwestującemu w daną platformę sprzętową.

 

Dostawcy, wiedząc, że klientów nie trzeba już przekonywać do zalet wirtualizacji serwerów, poszli dalej i proponują zwirtualizowanie całego centrum danych. W koncepcji Software-Defined Data Center wszystkie elementy infrastruktury – sieć, pamięć masowa, moc obliczeniowa i systemy zabezpieczeń – są zwirtualizowane i dostarczane w formie usługi. Dzięki temu rośnie poziom zautomatyzowania i elastyczności infrastruktury, co zaspokaja m.in. potrzebę wprowadzania nowych metodyk IT, takich jak DevOps. Analitycy przewidują, że przyszłość będzie należeć do SDDC, ale jednocześnie twierdzą, że obecnie większość przedsiębiorstw nie jest gotowych do wirtualizacji całej infrastruktury i zalecają stopniowe oraz ostrożne wprowadzanie nowych rozwiązań. A zatem mamy obecnie do czynienia z rozwojem trendów obejmujących tylko wybrane obszary programowo definiowanego centrum danych, dotyczące pamięci masowych (SDS – Software Defined Storage) oraz sieci (SDN – Software Defined Networking).

I choć coraz większa liczba klientów wirtualizujących swoje serwery jest skłonnych stosować model „wirtualizuj, co tylko się da”, to wciąż nie brakuje takich, którzy stosują strategią „wirtualizuj tylko to, co konieczne”. Taką zachowawczość ujawniają wyniki przeprowadzonego na zlecenie firmy Intel badania „Computing Data Centre Audit 2015”. Okazuje się, że 33 proc. ankietowanych przedsiębiorstw określa swoje centra danych jako „tradycyjne”, czyli zwirtualizowane tylko w ograniczonym zakresie. Inna rzecz, że jedynie 15 proc. zakłada, iż takie podejście będzie stosować przez następne lata. Powodów utrzymywania się „tradycjonalizmu” jest kilka i według autorów badania dotyczą przede wszystkim względów bezpieczeństwa oraz chęci zachowania pełnej kontroli nad infrastrukturą IT i zgodności z przepisami.

 

Co z tą wirtualizacją?

 

Rynek wirtualizacji serwerów nadal pozostaje zdominowany przez dwie firmy. Potwierdza to badanie „State of IT 2016” firmy analitycznej Spiceworks, która przepytała ponad 800 menedżerów IT z dużych i małych przedsiębiorstw w Europie i Ameryce Północnej. Według niego 71 proc. ankietowanych firm wykorzystuje VMware vSphere ESXi, a 23 proc. używa wirtualizatora Hyper-V Microsoftu. Tylko 6 proc. ankietowanych przedsiębiorstw oraz instytucji potwierdziło stosowanie innego oprogramowania do wirtualizacji, np. Citrix XenServer. W przypadku małych i średnich firm odsetek użytkowników Hyper-V jest wyższy. Wiele małych i średnich podmiotów, które liczą się z każdym groszem, korzysta z tego, że podstawowe funkcje wirtualizatora Microsoft Hyper-V zapewnia bez dodatkowych kosztów system Windows Server (od wersji 2008). Co prawda VMware także oferuje darmową wersję vSphere, ale małe przedsiębiorstwa uruchamiające serwer Windows wolą raczej pozostawać przy jednej platformie. Po prostu wychodzą z założenia, że będzie im wtedy łatwiej zarządzać całym środowiskiem IT.

W bardziej zaawansowanych zastosowaniach pełna wersja Vmware ESXi jest przez klientów ceniona za funkcje wysokiej dostępności, obsługę rozproszonej pamięci masowej, migrację na żywo i możliwości skalowania – niezwykle przydatne w większych instalacjach, w których bardziej niż cena liczy się funkcjonalność i niezawodność. Analitycy zwracają jednak uwagę, że z każdym nowym wydaniem Hyper-V nadrabia zaległości w wymienionych obszarach.

Firma Spiceworks sprawdziła także obecny poziom wykorzystania wirtualizacji w centrach danych. Z badania „State of IT 2016” wynika, że ponad 76 proc. firm wykorzystuje zalety wirtualizowania serwerów, a do roku 2017 ich liczba ma wzrosnąć do 85 proc.

 
Serwerowe systemy operacyjne

Jakie systemy operacyjne uruchamiane są na wirtualnych i fizycznych serwerach? Dominują różne wersje Windows Server, a na większości pozostałych serwerów działają rozmaite odmiany Linuksa, który konsekwentnie wypiera z rynku Uniksa. Przedsiębiorstwa, zastępując rozmaite systemy RISC/Unix sprzętem x86, decydują się na wykorzystanie jednej z dystrybucji systemu open source, wśród których prym wiedzie Red Hat Enterprise Linux. Z danych analityków wynika, że do Linuksa należy obecnie około 10 proc. rynku serwerowych OS-ów.

Choć Windows Server zdecydowanie przewodzi, nie oznacza to, że klienci masowo uaktualniają ten system do kolejnej pojawiającej się wersji. Obecnie ostatnie produkcyjne wydanie, czyli Windows Server 2012, jest według raportu Spiceworks wykorzystywane na 24 proc. serwerów. Znacznie więcej, a mianowicie 45 proc., wirtualnych i fizycznych maszyn działa pod kontrolą Windows Server 2008 (który tym samym jest najpopularniejszym obecnie serwerowym OS-em). Integratorów powinien zainteresować fakt, że aż 18 proc. serwerów w przedsiębiorstwach działa pod kontrolą Windows Server 2003, który od ponad roku (dokładnie od 14 lipca 2015) nie ma już wsparcia technicznego producenta. Z uwagi na bezpieczeństwo administratorzy w firmach muszą w końcu zdecydować się na wymianę tego systemu. Powinno to się wiązać także z odświeżeniem warstwy sprzętowej. Na razie swoje opóźnienie tłumaczą brakiem czasu i napiętymi budżetami na IT.

Dobrą okazją do aktualizacji powinna być oficjalna premiera systemów Windows Server 2016 i System Center 2016, która ma mieć miejsce jeszcze we wrześniu bieżącego roku na konferencji Microsoft Ignite w Atlancie. Do tego czasu producent zachęca administratorów do zapoznania się z Windows Server 2016 Technical Preview 5 – finałową wersją testową, zawierającą wszystkie przewidziane w nowym systemie funkcje.

Czego szukają klienci?

• elastycznych rozwiązań

• łatwego zarządzania wszystkimi elementami infrastruktury

• niskiego całkowitego kosztu użytkowania (TCO)

• wysokiego poziomu wsparcia technicznego

• efektywnego zarządzania zużyciem energii elektrycznej

• otwartych standardów technologicznych

 
 
Czekając na ulepszoną wersję Hyper-V

Nowości w nadchodzącym wydaniu Hyper-V to m.in. obsługa kontenerów Docker oraz dostępność nowej, lekkiej wersji systemu, nazwanej Nano Server. Jednak, jak dowodzą ankiety przeprowadzane wśród administratorów, profesjonaliści IT najbardziej czekają na ulepszenia wirtualizatora Hyper-V oraz PowerShell. Udoskonalony Hyper-V w Windows Server 2016 ma umożliwiać przeprowadzanie aktualizacji klastrów online i oferować zwiększoną odporność na awarie maszyn wirtualnych. Z kolei po PowerShell administratorzy spodziewają się lepszego funkcjonowania powłoki linii poleceń i udoskonalonego języka skryptowego.

Windows Server 2016 ma być oferowany w trzech edycjach: Datacenter, Standard i Essentials. W przypadku dwóch pierwszych zmianie ulegnie sposób licencjonowania – zależeć będzie od liczby rdzeni, a nie procesorów, jak to było poprzednio. Wprowadzając Windows Server 2016, Microsoft chce, by jego klienci zmodernizowali swoje centra danych, a także, by łatwiej im było przenosić obciążenia serwerowe do Azure, publicznej chmury producenta, w czym pomagać im będą integratorzy.

 

Z centrum danych trudno się rozstać

Choć chmura staje się coraz ważniejsza, to dostawcy nie zauważają, by z powodu hostingu i cloud computingu przedsiębiorstwa zaczęły rezygnować z własnych centrów danych. Klienci nadal wolą, by kluczowe systemy działały w firmowej infrastrukturze.

Iwo Dominik Żochowski, prezes Engave, warszawskiego integratora systemów IT, twierdzi, że w Polsce nie ma zjawiska masowej migracji do rozwiązań chmurowych.

Jeżeli zapada decyzja o migracji do chmury, najczęściej obejmuje ona systemy o mniejszym znaczeniu dla biznesu. Rozwiązania chmurowe bywają także wykorzystywane przez firmy w Polsce jako ośrodki zapasowe – uważa Iwo Dominik Żochowski.

Jego zdaniem rezerwa, z jaką przedsiębiorcy podchodzą do korzystania z rozwiązań chmurowych, może wynikać z dużego braku zaufania do przechowywania danych w bliżej nieokreślonym miejscu oraz obawy o niską jakość wsparcia technicznego.

Firmy z jednej strony chcą zachować własne centrum danych, z drugiej – szukają sposobów łączenia infrastruktury on-premise z zewnętrznymi zasobami. Niemal połowa respondentów wspomnianego badania „Computing Data Centre Audit 2015” wierzy, że wewnętrzne centra przetwarzania danych będą potrzebne zawsze. Jednocześnie przepytywani przedsiębiorcy oczekują jednak szybkiego rozwoju infrastruktury swoich firm w obszarach chmury, kolokacji i hostingu.

 

Sylwester Chojnacki

 

Product & Solution Department Director w dziale Enterprise Business Group firmy Huawei

Od serwerów klienci oczekują dynamicznego wzrostu wydajności połączonego z optymalną ofertą cenową. Wydajność ta bardzo często wręcz wymagana jest przez różnego rodzaju rozwiązania techniczne, np. ostatnio bardzo popularne SAP HANA czy inne narzędzia analityczne, w tym działające w chmurze. W przypadku rozwiązań dla centrów danych ciekawym trendem jest SDN. To świetna propozycja dla dostawców chmurowych usług IT, dla których kluczowa jest szybkość wdrożenia lub zmodyfikowania usługi.