Przez ostatnią dekadę
kształt rynku serwerów i charakter dostępnej oferty ulegały niewielkim
zmianom. Dla małych firm przeznaczone były pojedyncze, wolnostojące urządzenia,
często do pracy w miniserwerowni bądź zwykłych pomieszczeniach biurowych.
Z kolei do szaf przemysłowych trafiały płaskie uniwersalne serwery
o wysokości 1U (tzw. pizza box). Najbardziej wymagający użytkownicy
inwestowali w serwery kasetowe (blade), które zapewniały łatwe zarządzanie
szybko rozbudowywaną infrastrukturą.

Równolegle dostawcy oprogramowania tworzonego zgodnie
z trendem Software Defined Anything przekonywali, że dziś funkcjonalność
poszczególnych serwerów przestała mieć znaczenie. Ich zdaniem powinny być one
traktowane głównie jako systemy zapewniające moc obliczeniową i pamięć
operacyjną. Zaś same te zasoby i tak są poddawane szeroko rozumianej
wirtualizacji, a zarządzanie nimi odbywa się z wykorzystaniem
oprogramowania firm trzecich.

Dzieje się tak m.in. innymi dlatego, że w kontekście
serwerów coraz trudniej mówić o innowacyjności. To głównie producenci
chipsetów kładą duży nacisk na to, aby sprzęt od różnych dostawców był jak
najbardziej ujednolicony w warstwie logicznej i kompatybilny ze sobą.
Dlatego w naturalny sposób innowacyjność zaczęła dotyczyć raczej
oprogramowania. Zarówno tego tworzonego przez samych dostawców serwerów, jak
też firmy trzecie, z którymi ci współpracują.

W dużych
środowiskach, w których funkcjonuje kilkadziesiąt bądź kilkaset fizycznych
serwerów, takie podejście ma sens. Jednak u mniejszych klientów deprecjonowanie
wartości i funkcjonalności zwykłych serwerów nie powinno mieć miejsca.
Wskazuje na to przede wszystkim ich uniwersalność oraz cena, często zbliżona do
wartości rozbudowanego peceta wysokiej klasy.

 

Co więcej, w ofercie dostawców z roku na rok
pojawia się coraz więcej serwerów przeznaczonych do specjalnych zastosowań.
Najczęściej są to maszyny ze zminiaturyzowaną bądź wzmocnioną obudową, głównie
do zadań w obszarze Internetu Rzeczy. Przykładowo, do instalacji na
zewnątrz budynków lub warunkach niesprzyjających poprawnej pracy urządzeń
elektrycznych, takich jak wilgoć czy duże zapylenie. Oprócz tego producenci
serwerów coraz częściej nawiązują współpracę z dostawcami różnego typu
oprogramowania analitycznego i oferują appliance’y ułatwiające
przetwarzanie danych zebranych w ramach projektów Internetu rzeczy bądź do
uniwersalnych zastosowań w środowisku Big Data.

 

Modularne zamiast kasetowych?

Ta swego rodzaju monotonia
na rynku serwerów „zmusiła” producentów do poszukiwania nowych form sprzętu, na
których będą mogli bazować podczas kolejnych kampanii promocyjnych. Efek-
tem ich pracy było powstanie tzw. serwerów modularnych, które ewoluowały
z infrastruktury kasetowej. Charakteryzują się tym, że trzy główne
komponenty urządzenia – moc obliczeniowa (procesor i pamięć), karta
sieciowa oraz pamięć masowa (dyski twarde lub SSD) – są oddzielone od
siebie i dostępne w postaci instalowanych w obudowie modułów,
które nie są w żaden sposób na stałe przypisane do siebie. Zarządzanie
zbudowaną w ten sposób infrastrukturą odbywa się z wykorzystaniem
dołączonego oprogramowania.

Jako główną zaletę modularnych serwerów producenci wskazują
to, że dzięki nim zmieniła się filozofia inwestowania w infrastrukturę
centrum danych. W przypadku serwerów kasetowych duży koszt stanowił zakup
obudowy (chassis) i inwestycja w tego typu sprzęt miała sens dopiero
wtedy, gdy taka obudowa była wypełniona minimum w 50–60 proc.
Dzisiaj, po dziesięciu latach i dzięki ciągłym spadkom cen sprzętu, tego
typu obudowy systemów konwergentnych kupuje się praktycznie wypełnione
i w razie potrzeby wymienia odpowiednie moduły na szybsze lub
pojemniejsze.

Według analityków agencji Moor Insights and Strategy
w ciągu najbliższych pięciu lat modularne serwery będą zajmowały aż
30 proc. rynku. Jeszcze bardziej optymistyczni są analitycy Gartnera,
którzy już w ubiegłym roku zrezygnowali z publikacji dorocznego
magicznego kwadrantu poświęconego infrastrukturze kasetowej i skupili się
właśnie na serwerach modularnych. Według nich w 2014 r. rozwiązania
te stanowiły już 26 proc. globalnej sprzedaży, a współczynnik ten
wyniesie 29 proc. w 2018 r. (średni roczny przyrost w wysokości
3 proc.).




Wojciech Kotkiewicz

Systems Engineer Manager, ABC Data
Value+

Serwery modularne, choć stanowią bardzo ciekawe
rozwiązanie, są jednak nadal niszowe i niedocenione przez klientów. Ich
obecność w ofercie producentów to raczej efekt poszukiwania czegoś
„świeżego”, ciekawego, innowacyjnego. Klienci i partnerzy
z zainteresowaniem przyglądają się tym rozwiązaniom, natomiast obecnie
wzrost ich sprzedaży jest znikomy i na razie nie stanowią one zagrożenia
dla serwerów typu blade.

 

Natomiast wszyscy przedstawiciele polskich oddziałów firm
produkujących serwery, z którymi rozmawialiśmy, zgodnie podkreślają, że na
pewno jeszcze nie przyszedł czas na „pogrzeb” serwerów kasetowych. Ma na to
wpływ przede wszystkim bardzo duża liczba zainstalowanych u klientów
obudów. Często nie są one wypełnione w stu procentach i użytkownicy
wciąż liczą na nieprzerwaną dostępność kasetowych serwerów w momencie, gdy
w ich firmie nastąpi znaczący wzrost ilości danych wymagających
przetworzenia.

Jako główni odbiorcy serwerów modularnych wskazywane są
głównie duże przedsiębiorstwa oraz dostawcy usług IT – obie grupy firm
charakteryzują się tym, że trudno jest im przewidzieć skalę i tempo
rozwoju, co skłania do inwestycji w rozwiązania elastyczne i łatwo
skalowalne. Duże znaczenie ma też „gęstość” upakowania mocy obliczeniowej oraz
łatwe zarządzanie całą infrastrukturą.

 

Konsolidacja i wirtualizacja

VMware już kilka lat temu
prognozował, że wkrótce niemal 100 proc. wdrażanych w firmach
serwerów będzie poddawanych wirtualizacji. Wpływ na tak szybki rozwój tej
techniki miało mieć wprowadzenie przez Intela i AMD wsparcia dla
wirtualizacyjnych hypervisorów w procesorach i chipsetach obu tych
marek. Zweryfikowanie rzeczywistej wartości tego współczynnika jest niemożliwe,
ale raczej można założyć, że obecnie zwirtualizowano już znakomitą większość
fizycznych serwerów. Gdy ich infrastruktura szybko się rozrasta, wirtualnym
środowiskiem łatwiej jest zarządzać czy zapewnić jego wysoką dostępność
chociażby przez popularną funkcję przenoszenia działającej wirtualnej maszyny
z jednego fizycznego serwera na drugi w celu przeprowadzenia prac
serwisowych na danym sprzęcie.

Niekwestionowanym
liderem rynku wirtualizacji serwerów pozostaje nadal VMware, chociaż coraz
bardziej czuje na plecach oddech Microsoftu, a przedstawiciele obu firm
podkreślają, że wzajemna konkurencja w tym obszarze będzie zaciekła. Przy
czym rozwiązania tych producentów do najtańszych nie należą. Dlatego
w mniejszych środowiskach, w których nie ma konieczności stosowania
rozbudowanych narzędzi zarządzających, można pomyśleć o wdrożeniu
alternatywnej platformy wirtualizacyjnej, dostępnej w modelu open source.
Na świecie najpopularniejsze są dwa tego typu rozwiązania: Kernel-based Virtual
Machine (KVM) rozwijany przez Open Virtualization Alliance oraz XenServer,
rozwijany w ramach projektu Xen Project pod auspicjami The Linux
Foundation. Oba wirtualizatory dostępne są też w formie komercyjnej,
z zagwarantowanymi usługami wsparcia technicznego. KVM znaleźć można
w ofercie Red Hata, zaś licencje XenServer – w ofercie firmy
Citrix.

Robert Paszkiewicz

dyrektor sprzedaży i marketingu, OVH

Najczęściej współpracujemy z partnerami o statusie
VAR, głównie różnego rodzaju integratorami, twórcami aplikacji internetowych
czy agencjami interaktywnymi. Firmy te na bazie naszej infrastruktury tworzą
własny produkt, np. sklep internetowy czy serwis streamingowy, który później
w postaci usługi oferują klientowi. Część z nich wykorzystuje naszą
wirtualną infrastrukturę do tworzenia własnych produktów dla klientów, inni zaś
korzystają z gotowych rozwiązań i zajmują się jedynie techniczną
administracją systemem operacyjnym czy innymi środowiskami klienta.

 
Z serwerowni do chmury

Serwery fizyczne
charakteryzuje stała dostępność zasobów dla użytkownika. Są one wyposażone
we własny dysk, procesor czy pamięć RAM, co – zdaniem wielu osób
– zapewnia większe bezpieczeństwo i stabilność. Tymczasem, jak
podkreślają dostawcy usług chmurowych, to serwery wirtualne, dzięki specjalnie
zaprojektowanej architekturze, są bardziej odporne na awarie. Za ich techniczne
utrzymanie odpowiada dostawca, który w razie potrzeby może przenieść maszynę
wirtualną z jednego fizycznego serwera na drugi. Nie bez znaczenia jest
także kwestia dostępności pamięci masowych.

W naszej infrastrukturze stosujemy trzykrotną replikację
danych, dzięki czemu jesteśmy w stanie zapewnić ich wysokie bezpieczeństwo
– podkreśla Robert Paszkiewicz, dyrektor
sprzedaży i marketingu w OVH. – Serwer wirtualny w chmurze publicznej, dzięki
dostępowi do infrastruktury centrum danych usługodawcy, może być rozbudowywany
w praktycznie nieograniczony sposób. Dodatkowe zasoby możemy aktywować
zgodnie z zapotrzebowaniem użytkowników.

Wojciech Zawada

Enterprise Solutions Marketing Manager CEE, Dell

Mimo że serwery są już
bardzo dojrzałymi produktami, producenci wciąż mogą wykazać się innowacyjnością
przy projektowaniu nowych modeli. Szczególny nacisk kładziony jest na szeroko
rozumianą ergonomię pracy. Tworzymy obudowy tłumiące dźwięk w modelach,
które nie są przeznaczone do pracy w centrum danych i często stoją
w jednym z pokoi biurowych. W przypadku serwerów przeznaczonych
do pracy w oddzielnych serwerowniach poprawiana jest efektywność
chłodzenia, np. dzięki wykorzystaniu cieczy lub dzięki optymalizacji przepływu
nieschłodzonego powietrza, i jednoczesnej niezawodnej pracy – takie
rozwiązanie pozwala na obniżenie kosztów klimatyzacji serwerowni. Do tego
dochodzą kwestie związane z zarządzaniem całą infrastrukturą – już
nie tylko przy pomocy konsoli administratora, ale także np. z telefonu komórkowego
czy tabletu.

Światowy rynek serwerów

Według analityków IDC w czwartym kwartale 2015 r.
światowy rynek serwerów wzrósł o 5,2 proc. (rok do roku). Był to
siódmy z kolei kwartał, w którym odnotowano wzrost – badacze
jako przyczynę wskazują trwający proces odświeżania przez firmy infrastruktury
serwerowej oraz konieczność inwestowania w nowy sprzęt w związku ze
znacznym przyrostem koniecznych do przetworzenia danych. Wartość sprzedaży
w całym 2015 r. (w porównaniu z 2014 r.) wzrosła
o 8 proc. i wyniosła 55,1 mld dol.

Analitycy
wskazują, że na ogólny wzrost sprzedaży wpływ miało duże zainteresowanie
serwerami klasy podstawowej i midrange, które najczęściej wykorzystywane
są w projektach wirtualizacyjnych. Systemy klasy high-end odnotowały wręcz
spadek sprzedaży – o 2,4 proc.


 

Niepodważalną zaletą jest też kwestia rozliczeń.
W przypadku usługi chmury publicznej użytkownik najczęściej płaci za
zasoby, które faktycznie zostały wykorzystane i nie jest ograniczony
comiesięczną opłatą. Natomiast z punktu widzenia administratora
technicznie obsługa obu rodzajów serwerów praktycznie odbywa się w taki
sam sposób. Dlatego wirtualne serwery dostępne w chmurze zdobywają coraz
więcej zwolenników.

Jeżeli firmy nie mają restrykcyjnej polityki dotyczącej
przetwarzania wrażliwych danych w chmurze, to dostępne usługi wirtualnych
serwerów mogą być ciekawą alternatywą
– podsumowuje Wojciech Kotkiewicz, Systems Engineer Manager
w ABC Data Value+. – Taka oferta
jest ciekawa dla klientów, którzy nie mają zaawansowanej infrastruktury
serwerowej i pamięci masowych, a chcieliby korzystać
z nowoczesnych rozwiązań bez ponoszenia sporych inwestycji. Co ważne, nie
stanowi ona zagrożenia dla partnerów, bo coraz więcej usług chmurowych odsprzedawanych
jest przez kanał partnerski, często zresztą również za pośrednictwem
dystrybutorów.

Dla użytkowników
największym plusem płynącym ze środowiska serwerów dostępnych w chmurze
jest jego bardzo duża skalowalność. Równocześnie mają dostęp do
najnowocześniejszej infrastruktury, zabezpieczonej w sposób, na który
najczęściej nie mogliby sobie pozwolić (zasilanie, chłodzenie, ochrona fizyczna
itd.). Samymi serwerami zarządzają natomiast profesjonalni administratorzy,
których zatrudnienie w małych firmach jest coraz trudniejsze.
Z finansowego punktu widzenia decyzja o skorzystaniu z tego typu
infrastruktury ma sens w mniejszych środowiskach – oszczędności
wynikają głównie z braku konieczności budowy profesjonalnej serwerowni
oraz posiadania wykształconej kadry administracyjnej.

NAS zamiast serwera?

Wybrani producenci serwerów plików NAS postawili sobie za
cel stworzenie jak najbardziej uniwersalnych urządzeń. Dzięki temu sprzęt ten
nie musi służyć już tylko do udostępniania plików, ale może sprawować także
funkcję routera, serwera DNS, multimediów, poczty elektronicznej lub stron WWW,
systemu backupowego (także do chmury publicznej), modułu CMS, CRM, testowego
środowiska programistycznego, rejestratora obrazu z kamer wideo
i wielu innych. W tworzeniu tego typu rozwiązań wyspecjalizowały się
trzy firmy: Netgear, QNAP i Synology. W ich „sklepach” dostępnych
jest kilkadziesiąt aplikacji umożliwiających rozbudowanie funkcjonalności
serwera NAS.

Producenci klasycznych serwerów nie traktują jednak tej
konkurencji poważnie. Wskazują, że nie są to systemy uniwersalne.
W kontekście oprogramowania ich funkcjonalność jest ograniczona do oferty
aplikacji w sklepie, zaś fizyczna rozbudowa (np. dołożenie kolejnych
interfejsów sieciowych) bardzo rzadko jest możliwa. Podkreślają też, że nie
zetknęli się z projektami, gdzie wstępnie rozważane były klasyczne
serwery, a finalnie klient zdecydował się na kupno serwera NAS.