Z roku na rok na świecie spada sprzedaż serwerów. To prawdopodobnie efekt ich bardziej optymalnego wykorzystania dzięki wirtualizacji, ale na takie wyniki wpływ ma także rosnąca popularność usług chmurowych. Zwłaszcza małe firmy na początku działalności coraz rzadziej decydują się na kupno serwerów, zaś chmurowe centra danych bazują na obciążonej niemal w 100 proc. profesjonalnej infrastrukturze. Tak więc, nawet mimo że informatyka z dnia na dzień ma coraz większy wpływ na gospodarkę, prawdopodobnie dostawcom serwerów przyjdzie trochę poczekać na kolejny boom.

Mogłoby się wydawać, że po tylu latach obecności tego typu produktu na rynku raczej trudno będzie wymyślić coś nowego oprócz zaproponowania zwiększenia mocy obliczeniowej oraz pojemności i szybkości wbudowanych pamięci oraz nośników danych. Tym bardziej że przedstawiciele producentów oferujących szeroko rozumiane rozwiązania typu software-defined podkreślają zmieniającą się rolę serwerów, pamięci masowych i sieci. Ich zdaniem zostaną one zdegradowane do pozycji zwykłego, powszechnie dostępnego towaru (w języku angielskim często rozwiązania takie określa się mianem commodity), a inteligencja ma być obecna właśnie w niezależnym oprogramowaniu, zarządzającym całym środowiskiem IT.

Natomiast producenci serwerów nie do końca zgadzają się z taką tezą.

– Liczba dziedzin, w których pojawiają się zastosowania dla serwerów, bardzo szybko rośnie – mówi Wojciech Zawada, Enterprise Solutions Marketing Manager w Dell EMC. – To wpływa na innowacyjność przy ich projektowaniu przez dostawców. Architektura serwerowa musi podążać za oczekiwaniami klientów, czego efektem jest rosnąca popularność rozwiązań konwergentnych. Klienci zwracają uwagę na możliwość elastycznej rozbudowy, także z wykorzystaniem już posiadanego wcześniej sprzętu. Coraz bardziej nielubiane są systemy zamknięte, przy których klient skazany jest na wytyczoną precyzyjnie przez producenta ścieżkę rozwoju.

Za rogiem czai się kolejna rewolucja, dzięki której zapewniony zostanie znaczny wzrost wydajności serwerów. Obok coraz nowszych generacji procesorów serwerowych użytkownicy coraz częściej mogą stosować dyski SSD, ale w przyszłość wprowadzą nas dwa nowe rozwiązania. Pierwszym jest standard NVMe, dzięki któremu można podłączać pamięć flash bezpośrednio do magistrali serwera poprzez interfejs PCI Express – w ten sposób wyeliminowano ograniczenia wydajnościowe interfejsu SAS.

Drugim, obok dysków NVMe rozwiązaniem następnej generacji, mają być tzw. trwałe pamięci (persistent memory) NVDIMM, które wyglądem przypominają zwykłe DIMM-y, ale utrzymują zapisane w nich dane po odłączeniu zasilania (na modułach pamięci zainstalowane są kości DRAM i flash). W kontekście wydajności wypełnią one lukę pomiędzy szybkością zapisu danych w zwykłych pamięciach a tą zapewnianą przez dyski SSD. Wprowadzenie do systemów IT tego typu rozwiązania przynosi wiele korzyści. Podstawową jest wydajność – to w pamięci NVDIMM będą przechowywane najczęściej odczytywane dane, plik wymiany danych (który obecnie najczęściej ląduje na dysku SSD lub HDD) oraz np. rekordy baz danych wymagające szybkiego przetworzenia.

 

Dzięki temu, że opisywane pamięci będą podłączone do magistrali komputera bezpośrednio (tak jak procesor), a nie poprzez różnego typu interfejsy, efektywna szybkość działania komputera czy serwera wzrośnie o kilka rzędów wielkości. Producenci zaczynają już promować tego typu rozwiązania, m.in. HPE zapowiedziało projekt o nazwie The Machine, w którym będą dostępne pamięci NVDIMM, a ponadto elementy wewnątrz serwerów będą połączone łączami światłowodowymi. Intensywne prace nad tego typu systemami prowadzą też praktycznie wszyscy producenci ze światowej czołówki.

 

Coraz popularniejsza konwergencja

Od kilku lat producenci intensywnie promują serwery modularne (konwergentne), których konstrukcja wywodzi się z infrastruktury kasetowej. Charakteryzują się one m.in. tym, że trzy główne komponenty urządzenia – moc obliczeniowa (procesor i pamięć), karta sieciowa oraz pamięć masowa (dyski twarde lub SSD) – są oddzielone od siebie i dostępne w postaci instalowanych w obudowie modułów, które nie są w żaden sposób na stałe przypisane do siebie. Zarządzanie zbudowaną w ten sposób infrastrukturą odbywa się z wykorzystaniem dołączonego oprogramowania.

Główną zaletą modularnych serwerów jest zmiana sposobu inwestowania w infrastrukturę centrum danych. W przypadku serwerów kasetowych duży koszt stanowił zakup obudowy – inwestycja w tego typu sprzęt miała sens dopiero wtedy, gdy taka obudowa była wypełniona minimum w 50–60 proc. Tymczasem obudowa do systemów konwergentnych jest znacznie tańsza i bardziej optymalnie wykorzystywana.

Polskie przedsiębiorstwa, co charakterystyczne dla naszego rynku, na razie dość ostrożnie podchodzą do inwestowania w tego rodzaju systemy. Posiadana przez nie infrastruktura serwerów kasetowych nie jest jeszcze w pełni wykorzystana, a poza tym nadal najpopularniejsze są rozwiązania, których koncepcja ma kilkanaście lat – zwykłe serwery o wysokości 1U (tzw. pizza box) instalowane w szafach informatycznych.

Paweł Wójcik

Servers Category Manager, HPE

Na polskim rynku nadal bardzo popularne są serwery kasetowe. Ich uniwersalność, możliwości rozbudowy i zintegrowanie elementów obliczeniowych, pamięci masowej oraz elementów sieciowych w ramach jednej obudowy o wysokości 10U jest bardzo korzystnym rozwiązaniem dla klientów poszukujących wysokowydajnych, skalowalnych systemów. Zawarte w nich elementy konwergentne ułatwiają klientom wdrażanie, rozbudowę infrastruktury, a także – co jest bardzo ważne – obniżają koszt tworzenia całego centrum obliczeniowego.

 

W tej chwili infrastrukturą konwergentną interesuje się dosyć wąska grupa klientów – mówi Marcin Bogusz, Business Development Manager w ALSO. – Przede wszystkim są to firmy prowadzące projekt budowy chmury prywatnej, a także te, w których intensywność wykorzystania zasobów IT zmienia się w czasie. Dzięki konwergencji są w stanie elastycznie dopasować moc obliczeniową serwerów oraz potrzebną przestrzeń dyskową.

 

Wirtualizacja wpływa na rozwój

Szeroka dostępność, często także oferowanych bezpłatnie, rozwiązań wirtualizacyjnych spowodowała zmianę filozofii korzystania z serwerów. Praktycznie nie stosuje się już podejścia w stylu „jeden serwer – jedna usługa”, a poszczególne fizyczne maszyny stały się tzw. koszykami z wieloma jajkami. Dlatego w wirtualnej infrastrukturze powinny działać przynajmniej dwa, trzy fizyczne serwery z zewnętrzną pamięcią masową, co zapewni możliwość szybkiego przeniesienia wirtualnej maszyny z jednego serwera na drugi np. w przypadku awarii lub konieczności przeprowadzenia prac serwisowych. Co więcej, ze względu na charakter obciążenia serwery powinny być bardzo wysokiej jakości.

Mimo że wirtualizacja zapewnia dodatkową warstwę zarządzającą serwerami i dba o bezpieczeństwo wirtualnych maszyn podczas awarii, w takim środowisku nie powinny występować przypadkowe urządzenia, o nieustalonej awaryjności – podkreśla Wojciech Zawada z Dell EMC. – Bardzo ważna jest niezawodność platformy sprzętowej, bo w środowisku wirtualnym pracuje ona pod znacznie większym niż tradycyjnie obciążeniem.

Rynkowy układ

Czterech z pięciu największych dostawców serwerów w ciągu ostatnich dwóch lat objęły poważne zmiany, które znalazły odzwierciedlenie w ich wynikach sprzedaży i udziałach rynkowych. HP podzieliło się na dwie firmy (serwery są obecne w ofercie Hewlett Packard Enterprise), Dell połączył się z EMC (serwery Della dostępne są w ofercie Dell Technologies pod marką Dell EMC), zaś IBM odsprzedał biznes serwerów x86 firmie Lenovo. Duże zmiany nie zaszły tylko w Cisco, które notuje systematyczny, choć niewielki wzrost rynkowych udziałów.

Ciekawa sytuacja dotyczy Lenovo. Według IDC udział chińskiego dostawcy w światowym rynku serwerów spadł w 2016 r. o 0,4 punktu proc. (po spektakularnym wzroście z 3 proc. w 2014 r. do 7,5 proc. w 2015 r. związanym z przejęciem biznesu serwerowego od IBM). Producent prawdopodobnie spodziewał się zwiększenia udziału także w minionym roku, więc podjęto działania restrukturyzacyjne – powstała nowa spółka o nazwie Lenovo Global Technology, która jest odpowiedzialna wyłącznie za biznes serwerów i pamięci masowych. Celem tego ruchu ma być przede wszystkim poszukiwanie resellerów z wartością dodaną i integratorów, nie zaś opieranie biznesu głównie na resellerach sprzedających pecety.

Oprócz Cisco wzrost udziałów w rynku serwerów zanotował Dell Technologies (o 0,8 punktu proc. w 2016 r.). Udział pozostałych producentów z Top 5 spadł, na czym skorzystali pozostali, klasyfikowani przez IDC jako „inni” (m.in. Fujitsu, Hitachi, Huawei, Oracle).

 

Do środowiska wirtualnego najlepiej nadają się serwery kasetowe i modularne, ze względu na wbudowane w nie rozwiązania do zarządzania i możliwość łatwej rozbudowy, w zależności od bieżących potrzeb. Ale, jak podkreślają przedstawiciele producentów, wśród klientów niewielka jest świadomość zalet takich systemów. Nadal też czasem można spotkać się z opiniami, że są one trudne w obsłudze – nie jest to prawda, chociaż sam proces doboru, wdrożenia i konfiguracji wymaga wiedzy i dłuższej pracy z klientem, gdyż konieczne jest uwzględnienie wszystkich rodzajów funkcjonujących w firmie procesów biznesowych i charakteru obciążenia dla nowego środowiska.

Zmianą, której przedstawiciele działów IT często się obawiają, jest też przedefiniowanie ról administratorów. Zwykle mają oni określony zakres specjalizacji (serwery, sieci, pamięci masowe, bezpieczeństwo itd.), który – po wdrożeniu rozwiązań kasetowych/konwergentnych oraz dodatkowych warstw oprogramowania zarządzającego – może znacznie się zmienić.

W przypadku administratorów ważne jest nie tylko nabycie nowych kompetencji, ale też zmiana wielu przyzwyczajeń. Nowa struktura działu IT powinna uwzględniać nie obszary technologiczne, ale raczej charakter udostępnianych działom biznesowych aplikacji i usług oraz możliwość integracji z infrastrukturą chmury publicznej. W ramach takiej transformacji organizacyjnej konieczne jest przekonanie firmy, że tylko taka ścieżka rozwoju zapewnia sprawne funkcjonowanie w przyszłości. To także może być zadanie dla VAR-ów i integratorów.

Zdaniem integratora

• Dzianis Kashko, dyrektor ds. marketingu i sprzedaży, Comtegra

Coraz więcej naszych klientów w bardzo dojrzały sposób podchodzi do zarządzania procesami biznesowymi związanymi  z IT. U jednego z nich spotkałem się  ostatnio z osobą na stanowisku Cloud Architect. Tego specjalistę nie interesowały kwestie, które są zazwyczaj poruszane przy projektowaniu systemów: współpraca różnych fizycznych środowisk, możliwości granularnego odtwarzania maszyn wirtualnych itp. Natomiast zadano mi pytania, w jakim stopniu oferowane rozwiązanie integruje się z chmurowymi usługami Azure i AWS, czy jest natywny agent dla usługi S3 itp. Co więcej, ta osoba ma ogromne wpływy w firmie, ponieważ to ona steruje procesem modernizacji podejścia do zarządzania danymi.