Jeszcze rok temu sytuacja
była niemal beznadziejna. W ostatnim kwartale 2013 r. wartość rynku
serwerów w Europie Centralnej i Środkowej według IDC wynosiła
494,24 mln dol. Był to wówczas szósty z rzędu kwartał spadku
sprzedaży, który w ujęciu rocznym wyniósł aż 13,3 proc. Liczba sprzedanych
maszyn ledwie przekroczyła 90 tys. W tym ujęciu sprzedaż spadła
w mniejszym stopniu, bo jedynie o 5 proc. Takie wyniki były
skutkiem niepewnej sytuacji gospodarczej i związanego z tym
odraczania zakupów bez oglądania się na konieczność regularnego odświeżania
sprzętu. Miała na to również wpływ postępująca wirtualizacja serwerów
– wydajność współczesnych urządzeń umożliwia „upchnięcie” średnio
kilkunastu maszyn wirtualnych na jednym serwerze fizycznym.

Także w skali globalnej sprzedaż spada od kilku lat,
ale są pewne symptomy sugerujące, że trend ten może się odwrócić, przynajmniej
na jakiś czas. Jak wynika bowiem z ocen analityków, na 2014 r.
w wielu firmach przypada koniec okresu użytkowania starego sprzętu, który
jest wymieniany na nowy. Zdają się to potwierdzać doniesienia Gartnera, który
informuje, że w II kwartale br. sprzedaż serwerów w regionie EMEA
wzrosła o 0,8 proc. Z jednej strony jest to symboliczna wartość,
a z drugiej – pierwszy wzrost od 11 kwartałów.

Ważne wnioski płyną
z analizy sprzedaży rozbitej na poszczególne technologie serwerowe.
Maszyny x86 przyniosły w II kw. 2014 r. przychody
o 12,7 proc. większe niż rok wcześniej. Z tego wynika, że za
kiepskie wyniki odpowiadają spadające gwałtownie przychody w segmentach
RISC/Itanium UNIX (aż o 23,6 proc.) oraz obejmujących pozostałe typy
serwerów, m.in. mainframe (17,8 proc.). Dwucyfrowe spadki nie były
zaskoczeniem, ale ich skala przewyższyła wartości prognozowane przez
analityków. Nie ma wątpliwości, że opisane trendy będą się utrzymywać
i nadchodzące lata będą zdominowane przez serwery x86.

Według IDC w końcówce
zeszłego roku sprzedaż serwerów na polskim rynku wyraźnie się zwiększyła, co
wydawałoby się świetną informacją dla resellerów. Jednak nie wszystkie czynniki
stojące za wzrostem związane były ze sprzedażą kanałową. Zdaniem analityków
największe zamówienia składał sektor publiczny oraz dostawcy usług. W tym
drugim przypadku spora część kontraktów mogła być realizowana
z pominięciem kanału partnerskiego.

 
Lenovo wchodzi do gry

Liderem rynku
w regionie CEE pozostaje HP, z udziałami na poziomie 41,4 proc. Na
drugim miejscu pojawia się IBM, zaś na trzecim plasuje się Dell, borykający się
ze spadkiem sprzedaży. Do tego vendora należy 10 proc. rynku. Jednak
niedługo w czołówce producentów nastąpi istotne przetasowanie
w związku z przejęciem przez Lenovo dwóch linii serwerów IBM: System
x oraz Pure System. W najbliższych latach chińska firma zamierza skupiać
się na czterech obszarach: analityce biznesowej, rozwiązaniach chmurowych, HPC
(High Performance Computing) oraz systemach zintegrowanych reprezentowanych
przez linię Pure System. Wokół nich będą budowane centra kompetencyjne,
w których resellerzy będą mogli podnosić swoje kwalifikacje. Lenovo
deklaruje, że będzie rozwijać technologie kupione od IBM-a. Producent podjął
również działania, które mają na celu zapewnienie ciągłości współpracy
z resellerami. Na początku 2014 r. uruchomiono program Winning in
Transition, którego celem jest informowanie partnerów handlowych
o kwestiach dotyczących operacji przejścia od partnerstwa z IBM-em do
współpracy z Lenovo oraz ofercie produktowej i wsparciu technicznym.

 

Intel i AMD się zbroją

Do Intela należy
97 proc. udziałów w sprzedaży serwerowych procesorów x86. To jednak
nie usypia czujności producenta, który we wrześniu wprowadził nową, znacznie
udoskonaloną linię procesorów Xeon E5 v3. Najważniejsze nowości to zwiększenie
maksymalnej liczby rdzeni w jednym procesorze do 18 (12 w poprzedniej
generacji), zapewnienie zgodności z pamięciami DDR4 czy rozszerzenie
pamięci cache L3 do 45 MB. Efektem tych udoskonaleń jest wydajność
o 20 proc. większa w porównaniu z efektywnością poprzedniej
linii procesorów Xeon E5 v2. Można przypuszczać, że w ten sposób Intel
przygotowuje się na debiut rynkowy serwerów z układami ARM, które są
tańsze w produkcji i bardziej energooszczędne.




Monika Mróz

 

dyrektor sprzedaży hardware, Oracle Polska

Jeśli chodzi o serwery, to najwięcej uwagi poświęcamy
maszynom opartym na rozwijanym przez Oracle procesorze SPARC wraz
z systemem operacyjnym Oracle Solaris. Dla nas szczególnie interesujące
jest rosnące zainteresowanie klientów korporacyjnych budową prywatnych chmur
obliczeniowych, które wymagają wyjątkowo wydajnej, skalowalnej
i bezpiecznej infrastruktury. Coraz więcej firm przekonuje się, że
popularna kilka lat temu strategia ujednolicenia infrastruktury w oparciu
o rozwiązania x86 nie przynosi efektu, ze względu na eksplozję liczby
maszyn wirtualnych i wzrost kosztów utrzymania. Strategia Oracle skupia
się przede wszystkim na upraszczaniu środowiska IT poprzez wykorzystanie zintegrowanych
rozwiązań.

 

Prace nad serwerowymi
procesorami ARM trwają od kilku lat. Prowadzi je m.in. AMD, które już przy
kilku okazjach publicznie pokazywało Opterony zbudowane w architekturze
ARM. Uruchamiano na nich system operacyjny Linux czy klaster Hadoop. Na razie
producent korzysta z rdzeni Cortex-A57, ale pracuje również nad własnym
rdzeniem, który otrzymał roboczą nazwę K-12. Zgodnie z zapowiedziami
pierwsze wyposażone w niego produkty mają zadebiutować w 2016 r.
AMD widzi rolę procesorów ARM szczególnie w zastosowaniach typu:
przechowywanie danych w chmurze lub w trybie offline (tzw.
coldstorage), analiza danych oraz obsługa usług i stron internetowych.

 

Więcej dysków, więcej RAM-u

Tradycyjnie wprowadzeniu
nowych procesorów Intela towarzyszyły premiery serwerów od wszystkich uznanych
producentów, m.in. Cisco, Dell, HP, IBM i Lenovo. Wspólny mianownik dla
większości pokazanych modeli to wyraźne zwiększenie maksymalnej pojemności
pamięci RAM oraz dysków możliwych do zamontowania w serwerze. Na rynek
trafiły maszyny, do których można włożyć nawet 1,5 TB pamięci operacyjnej.
Oprócz tego klienci otrzymają znacznie większą moc obliczeniową.
W maszynach dwuprocesorowych da się korzystać nawet z 36 rdzeni (dwa
procesory po 18 rdzeni). Są to również pierwsze serwery z pamięciami DDR4.
W porównaniu z poprzednią generacją DDR3 są one
o 40–50 proc. szybsze i zużywają o jedną trzecią mniej
energii. Powszechny jest też ruch w kierunku lepszej współpracy
z nośnikami SSD (o pojemności nawet 2 TB) i zgodność
z protokołem PCI Express 3.0, który zwiększa szybkość transmisji danych.

 

Chmura ze składaków

Analitycy z IDC
przewidują nadejście tzw. Trzeciej Platformy (IDC Predictions 2014: Battles for
Dominance and Survival on the 3rd Platform). Jest to system składający się
z chmury obliczeniowej, urządzeń mobilnych, narzędzi do analizy Big Data
oraz mechanizmów społecznościowych. Raport wskazuje, że chmura publiczna jest
znacznie popularniejsza niż prywatna. Już teraz aż 75 proc. wydatków na
środowiska chmurowe na świecie stanowią inwestycje w instalacje publiczne.
Szacuje się, że w bieżącym roku około 25–30 proc. serwerów kupią
operatorzy działający na rynku public cloud. W 2017 r. ten odsetek ma
się zwiększyć do 43 proc. Również większość wydatków na IT ma się
przesunąć w kierunku chmur publicznych.

Bruno Murzyn

PR Manager EMEA, AMD

Jesteśmy
jedyną firmą, która oferuje zarówno procesory x86, jak i ARM. Naszym
zdaniem te technologie powstały po to, aby się wzajemnie uzupełniać
i jednocześnie zapewniać, aby koszt migracji między jedną a drugą
architekturą był znacznie niższy niż teraz. Dlatego też tworzymy rozwiązania
najlepiej dopasowane do potrzeb rynków serwerów o dużej gęstości (high
density), urządzeń wbudowanych (Embedded) czy produktów na zamówienie
(semi-custom). W dłuższej perspektywie AMD zaplanowało także swój własny
projekt rdzenia ARM.

 

Jednocześnie operatorzy największych centrów danych, np.
Amazon, Google czy Facebook, samodzielnie budują serwery na własne potrzeby.
Przykładem jest Open Compute Project, specyfikacja budowy serwerów opracowana
przez inżynierów z Facebooka. Z punktu widzenia użytkownika zaletą
takiego podejścia jest budowanie serwerów optymalnie dostosowanych do
konkretnych potrzeb. Ponieważ składają się tylko z niezbędnych elementów,
są tańsze od standardowych konstrukcji. Na razie z maszyn własnego
projektu korzystają tylko niektóre bardzo duże ośrodki obliczeniowe. Jednak,
podobnie jak z wieloma innymi rozwiązaniami, trend ten powinien
z czasem dotyczyć coraz mniejszych środowisk IT. Tym bardziej że maszyny
zbudowane zgodnie ze specyfikacją OCP sprawdzają się w środowiskach
wirtualnych. Jeśli opisane prognozy się sprawdzą, spora część serwerów może
trafiać do użytkowników końcowych z pominięciem kanału dystrybucyjnego.

 

Równia pochyła

Sprzedaż serwerów mainframe wciąż stanowi około
18 proc. całego rynku, ale co roku spada w dwucyfrowym tempie.
Urządzenia te są wypierane z rynku przez serwery x86, które są
zdecydowanie tańsze i coraz lepiej sprawdzają się w najbardziej
wymagających zastosowaniach. Co ciekawe, najnowsze maszyny mainframe niektórych
producentów powstają z wykorzystaniem procesorów x86 Intela. Przykładem
jest firma Unisys, która podjęła decyzję o wycofaniu specjalistycznych
procesorów, ponieważ okazały się wolniejsze i mniej skalowalne od układów
Intela. Podobnie postąpiło HP, które zapowiada, że w 2015 r. na rynek
trafią pierwsze serwery Non stop w architekturze x86. Dotychczas te
maszyny były wyposażone w układy Itanium. Nie wszyscy producenci
zaniechali jednak rozwijania własnych technologii. Przykładem jest Oracle,
który deklaruje koncentrację na rozwoju linii procesorów SPARC. Najnowszy model
M7 to pierwszy układ zawierający specjalizowane instrukcje, które przyspieszają
działanie oprogramowania Oracle (Software in Silicon).

Piotr Sobstyl

Business Development Manager, Intel

Statystyki sprzedaży serwerów opartych na architekturze ARM
wskazują, że są to wciąż produkty niszowe. Do osiągnięcia znacznego udziału
w tym rynku potrzebny jest stabilny ekosystem wraz z gotowymi
rozwiązaniami, które będą w stanie zaspokoić potrzeby odbiorców
i sprostać ich wysokim wymaganiom. Trudno będzie w krótkim czasie
– nawet w perspektywie 2–3 lat – doprowadzić do powstania
i rozwoju takiego ekosystemu. Tym bardziej że rynek dąży dziś do
standaryzacji i konsolidacji. W praktyce oznacza to skupianie się na
sprawdzonych i rozpowszechnionych rozwiązaniach. Natomiast przeprowadzenie
konsolidacji na eksperymentalnej platformie zawsze będzie ryzykownym
posunięciem.