Najczęściej wymieniana liczba serwerów intelowskich sprzedanych w ubiegłym roku w Polsce to 19 tysięcy. Oszacowanie tego rynku jest jednak trudne, podobnie zresztą jak każdego innego w branży IT. W przypadku rynku serwerów intelowskich dzieje się tak głównie za sprawą samego Intela, który nie podaje swoich wyników w rozbiciu na rynki lokalne. Analitycy określają więc jedynie przypuszczalną wielkość sprzedaży, opierając się na danych dostarczanych przez dystrybutorów. Byłyby to dane miarodajne, gdyby nie opanowywanie coraz większej części rynku przez lokalnych 'składaczy’ serwerów. Zdaniem większości producentów w ubiegłym roku sprzedano znacznie więcej serwerów c-brandowych niż w 2000 r. (najbardziej skrajne głosy podają nawet wartość 40 proc.). Stało się to głównie kosztem firm produkujących b-brandy. Na naszym rynku zaczyna się więc tworzyć dość szczególna sytuacja – dzielą go między siebie najwięksi i… najmniejsi dostawcy, którzy odnoszą sukcesy głównie dlatego, że zrozumieli, iż filozofia 'sprzedać i zapomnieć’ prowadzi donikąd.

Cień fuzji

Od kilku lat niekwestionowanym liderem polskiego rynku jest Compaq. Konkurenci jednak coraz bardziej depczą mu po piętach. W ubiegłym roku firma ta zanotowała jedynie około sześcioprocentowy wzrost sprzedaży, czyli niemal o połowę niższy od wzrostu całego rynku. Nie najlepsze są również wyniki HP. W 2000 roku udział tego producenta w rynku serwerów intelowskich wynosił 16 procent, a na koniec 2001 roku już tylko niecałe 9 proc. Analitycy mówią, że Compaqowi i HP zaszkodził szum informacyjny, który rozpętał się po ogłoszeniu planów fuzji. Polityka informacyjna firm planujących połączenie wydaje się być mało przemyślana. Zamiast rzetelnych informacji, do klientów trafiały plotki i niedopowiedzenia. Zdezorientowani odbiorcy niechętnie kupują więc urządzenia HP i Compaqa, bo nie wiedzą, co po ewentualnym połączeniu tych firm zostanie w ofercie, a co z niej zniknie. Konkurenci o fuzji HP i Compaqa mówią niechętnie. Najczęściej przyznają jednak, że ten dość gwałtowny spadek sprzedaży to sytuacja przejściowa i gdy tylko sprawa fuzji się wyjaśni, a HP i Compaq ogłoszą konkretne strategie, ich sprzedaż się ustabilizuje. Twierdzą oni także, że trudno będzie jednak zarówno HP, jak i Compaqowi osiągnąć poziom sprzedaży serwerów sprzed pojawienia się informacji o fuzji.

Inni producenci tymczasem nie próżnują. W ubiegłym roku stabilną pozycję miał IBM. Producent utrzymał się na drugim miejscu, co zważywszy na kłopoty z głównym dystrybutorem STGroup należy uznać za sukces. O dobrych wynikach można mówić także w przypadku Della, który w ubiegłym roku sprzedał o ponad 40 proc. więcej serwerów niż w roku poprzednim. Największy wzrost odnotował jednak NEC, któremu 2001 rok przyniósł niemal 50-procentowy wzrost sprzedaży.

Hossa nadchodzi… powoli

Tegoroczny wzrost sprzedaży serwerów bardzo mocno uzależniony będzie od ogólnego wskaźnika wzrostu gospodarczego w naszym kraju. Większość dużych korporacji zaopatrzyła się w odpowiednie maszyny na przełomie 1999 i 2000 roku. W obliczu spowolnienia gospodarczego nieczęsto planują wymianę lub modernizację sprzętu. Trudno także liczyć na poważne zamówienia rządowe i to nie tylko ze względu na potężną dziurę budżetową. Ostatnie duże przetargi zostały rozstrzygnięte na początku 2000 roku. Od tego czasu urządzenia nie zdążyły się jeszcze zestarzeć. W tym roku prawdopodobnie rozpocznie się realizacja tylko jednego dużego rządowego projektu (Centralny Rejestr Pojazdów i Kierowców). Producenci jednak nie wpadają w panikę. Twierdzą, że prędzej czy później zamówienia publiczne muszą się pojawić. Ich zdaniem w informatyzacji urzędów państwowych mamy ogromne zaległości w porównaniu z krajami Unii Europejskiej. A bez poprawy tego stanu rzeczy nie mamy szans na wejście do UE.

Należy zauważyć, że amortyzacja sprzętu w większości korporacji obliczona jest na trzy lata. Wzmożone zakupy serwerów przypadały na lata 1999 ­ 2000, a zatem tendencji wzrostowej na rynku należy spodziewać się na przełomie 2002 – 2003. To jednak zależne będzie także od ogólnego poziomu wzrostu gospodarczego. Jeśli gospodarka nie ruszy, zakupy prawdopodobnie przełożone zostaną o kilka miesięcy.

Trudno spodziewać się, by te prognozy i 11-procentowy wzrost wielkości rynku były satysfakcjonujące dla producentów. Dlatego niemal wszyscy stawiają dziś na ofertę tzw. wartości dodanej, widząc w niej dodatkowe źródło zysku. Zresztą już w ubiegłym roku standardem w przypadku sprzedaży serwerów intelowskich stało się oferowanie klientom aplikacji w specjalnych, obniżonych cenach. Są to nie tylko programy zarządzające i monitorujące pracę urządzenia, ale także całe pakiety Microsoftu, Novella itp. Można liczyć, że oferta wartości dodanej będzie w tym roku rozszerzana ­ szczególnie, że korzystna jest także dla producentów oprogramowania. Oni przecież także odczuwają skutki załamania się rynku IT w naszym kraju.

Technologia, czyli każdemu według potrzeb

Możliwości serwera określa przede wszystkim zainstalowany na płycie chipset. Najprostsze serwery wyposażone są w chipsety stosowane w pecetach, np. i440BX, zaś bardziej złożone – w układy ServerWorks.
Jak się okazuje, najprostsze markowe serwery nie odbiegają, jeśli chodzi o zastosowane podzespoły, od średniej klasy pecetów kupowanych w supermarketach. Wykorzystywane są w nich te same co w PC płyty główne, procesory Celeron (bądź desktopowe Pentium III), dyski IDE czy kości pamięci RAM. Producenci obniżają w ten sposób koszty produkcji, do prostych zastosowań nie są przecież potrzebne „kombajny” wyposażone w kilkanaście czy kilkadziesiąt gigabitów pamięci RAM, specjalne chipsety, kilka procesorów, dodatkowe karty I/O z procesorem wejścia-wyjścia itp. W niewielkich sieciach doskonale spisują się w roli serwerów plików proste urządzenia wyposażone w jeden lub dwa 'desktopowe’ procesory Pentium III taktowane zegarem 1 GHz, kilkadziesiąt GB pamięci RAM, twarde dyski o pojemności nieprzekraczającej 120 GB. W tym przypadku najistotniejszym elementem urządzenia jest pamięć RAM. Dlatego już w najtańszych serwerach producenci instalują rozszerzoną pamięć typu ECC, której zadaniem jest korygowanie ewentualnych błędów przetwarzania danych.

Jednym z najważniejszych elementów serwera są systemy pamięci masowej i dyski twarde. W najtańszych serwerach wykorzystywane są najczęściej twarde dyski IDE (obecnie ich wydajność jest zbliżona do wydajności dysków SCSI). Od kilku lat dyski IDE mogą być zarządzane przez sterowniki tworzące proste układy RAID 0, 1 (dotąd dotyczyło to wyłącznie dysków SCSI). Rozwiązania tego typu zaczęły upowszechniać się w markowych serwerach dla mniej zamożnych klientów już w ubiegłym roku. Niektóre low-endowe maszyny są także wyposażane w sterowniki pozwalające tworzyć macierze RAID 5 (typowe rozwiązanie w serwerach klasy mainframe). Jest to oczywiście jeden ze sposobów obniżenia cen urządzeń. Zamiast dysków SCSI i kontrolera sprzętowego stosuje się tańsze dyski IDE i kontrolery programowe. Wadą tego rozwiązania jest większe obciążenie procesora i spowolnienie pracy serwera. Przypomnijmy, że jeszcze w 2001 roku wśród producentów sprzętu, którzy nie stosowali tego typu zabiegów, panowało przekonanie, że dyski IDE nie powinny być stosowane w serwerach, bo urządzenia te stają się wówczas 'zwykłymi pecetami’. I klient zamiast kupić serwer, zdecyduje się na tańszego 'mocnego’ peceta z supermarketu.

Przede wszystkim niezawodność

Na rynku serwerów dominują procesory Pentium III (w droższych modelach instaluje się procesory Pentium III Xeon z większą pamięcią cache). Najtańsze urządzenia, współpracujące maksymalnie z kilkoma stacjami roboczymi, wyposażone są na ogół w procesory Celeron. W najbardziej złożonych i najdroższych serwerach producenci montują procesory Pentium 4 Xeon, szczególnie że na rynku pojawiły się już chipsety współpracujące z pamięciami DDR SDRAM.

Serwer musi być niezawodny. Jego praca nie może być przerywana, a wymiana uszkodzonych komponentów musi być łatwa. Producenci starają się to zagwarantować wysoką jakością podzespołów i instalowaniem zapasowych elementów. Niemal wszystkie modele urządzeń są wyposażone w dodatkowe wentylatory, które zapewniają właściwą temperaturę wewnątrz maszyny, zasilacze i karty sieciowe. Dzięki zastosowaniu macierzy RAID, praca podsystemów dyskowych nie zostaje przerwana nawet wtedy, gdy awarii ulegnie jeden z dysków. Producenci montują w serwerach dyski hot-plug i hot-swap, które można wymieniać w czasie pracy serwera. Oprogramowanie monitorujące pracę w przypadku awarii serwera powiadamia o niej administratora sieci.

Coraz częściej serwery montuje się w szafach rackowych, dzięki czemu oszczędza się miejsce i unika plątaniny kabli, które w każdej chwili można uszkodzić. Coraz popularniejsze (zwłaszcza wśród firm ISP) są serwery typu blade, w których można instalować karty serwerowe składające się m.in.: z procesora (lub dwóch), kości pamięci i twardych dysków. W przypadku zwiększenia się potrzeb firmy do serwera mogą być dokładane kolejne karty. Serwery sprzedaje się także w obudowach wieżowych, które można postawić pod biurkiem lub przykręcić do ściany.