Przez kilka ostatnich lat
wyniki ankiet dotyczących wysokości budżetów na IT wyglądają mniej więcej
podobnie. Ponad połowa respondentów odpowiada, że środki, jakie mogą
przeznaczyć na szeroko rozumianą teleinformatykę, będą identyczne jak
w poprzednim roku lub niższe. A jeśli już budżet rośnie, to większość
nadwyżki ma zostać wydana na rozwiązania mobilne (Mobile Device Management,
Bring Your Own Device), usługi w chmurze obliczeniowej i na oprogramowanie.
Jednocześnie każdy dostawca usług i rozwiązań – nieważne, czy dla
wewnętrznych czy dla zewnętrznych odbiorców – bez wahania powie, że
oczekiwania klientów rosną, i to w stopniu nieproporcjonalnym do
posiadanych środków. Innymi słowy,
 rynek chciałby więcej za mniej.

 

RISC – nic nie trwa wiecznie

We współczesnej informatyce oszczędności w części
infrastrukturalnej uzyskujemy na trzy różne sposoby:

– przez wymianę technologii droższych na tańsze,

– obniżając opłaty za wsparcie i utrzymanie,

– przez zwiększenie stopnia utylizacji posiadanych urządzeń.

Przez dekady na rynku
serwerów klasy RISC i mainframe panowało przekonanie, że hossa będzie
trwała wiecznie. Na pytanie, dlaczego producenci Unixów i mainframów biorą
więcej za swoje systemy, odpowiadano z przekąsem: „bo mogą”. Recesja
w latach 2001–2003 i potem kryzys w latach 2008–2009 pokazały,
że wspomniany trend to już historia. Producenci nie przespali tego okresu
– musieli się zaadaptować do nowej sytuacji. HP dawno już zrezygnowało z technologii
PA-RISC na rzecz procesorów Itanium. Z kolei Sun Microsystems przez lata
nie rozwijał SPARC-ów i wprowadzał oprócz rozwiązań Intela również
produkty konkurencyjnego AMD. W tym czasie IBM trzymał się twardo
technologii Power, przejmując od konkurencji coraz to większy udział
w rynku serwerów klasy RISC. Ale rynek coraz szybciej się kurczył i –
choć zdawało się, że to potrwa jeszcze chwilę – to w październiku 2014 r.
gruchnęła wieść: upubliczniono umowę z GlobalFoundries, na mocy której GF
przejmie obowiązki producenta, czyli rozwój platformy i produkcję na
następne 10 lat.

 

Wszystko to musiało się
wydarzyć, bo w sytuacji gdy budżety są stabilne a wymagania rosną,
firmom nie opłaca się płacić za serwery RISC i utrzymywać ich po okresie
gwarancji. Ten model jest zbyt kosztowny i mało elastyczny. Próby
uelastycznienia go, np. za pomocą wprowadzenia metody płacenia on demand, czyli
za rzeczywiste zużycie zasobów, nie dały oczekiwanych rezultatów.

 

Chmura z Intelem zrobiły swoje

Do takiego rozwoju wydarzeń znacząco przyczyniła się też
chmura obliczeniowa. Zorientowani na biznes decydenci, którym infrastruktura IT
z natury zawsze była obca, odetchnęli z ulgą, gdy dostawcy zaczęli
rozmawiać z nimi o funkcjach biznesowych, rysując przy tym ładne
chmurki. Tym samym przestali zatruwać miłą atmosferę smutnymi opowieściami
o gigabajtach, slotach, linkach i aktywnych rdzeniach.

Żeby jednak to wszystko
mogło się wydarzyć, musiał powstać procesor, który podoła wymaganiom
przeładowanej informacjami bazy danych, obciążonego żądaniami portalu czy też
„zasobożernej” Javy. Stał się nim Intel Xeon. Przez lata procesor ten był
traktowany trochę z pobłażaniem, jako starszy brat popularnego Pentium.
Ale producent uparcie wprowadzał nowe funkcjonalności typu Reliability,
Availability, Serviceability i systematycznie podnosił wydajność, co
sprawiało, że Xeon zyskiwał uznanie coraz szerszej rzeszy użytkowników. Powoli,
ale systematycznie klienci przekonywali się, że low-endowe serwery x86 są coraz
szybsze, coraz bardziej niezawodne i coraz tańsze, a producenci
oprogramowania, wprowadzając High Availability na swojej warstwie, udowodnili,
że płacenie za serwer RISC traci sens. Wymieniliśmy zatem RISC na Intela.
Oszczędziliśmy przy zakupie i na utrzymaniu, bo wyceny usług wsparcia
tańszych serwerów są również niższe. Sposób pierwszy i drugi na uzyskanie
oszczędności został z powodzeniem wykorzystany. Przyjrzymy się trzeciemu.

 

x86 – dużo pary w gwizdek

Kiedy w maju
1999 r. świat zobaczył VMware Workstation – pierwszy produkt do
wirtualizacji – sytuacja była daleka od idealnej. Serwery
o architekturze x86 wykorzystywano średnio w kilkunastu procentach.
Projektowe podejście do wdrażania nowych funkcji oraz trudności
w oszacowaniu ich docelowej wydajności potrzebnej dla coraz to nowszych
wersji oprogramowania też nie służyły rozwiązaniom opartym na infrastrukturze,
którą trzeba było kupić. Na końcu często okazywało się, że serwer pracuje na
ćwierć gwizdka albo jeszcze mniej wydajnie, a zwrotu sprzętu nikt nie
przyjmie. Dzisiaj, po kilkunastu latach, szacuje się, że wskaźnik wykorzystania
przeciętnego serwera x86 sięga (w zależności od badania)
ok. 50 proc.

 

Dlaczego mimo powszechnej wirtualizacji i sporego
wyboru hypervisorów (również bezpłatnych) nie osiągamy pełnej utylizacji?
Z tych samych powodów co zwykle. Polityka zakupów, podejście per projekt,
przeszacowanie zapotrzebowania na wydajność, rezerwacja miejsca na rozwój
systemu w przyszłości, alokowanie kosztów w różne budżety,
przesunięcie priorytetów z CAPEX na OPEX i za chwilę na odwrót, brak
elastyczności w organizacji itd. Mimo wszystko udało się jednak poprawić
współczynnik utylizacji CPU per serwer i nasze urządzenia pracują nie na
1/10, ale na pół gwizdka. Sposób trzeci wykorzystany. Oszczędności wydamy na
coraz to droższe smartfony, których nowe edycje różnią się głównie kolorem i…
celebrytą w telewizyjnej reklamie.

 

Skąd wydajność i High Availability?

Obserwując statystyki
sprzedaży, można zobaczyć, że kilka lat temu powstał zupełnie nowy segment na
rynku serwerów, który analitycy nazwali high-end x86. W dodatku jest to
segment, który rośnie najszybciej. Słów kilka, skąd się wziął i po co.
Otóż nie można bezrefleksyjnie wyrzucić wszystkich RISC-ów z serwerowni
i bezkrytycznie przesiąść się na chmurę, nawet prywatną. Są rozwiązania,
które z trudem znoszą architekturę typu scale-out, czyli rośnięcie wszerz.
Dokładanie co chwilę nowego serwera jest, owszem, łatwe i przyjemne.
Jednak pojawianie się rozwiązań wymagających dużo pamięci RAM w obrębie
jednej maszyny (Big Data, BI) lub po prostu potrzeba posiadania ogromnych baz
danych (rosnących za sprawą coraz większej ilości gromadzonych informacji np.
w systemach klasy CRM lub ERP) spowodowało, że zatrzymaliśmy się
w pół kroku.

Pozostaje jeszcze kwestia
wysokiej dostępności. Rozwój rozwojem, ale z dużą dozą pewności powiedzieć
można, że serwery wykorzystujące układy Intela nigdy nie zapewnią takiego
poziomu High Availability jak np. IBM-owe maszyny typu Power. Powód jest
prosty: IBM, HP i Oracle kontrolują tzw. pełny stack, czyli serwer,
wirtualizator i system operacyjny. Tymczasem wysoka dostępność to
zagadnienie interdyscyplinarne. Wyłączenie uszkodzonego zasobu sprzętowego musi
być obsłużone przez hypervisor i – w zależności od konfiguracji –
widoczne i możliwe do obsłużenia lub całkowicie transparentne dla systemu
operacyjnego. Intel produkuje procesory dla wszystkich i wszyscy produkują
oprogramowanie współpracujące z ich architekturą. W tej sytuacji nie
można zakładać, że np. obsługiwana bez problemu w serwerach
z procesorami Power funkcja CPU-offline będzie działała bez problemów
z VMware, Hyper-V, Linuksem, Windows i setką innych rozwiązań
pracujących na Intelu. Zbliżamy się powoli do ideału, ale lista wyjątków będzie
rosła, a matryca kompatybilności staje się coraz bardziej skomplikowana.

 

Powrót do RISC? Jest lepszy sposób…

Jest też kwestia wirtualizacji. Mimo wieloletnich wysiłków
i systematycznego wypuszczania nowych wersji najpopularniejszego
wirtualizatora firmy VMware, czyli vSphere, administratorzy PowerVM
(wirtualizator dla serwerów AIX) mogą w dalszym ciągu patrzeć
z pobłażaniem na swych kolegów z pokoju obok.

 

Wykorzystanie serwerów RISC jest nieporównywalnie większe
niż serwerów x86. Oczywiście jest to m.in. spowodowane ceną, bo nie tak łatwo
kupić nowy serwer lub urozbudowywać już posiadany z racji wysokich cen na
rynku komercyjnych Unixów. Wykorzystuje się więc to, co się ma, do samego
końca. Jest to jednak też pochodna architektury scale-up, czyli możliwości
wygodnego podziału jednej puli na mniejsze maszyny wirtualne, logiczne partycje
czy jak kto tam sobie w dziale marketingu to nazwał. Odpowiedź na pytanie,
czy wygodniej jest mieć jeden duży serwer i dzielić go przy pomocy jednego
hypervisora na mniejsze kawałki czy też mieć kilkaset serwerów, kilkaset
hypervisorów i dzielić te małe części na jeszcze mniejsze – jest
raczej oczywista.

Co zatem robić? Powrócić
do RISC-ów? Za drogo. Ten etap mamy już za sobą, choć są miejsca, gdzie jeszcze
przez lata będziemy widzieć na ekranach konsol znaczek AIX lub Solaris.
Historia odchodzących od 20 lat do lamusa mainframe’ów powtórzy się również w tym
przypadku. Powstało zatem rozwiązanie pośrednie. Oparte na procesorach Intel
z serii E7, wyposażone w możliwości RAS zbliżone do możliwości
serwerów RISC, oferujące gigantyczną wręcz wydajność w obrębie fizycznej
maszyny, dysponujące setkami rdzeni i terabajtami pamięci RAM, gotowe do
współpracy z wirtualizatorami i systemami operacyjnymi różnych marek.
Rozwiązanie w pewnym sensie niszowe, bo low-end x86 będzie dominował
w dalszym ciągu, ale obserwując wzrostowy trend i wartość tej niszy,
która w samej Europie szacowana jest na 700 mln dol., jestem dziwnie
spokojny, że będzie jeszcze okazja do porozmawiania na jego temat.

Benchmark najszybszego na świecie serwera x86 można
obejrzeć tutaj:
www.spec.org/cpu2006/results/res2014q4/cpu2006-20140929-31841.html. Serwer
w najbogatszej konfiguracji ma 240 rdzeni (skalowalny modułowo od min. 12
rdzeni w górę przy zachowaniu liniowego wzrostu wydajności), 24 TB
RAM i 56 slotów PCIe. Karty PCIe i RAM można wymieniać metodą hot
swap, a zaimplementowany mechanizm izolacji błędów sprawia, że za cenę
z intelowej półki mamy serwer zbliżony możliwościami do klasy RISC.
Pamiętacie o potrzebie oszczędzania na trzy sposoby? To właśnie ta
platforma jako jedyna daje szansę na skorzystanie z nich wszystkich jednocześnie.

Więcej
informacji:

www.bull.com/bullion

Jacek
Połczyński, Product Manager Storage & Servers,

jacek.polczynski@eptimo.com