Przedsiębiorstwa szukają sposobów łączenia infrastruktury
on-premise z zewnętrznymi zasobami. Niemal połowa respondentów
przeprowadzonego na zlecenie Intela badania „Computing Data Centre Audit 2015”
wierzy, że wewnętrzne centra przetwarzania danych będą potrzebne zawsze.
Jednocześnie oczekują szybkiego rozwoju swojej infrastruktury w obszarach
chmury i kolokacji.

Nie tak dawno temu w centrach danych dominowały
rozmaite systemy RISC/Unix, zaś serwery x86 znajdowały zastosowanie jedynie
w niewielkich wdrożeniach na potrzeby najmniejszych firm i oddziałów.
W ostatnich latach Intel wykonał jednak świetną robotę, tworząc wiele
architektur, które doskonale sprawdzają się w dużych centrach danych.

W efekcie
w ostatnim czasie można było zaobserwować dynamiczny rozwój serwerów
z rodziny x86. Artur Matzka, dyrektor infrastruktury w Integrated
Solutions, zauważa, że w zestawieniu z powszechnie wykorzystywanymi
wcześniej platformami RISC można mówić nawet o kilkunastokrotnym wzroście
wydajności platformy x86. I to zarówno w kontekście wydajności
układów CPU, jak i przepustowości interfejsów. Potwierdzają to testy
przeprowadzone przez Transaction Processing Performance Council dotyczące
zastosowań w obszarze transakcyjnych baz danych OLTP. Okazało się, że
wyniki dla serwera RISC z 2005 r. wyposażonego w 64 procesory
dwurdzeniowe i dla serwera x86 z 2013 r. z dwoma procesami
ośmiordzeniowymi na pokładzie są niemal identyczne. Co ważne, serwer RISC
zajmował aż dwie pełnowymiarowe szafy rackowe, a serwer x86 jedynie dwie jednostki wysokości (2U) w szafie
mieszczącej zwykle 40–45U. Platforma x86 oznacza też niższe koszty
i mniejszy pobór mocy.

To wszystko
zadecydowało o przewadze technologii x86 w infrastrukturze centrów
przetwarzania danych
– podsumowuje przedstawiciel Integrated Solutions.

 
Informatyczny Ford T

Powstały w 1908 roku
Ford T był efektem chęci stworzenia samochodu dla przeciętnej amerykańskiej
rodziny. Rozwój platformy x86 sprawił zaś, że obecnie przeciętną firmę stać
jest na bardzo wydajne serwery, na których opiera ona swój system
informatyczny. O swojej słynnej konstrukcji Henry Ford podobno mawiał:
„możesz otrzymać samochód w każdym kolorze, pod warunkiem że będzie to
kolor czarny”. Dzisiaj można by zapytać dostawców, czy gdy decydujemy się na
serwery x86, to możemy „przebierać w kolorach”, czy też – bez względu
na upodobanie – zawsze dostaniemy ten sam. Ponieważ systemy różnych
producentów serwerów x86 są oparte w dużej mierze na tych samych
rozwiązaniach, można dojść do wniosku, że oferty poszczególnych producentów
niewiele się od siebie różnią.

Z tą tezą polemizuje
Tomasz Pietrzak, Enterprise Solutions Group Manager w firmie Dell,
uważając takie podejście za zbyt duże uproszczenie. Jego zdaniem każdy
z dostawców rozwija swoją ofertę w taki sposób, aby jak najlepiej
spełnić ciągle zmieniające się wymagania świata IT.

Przykładowo rozwiązania modularne czy też konwergentne oferowane przez
poszczególnych producentów znacząco się od siebie różnią. Różnice
w architekturze wewnętrznej takich systemów mogą być wręcz fundamentalne

– przekonuje Tomasz Pietrzak.

Nie tak
szybko z SDDC

Wykorzystanie wirtualizacji do maksimum oznacza stworzenie
definiowanego programowo centrum danych – SDDC (Software-Defined Data
Center). W tej koncepcji wszystkie elementy infrastruktury – sieć,
pamięć masowa, moc obliczeniowa i bezpieczeństwo – są zwirtualizowane
i dostarczane w formie usługi. Podnosi to poziom zautomatyzowania
i elastyczności infrastruktury, co stanowi odpowiedź na potrzeby
stosowania modelu cloud w przedsiębiorstwie i wprowadzania nowych metodyk
IT, takich jak DevOps.

O ile
jednak analitycy z jednej strony przewidują, że przyszłość będzie należeć
do SDDC, o tyle z drugiej twierdzą, że obecnie większość firm nie
jest gotowa do wirtualizacji całej infrastruktury, i zalecają stopniowe
oraz ostrożne wprowadzanie nowych technik. Gartner przestrzega, że prosta
zamiana tradycyjnej infrastruktury na zestaw produktów definiowanych programowo
raczej nie przyniesie spodziewanych korzyści. Wprowadzenie automatyzacji
działania i samoobsługi do centrum danych oznacza konieczność uprzedniego
przemodelowania i zoptymalizowania usług IT. To z kolei wymaga nowych
umiejętności i kultury organizacji działu informatycznego odmiennej od
tej, która panuje obecnie w przedsiębiorstwach.

Analitycy z Gartnera zwracają też uwagę na to, że
zamknięciu infrastruktury „wewnątrz” jednej oferty konkretnego dostawcy SDDC
można zapobiec przez zastosowanie chmurowych platform zarządzania
i standardów open source.

 

Jednak wciąż to nie modularne czy konwergentne maszyny
odpowiadają za większość sprzedanych serwerów. Dominują serwery stelażowe,
a te już tak bardzo się nie różnią. Co więc decyduje o wyborze przez
klienta tej, a nie innej oferty? Czy będzie to przede wszystkim cena? Czy
zdecyduje o tym zakres udzielanego wsparcia? A może dostępność
narzędzi do zarządzania, które uproszczą administrowanie systemem, sprawiając,
że dział IT będzie miał więcej czasu na zajęcie się pracą bezpośrednio związaną
z biznesem klienta? Warto też zastanowić się, na ile szanse tej czy innej
oferty (i maksymalizowania swojego zarobku) możemy zwiększyć, dokładając
wartość dodaną, np. w postaci zewnętrznych usług.

Aleksander Klessa, kierownik Zespołu Data Center
w Dimension Data Polska, nie ma wątpliwości, że jednym
z najważniejszych kryteriów wyboru jest cena. Jego zdaniem cięcia
w budżetach IT zmuszają osoby zarządzające do szukania nowych rozwiązań,
w domyśle – tańszych. Przy czym umiejętności administratorów i ich
doświadczenie nie pozostają bez znaczenia przy podejmowaniu decyzji. A te
mogą być ograniczone.

– Dlatego konieczność zaspokojenia potrzeb
biznesowych przy ograniczonych budżetach zmusza klientów do zainteresowania się
rozwiązaniami z wartością dodaną, jak usługi zarządzane świadczone przez
wyspecjalizowane centra wsparcia

– twierdzi Aleksander Klessa.

Także Tomasz Pietrzak z Della przyznaje, że cena ma
duże znaczenie, ale jest przekonany, że klienci bardzo uważnie analizują inne
elementy oferty. Podczas wyboru danego rozwiązania zwracają uwagę na standardy
i narzędzia do zarządzania, ponieważ wpływają one na to, w jaki
sposób systemy są wdrażane, utrzymywane, optymalizowane, aktualizowane. Ma to
bezpośrednie przełożenie na efektywność kosztową przedsiębiorstwa i utrzymania
środowiska informatycznego. Jego zdaniem bardzo ważnym kryterium jest dla
klientów jakość wsparcia.

– Z naszych obserwacji wynika także, że
klienci wybierają rozwiązania serwerowe, opierając się na własnych
doświadczeniach związanych z produktem, samym producentem czy też
z jakością wsparcia. Takie elementy jak specyfikacja techniczna, opis
zakresu wsparcia czy cena mają oczywiście wpływ na decyzję, jednak to właśnie
dotychczasowe doświadczenia odgrywają kluczową rolę
– twierdzi Tomasz Pietrzak.

Ostatecznie, gdy producentom serwerów x86 coraz trudniej
jest wyróżnić się w obszarze technologicznym, starają się oni doskonalić
swoją ofertę w zakresie: czasu dostawy, dostępności produktu, bieżących
usług serwisowych i utrzymania, wsparcia na miejscu u klienta oraz telefonicznego.
Ich wysoka jakość ma zwiększyć konkurencyjność oferowanych serwerów x86.

 
Wirtualizować, ale czy wszystko?

Od dłuższego czasu najważniejszym trendem w centrum
danych jest wirtualizacja. Pozwala ona na lepsze wykorzystanie zasobów, głównie
dzięki zdynamizowaniu przydziału serwerów wirtualnych do usług. Kolejną
korzyścią jest optymalizacja ich rozmieszczenia w obrębie serwerów
fizycznych oraz możliwość łatwego dostosowania wydajności do własnych potrzeb.
Dodatkowo wirtualizacja zapewnia scentralizowane i przejrzyste zarządzanie
całością zasobów oraz szybkie kreowanie nowych. Zwiększa też dostępność usług,
na skutek wykorzystania mechanizmów dynamicznej migracji przypisanych im
serwerów wirtualnych i ich klastrowania.

Konsolidacja
i wirtualizacja infrastruktury IT pozwalają na zachowanie wysokiej
elastyczności funkcjonowania przedsiębiorstwa, dzięki oderwaniu się od
sztywnych i nieefektywnych (zarówno wydajnościowo, jak i kosztowo)
tradycyjnych struktur, które bazują na alokowaniu wyłącznie fizycznych zasobów
do poszczególnych zadań
– uważa Artur Matzka.

Wobec niewątpliwych zalet
wirtualizacji warto zadać pytanie o jej zakres i zastanowić się, czy
klienci starają się wirtualizować środowiska data center w modelu
„wszystko, co tylko się da” czy raczej wirtualizują je w ograniczonym
zakresie – „tylko to, co konieczne”. Z doświadczeń Artura Matzki
wynika, że tendencją wzrostową na rynku jest wirtualizowanie niemal wszystkich
elementów infrastruktury.

– Sporadycznie zdarza
się, że niektóre elementy systemu nie są wirtualizowane, np. ze względu na
kwestie licencyjne –
mówi specjalista Integrated Solutions.

Z kolei Aleksander Klessa
uważa, że w tym wypadku nie ma jedynej słusznej strategii, bo wszystko
zależy od rodzaju wykorzystywanych aplikacji biznesowych. Jego zdaniem klienci
widzą niemal same zalety wirtualizacji, ale nie zawsze mogą z nich
skorzystać.

– Wirtualizacja
wszystkiego sprawdza się bardzo dobrze u klientów, którzy wprowadzają
plany odtworzenia po katastrofie. Specjalizowane narzędzia do obsługi takich
zdarzeń zapewniaja nie tylko automatyczne przełączenie, ale także
przeprowadzenie testów, czy zakładany plan ma szanse powodzenia

– przekonuje rozmówca CRN Polska.

Cięcie
kosztów i szybkie reagowanie na potrzeby biznesu

Według raportu „Veeam Availability Report 2016” głównym
czynnikiem, który skłania organizacje w Polsce do modernizowania centrów
danych, jest obniżenie kosztów operacyjnych (60 proc. odpowiedzi). Na drugim
miejscu znajduje się potrzeba szybszego dostarczenia nowych aplikacji i usług
niezbędnych do prowadzenia działalności gospodarczej (57 proc. ankietowanych).

 

Na racjonalną zachowawczość klientów wskazują wyniki
wspomnianego już badania „Computing Data Centre Audit 2015”. Okazuje się, że
33 proc. ankietowanych przedsiębiorstw określa swoje centra danych jako
„tradycyjne”, czyli zwirtualizowane tylko w ograniczonym zakresie. Inna
rzecz, że tylko 15 proc. uważa, iż takie podejście będzie wpisywać się
w ich strategię przez następne lata. Powodów utrzymywania się
„tradycjonalizmu” jest kilka. Zdaniem twórców raportu dotyczą one względów
bezpieczeństwa, chęci zachowania pełnej kontroli nad infrastrukturą IT
i zgodności z przepisami.

Stosunkowo nowym trendem
jest wirtualizowanie pamięci masowych. Oddzielenie warstwy sprzętowej od
systemów zarządzających infrastrukturą pamięci masowych to zmiana
w podejściu do zasobów IT, analogiczna do wirtualizacji serwerów.
Standaryzacja i upowszechnienie technologii sprzętowych umożliwia
tworzenie tanich zasobów pamięci masowych, których rozbudowa polega na
dokładaniu standardowych urządzeń zarządzanych przez specjalizowane
oprogramowanie.

– Znaczenie
i wykorzystanie takiego podejścia będzie rosnąć z powodu konieczności
dostarczania coraz większej ilości treści coraz większej liczbie urządzeń
i użytkowników –
 przewiduje Aleksander Klessa.

 

Chmura – raczej prywatna niż publiczna

Przed chmurą nie ma ucieczki – tak twierdzą dostawcy
i (chcąc czy nie chcąc) coraz częściej też ich partnerzy. W przypadku
chmury publicznej, zdaniem integratorów potencjalnie najbardziej chłonnym
rynkiem dla usług cloud są firmy z sektora MŚP. Zwykle dysponują
niewielkim budżetem i mają ograniczony dostęp do zaawansowanych kompetencji
IT. Usługi chmurowe są popularne zwłaszcza wśród podmiotów, które dopiero
wchodzą na rynek. W ten sposób mogą znacznie ograniczyć ryzyko
inwestycyjne związane z nową działalnością, ponieważ parametry usług
abonamentowych – do których zaliczamy usługi chmurowe – można
dynamicznie i elastycznie dopasowywać do okresowości i zmienności ich
biznesu.

Aleksander Klessa

kierownik Zespołu Data Center w Dimension Data

Potrzeba posiadania własnej infrastruktury istnieje i będzie
nadal istnieć. Względy bezpieczeństwa 
firmowych danych są decydujące i często determinują konieczność
posiadania własnego data center. Natomiast coraz szybsze zmiany technologiczne
oraz nieustannie rosnąca konkurencja zmuszają lub będą zmuszać do szukania
rozwiązań i wsparcia poza firmą. Oddanie części zadań (poza firmę) pozwoli
zespołom IT skoncentrować się na wspieraniu działań biznesowych, przynoszących
wymierne korzyści. Nawet jeżeli firma nie decyduje się na pełen outsourcing,
coraz częściej wykupuje pakiety specjalizowanych konsultacji i zaawansowanego
wsparcia, tak aby móc obsłużyć „trudne przypadki”.

 

Na polskim rynku zdecydowanie największym zainteresowaniem
cieszy się chmura prywatna, instalowana w centrum danych klienta,
w pełni zautomatyzowana, z funkcjami rozliczania wykorzystania
zasobów (analogicznie jak u dostawców publicznego cloud).

Wciąż pokutuje
przeświadczenie „u nas jest bezpieczniej”, tymczasem na świecie coraz
więcej firm przenosi swoje systemy do dostawców usług chmurowych

– mówi Aleksander Kressa.

Model chmury jest
przenoszony do infrastruktury wdrażanej lokalnie głównie ze względu na przewagi
funkcjonalne i ekonomiczne. W tym wypadku coraz powszechniej stosuje
się systemy powstałe z myślą o maksymalnej konsolidacji. Nowa oferta
rozwiązań konwergentnych i hiperkonwergentnych (specjalizowanych urządzeń
typu appliance) opiera się na metodach sprawdzonych przez operatorów cloud. One
też są chmurą, tyle że prywatną i mogą służyć
do tworzenia środowisk hybrydowych.

Według dostawców klienci coraz
częściej pytają o rozwiązania konwergentne.

– W ostatnim
czasie byliśmy zaangażowani w projekty, w których klient poddawał
szczegółowej analizie (funkcjonalnej, wydajnościowej czy też finansowej) różne
warianty wdrożenia rozwiązań infrastrukturalnych. Ostatecznie w niektórych
przypadkach ścieżka konwergentna okazała się lepszym wariantem, w innych
przypadkach architektura tradycyjna dawała więcej korzyści
– mówi
Tomasz Pietrzak.

Oferta chmury publicznej, hybrydowej, prywatnej, rozwiązań
definiowanych programowo czy konwergentnych z każdym miesiącem staje się
coraz bogatsza. Na drodze do ich powszechnej implementacji występuje szereg
barier, bo nowe technologie kładą kres tradycyjnej infrastrukturze. Przynoszą
zupełnie nowy sposób myślenia o funkcjonowaniu działów IT
w przedsiębiorstwach oraz wywracają do góry nogami tradycyjny model
biznesowy resellera i integratora. Oczywiście wprowadzenie tak
fundamentalnych zmian wymaga czasu, ale – by w trwającym właśnie
okresie przejściowym nie zaprzepaścić szansy na dalszy rozwój – trzeba się
do transformacji odpowiednio wcześniej przygotować.