Firmy mają różne strategie rozwoju swoich centrów danych, zależnie od rodzaju prowadzonej działalności. Innymi kryteriami będą się kierować operatorzy telekomunikacyjni budujący data center, inaczej sprawy będą wyglądać z serwerowniami kolokacyjnymi czy bankowymi, a jeszcze innym przypadkiem są obiekty dostawców chmury. Dla tych ostatnich największe znaczenie będzie miała jak najdalej idąca wirtualizacja usług.

Jednak wszystkie centra danych, bez względu na zastosowanie i skalę przedsięwzięcia, wymagają rozwiązań zapewniających pożądany poziom dostępności usług IT. Od niego zależy sposób budowania systemów zasilania, chłodzenia czy zarządzania infrastrukturą. Dlatego dostępność zaczęto określać, mierzyć i certyfikować.

Zarówno prywatne organizacje, jak BICSI, UPTIME Institute, jak i międzynarodowe organy normalizacyjne (np. europejski CENELEC czy amerykańskie ANSI) opracowały ścisłe standardy w tym obszarze. Stały się one podstawą do określenia zaawansowania technicznego serwerowni  w odniesieniu do planowanego poziomu dostępności. Standardy objęły także sposoby eksploatacji i konserwacji serwerowni, które w takim samym stopniu, a może nawet i większym wpływają na zapewnienie oczekiwanej dostępności usług IT.

Standaryzacja poziomu dostępności znajduje zastosowanie także w polskich centrach danych. Jednak z obserwacji  APC by Schneider Electric wynika, że tempo jej wprowadzania jest jeszcze dość wolne – z racji relatywnie niewielkiego rynku usług IT, a także większego przywiązania użytkowników prywatnych oraz instytucjonalnych do posiadania własnych niewielkich serwerowni.

W przypadku awarii zasilania podtrzymywanie działania data center ma charakter dwuetapowy. W pierwszej kolejności mają zadziałać rozwiązania UPS, by następnie – jeśli będzie taka potrzeba – do akcji włączyły się generatory prądotwórcze. Zdaniem Johnny’ego Zhanga, dyrektora Enterprise Business Group w polskim oddziale Huawei, obecna infrastruktura energetyczna w naszym kraju jest na tyle rozwinięta, że przerwy w dostawie energii elektrycznej zdarzają się sporadycznie i w przypadku mniejszych serwerowni wystarczającym rozwiązaniem mogą być UPS-y, które zapewnią administratorom sprawne zamknięcie systemów w oczekiwaniu na przywrócenie zasilania.

 

Inaczej wygląda sytuacja w przypadku dużych data center, które chcą spełniać najwyższe normy, wymagane do uzyskania certyfikatu Tier 4. W tym przypadku oprócz wykorzystania rozwiązań UPS w połączeniu z klasycznymi generatorami klienci mogą także instalować dynamiczne zasilacze DRUPS (Diesel Rotary UPS).

– Rozwiązanie umożliwia utrzymanie zasilania podczas awarii nawet przez wiele tygodni, łącząc w sobie funkcjonalność klasycznego UPS-a i agregatu prądotwórczego – wyjaśnia szef działu Enterprise w Huawei.

 

Koszty? Nie wystarczy zwykły Excel…

Zagwarantowanie stałego dostępu do danych w przypadku awarii to jedna sprawa. Wielu klientów planuje inwestycje także ze względu na możliwość wdrożenia nowych, energooszczędnych rozwiązań. Jednym z kluczowych kryteriów uwzględnianych przy budowie data center jest efektywność energetyczna. Firmy coraz bardziej zwracają uwagę na energooszczędność, co wpływa na zwiększone zastosowanie sprzętu z nowymi generacjami procesorów, rosnącą popularność dysków SSD, wykorzystanie efektywnych rozwiązań sieciowych, konsolidowanie pamięci masowych i zasilania, a także wprowadzanie na dużą skalę wirtualizacji.

Doradzać i myśleć o przyszłości

W jaki sposób integratorzy powinni podchodzić do kwestii doboru i wdrażania systemów IT w centrach danych, by z jednej strony klient korzystał ze wszystkich zalet nowoczesnego data center, a z drugiej strony wdrożeniowiec mógł liczyć na satysfakcjonujące go zyski?

Wraz z postępem technicznym wymagania klientów i możliwości integratorów stają się coraz większe. Przy dużej liczbie dostępnych na rynku produktów i ich różnorodności klienci potrzebują wsparcia już na etapie projektowania data center oraz doboru optymalnych dla niego rozwiązań. Tym samym otwiera się pole do świadczenia różnego rodzaju usług doradczych przez integratorów.

Najważniejsze w projektowaniu nowej infrastruktury staje się poszerzenie horyzontu czasowego (daleko poza moment oddania inwestycji) oraz całościowe podejście do potrzeb klienta. Myśląc o przyszłości, integratorzy powinni zapewnić klientowi elastyczność i skalowalność infrastruktury, pamiętając jednocześnie o jej redundancji i wysokiej dostępności.

Łatwiej tworzyć wartość dodaną, gdy ma się dostęp do kompleksowej oferty producentów i dystrybutorów, którzy zapewniają solidne wsparcie przedsprzedażowe i wdrożeniowe. Integratorzy muszą przy tym pamiętać o zarezerwowaniu środków na rzetelnie przeprowadzony rozruch oraz testy funkcjonalne w różnych scenariuszach, przeprowadzane pod rzeczywistym obciążeniem.

 

Nawet zastosowanie harmonogramów pracy urządzeń czy poszczególnych ich elementów ma wpływ na znaczne zmniejszenie ilości zużywanej w centrum danych energii, a tym samym kosztów – podkreśla Wojciech Kotkiewicz, Systems Engineer Manager w ABC Data Value+.

O efektywności energetycznej centrum danych, mierzonej przy użyciu wskaźnika PUE (Power Usage Effectivness), decyduje energia wydatkowana ponad to, co jest zużywane przez urządzenia IT. Paweł Wróbel, Senior Solution Data Center Architect z APC by Schneider Electric, zauważa, że jeszcze dziesięć lat temu PUE wynosiło, zgodnie z badaniami prowadzonymi w największych serwerowniach, średnio 2–2,5. Obecnie dąży się, by wskaźnik ten oscylował wokół wartości 1,2, zaś na świecie można znaleźć przykłady, gdzie PUE schodzi nawet poniżej 1,1.

Do osiągnięcia tak wyśrubowanych wielkości potrzeba bardzo wyrafinowanych, a często i nietypowych rozwiązań, stosowanych przez takich potentatów na rynku data center jak Google czy Facebook. Tymczasem, gdy spojrzy się z perspektywy przeciętnego centrum danych, można zauważyć, że klienci mają często skłonność do przeszacowywania swoich potrzeb. A niedociążona serwerownia nigdy nie będzie efektywna energetycznie.

Także w kontekście efektywności energetycznej pożądanym uzupełnieniem posiadanej infrastruktury będą systemy zarządzające. Ich możliwości obecnie znacznie wykraczają poza tradycyjne funkcje, jak monitoring oraz kontrola zasilania lub chłodzenia. Przede wszystkim dostarczają one bardzo dokładnych informacji, dotyczących m.in. bieżącego funkcjonowania centrum danych, niewykorzystywanej mocy, wieku i kondycji sprzętu, aktualnej czy historycznej efektywności zużycia energii oraz jej kosztów. Zapewniają również przeprowadzanie symulacji stanu przyszłego.

– Do optymalnego i oszczędnego użytkowania serwerowni nie wystarcza już tabelka w Excelu oraz podstawowy monitoring techniczny i środowiskowy – twierdzi Paweł Wróbel.

Oprogramowanie typu DCIM (Data Center Infrastructure Management) umożliwia sterowanie zasilaniem i chłodzeniem w sposób zaawansowany i interaktywny, pod kątem zoptymalizowanego wykorzystania istniejących zasobów i oszczędności energii a jednocześnie zrównoważone zarządzanie obciążeniem serwerów. DCIM to istny kombajn, który wielowymiarowo integruje funkcje zarządzania instalacjami technicznymi, infrastrukturą IT oraz relokacją obecnych zasobów i planowaniem przyszłych.

Wojciech Kotkiewicz

Systems Engineer Manager, ABC Data Value+

Rosnąca gęstość serwerów często prowadzi do wielu problemów z zasilaniem i chłodzeniem w przypadku tradycyjnych urządzeń chłodzonych powietrzem. Dlatego coraz częściej w centrach danych stosuje się chłodzenie cieczą. Zapewnia to rozwiązanie wspomnianych problemów, a jednocześnie zmniejszenie kosztów. Wykorzystujący ciecz system może obniżyć wydatki na chłodzenie do 50 proc., a jednocześnie umożliwić nawet pięciokrotne zwiększenie zagęszczenia serwerów.

 

Jak długo ma być tanio?

Jeśli klienci będą się kierować wyłącznie ceną zakupu, to może się okazać, że tanio było tylko do momentu wdrożenia wybranego rozwiązania. W jakim stopniu biorą oni pod uwagę całkowite koszty posiadania rozwiązania (TCO), a więc efektywność produktów, mniejsze nakłady operacyjne itp.?

Niestety, bardzo często najniższa cena jest najważniejszym kryterium – przyznaje Rafał Kryk, PQ Application Engineer w Eaton Electric.

Jego zdaniem wielu inwestorów planujących budowę serwerowni ma niewystarczającą wiedzę na temat systemów zasilania gwarantowanego. Dlatego producenci umożliwiają klientom porównywanie ceny zakupu z kosztami użytkowania, na przykład udostępniając na firmowej stronie internetowej kalkulator TCO.

Jeżeli klient porówna UPS o znacznie niższej cenie z rozwiązaniem premium, o wyższej sprawności, lepszych parametrach i dużej bezawaryjności, to okaże się, że po 2, 3 latach użytkowania systemu droższego w momencie zakupu ostatecznie zaoszczędzi – tłumaczy ekspert z Eaton Electric.

Zdaniem  dostawców po ustaleniu poziomu wymaganej dostępności oraz wyborze technologii zapewniających oczekiwane funkcjonalności klienci kierują się przede wszystkim kosztem instalacji. Jednak coraz częściej rozważają także koszty eksploatacyjne. Samo przeprowadzenie analizy opłacalności podczas procesu wyboru choćby technologii chłodzenia serwerowni to równanie z wieloma zmiennymi, których dostarczają obecnie oferowane urządzenia, umożliwiając np. ustalenie godzinowego udziału freecoolingu w ogólnym czasie pracy sprężarek. Chłodzenie adiabatyczne z kolei zapewnia zoptymalizowanie wielkości dobranych urządzeń pod kątem planowanego zapotrzebowania na klimatyzację. Dostępne są też urządzenia oferujące bezpośrednie chłodzenie powietrzem komór serwerowych.

Podobnie jest w przypadku strat energii w instalacjach zasilających. Najnowsze zasilacze UPS działające w trybie podwójnej konwersji, gwarantującym nieprzerwane zasilanie urządzeń IT, oferują dodatkowe ekonomiczne tryby pracy, które zwiększają ich sprawność do poziomu aż 99 proc.

Ostatecznie dostawcy są raczej skłonni do optymizmu. Zauważają, że w wielu przypadkach cena, choć wciąż bardzo istotna, przestaje być podstawowym czynnikiem decydującym o wyborze danego rozwiązania. Wśród użytkowników stopniowo rośnie świadomość, że prawdziwy koszt sprzętu można zweryfikować dopiero po pewnym czasie.

ABC Data odnotowuje, że ostatnio zyskuje na znaczeniu współczynnik TCO. Dystrybutor zauważa, że klienci, szacując całkowity koszt posiadania danego rozwiązania, poza ceną zakupu najczęściej biorą pod uwagę sprawność urządzeń, możliwość ich rozbudowy o dodatkowe moduły, MTBF (średni czas pomiędzy awariami) oraz gwarancję z dodatkowymi usługami serwisowymi. Analizując swoje aktualne oraz przyszłe potrzeby, decydują się na kompleksowe rozwiązania, z ujednoliconym zarządzaniem i łatwością rozbudowy wraz ze zmieniającymi się potrzebami.

Zdaniem integratora

• Robert Jackowski, Data Center Solution Engineer, European Workers Council Member for Dell Poland

Coraz więcej klientów jest w stanie określić, jakie straty mogą ponieść w wyniku braku zasilania. Po części wynika to z ich doświadczeń, w tym także awarii, i problemów związanych z używaniem produktu w sieci zasilania gwarantowanego, w tym serwisowaniem. Niejednokrotnie zdarza się, że klient od kilkunastu lat używa jednego rozwiązania i musi je wymienić, bo zestarzało się technologicznie i jego dalsze utrzymywanie jest nieracjonalne finansowo. Wybór nowego jest wynikiem kompromisu uwzględniającego: możliwości produktu, jego cenę, warunki gwarancji i koszty utrzymania lub SLA oraz rodzaj usług dostarczanych przez system zasilania.

• Grzegorz Sadkowski, zastępca dyrektora sprzedaży ds. projektów i usług, Pretor

Poziom trudności przekonania klienta do analizy oferowanego rozwiązania zasilania gwarantowanego uzależniony jest w dużej mierze od tego, kto podejmuje ostateczną decyzje o jego wyborze. Jeżeli jest to osoba umocowana w dziale finansów, zazwyczaj nie ma problemu ze zwróceniem uwagi na wyliczenie TCO i właśnie to staje się to jednym z kluczowych argumentów w procesie decyzyjnym. Jednak w przypadku projektów realizowanych przez działy IT częstokroć mamy do czynienia z podejściem „kupić jak najtaniej”, aby zamknąć się w założonym budżecie (zwykle narzuconym odgórnie), i brakiem inicjatywy przekazania na wyższy szczebel informacji o faktycznym koszcie utrzymania systemu.Jednak w przypadku naprawdę dużych projektów budowy centurm danych mamy do czynienia z wysoką dojrzałością w zespołach projektowych i w zasadzie bez przygotowania szczegółowego wyliczenia TCO klient w ogóle nie przystępuje do rozpatrzenia złożonej oferty.

 

Także z doświadczeń Huawei wynika, że większość klientów ma obecnie świadomość kosztu utrzymania własnego data center. Johnny Zhang daje przykłady zakupu i instalacji rozwiązań DRUPS czy chłodzonych cieczą klastrów serwerów wynikające bezpośrednio z dokonanej przez klientów analizy kosztowej – w perspektywie długoterminowej, z uwzględnieniem potencjalnych oszczędności związanych z tymi rozwiązaniami.

 

Na teraz czy także na przyszłość?

Czy klienci od razu zakładają stopniowy rozwój swojej infrastruktury, wybierając rozwiązania ułatwiające przyszłą jej rozbudowę? A może myślą przede wszystkim o zaspokajaniu bieżących potrzeb?

Te dwa podejścia nie muszą się wykluczać, jeśli wybierze się rozwiązanie modułowe. Systemy zasilania UPS projektowane w taki właśnie sposób ułatwiają przyszłą rozbudowę i skalowalność. Zdaniem Michała Semeniuka, dyrektora sprzedaży i marketingu Delta Energy Systems w Polsce, modułowe UPS-y wypierają klasyczne monoblokowe rozwiązania. Powodem jest minimalizacja średniego czasu naprawy, jak również możliwość rozbudowy na zasadzie plug & play.

Rosnący trend polegający na wykorzystaniu technologii modularnej zabudowy data center (tzw. kioski), który umożliwia klientom skupienie się na zaspokojeniu bieżących potrzeb i uzyskaniu maksymalnej wydajności energetycznej, odnotowuje Huawei. Zamiast chłodzić całą niezabudowaną powierzchnię obiektu, schładzają jedynie jego część, zostawiając na później rozbudowę sytemu i tym samym ograniczając znacząco koszty.

Modułowość jest dobrym rozwiązaniem także wtedy, gdy celem jest osiągnięcie najwyższej niezawodności systemu zasilania gwarantowanego.

Coraz częściej spotykane są rozwiązania o strukturze modułowej zapewniające redundancję. Tak, aby awaria jednego elementu nie miała wpływu na ciągłość zasilania całego systemu – wyjaśnia Rafał Kryk z Eaton Electric.

W efekcie rozwiązania modułowe i skalowalne zaczynają dominować w centrach danych zarówno na świecie, jak i w Polsce. Umożliwiają inwestowanie w infrastrukturę IT zgodnie ze wzrostem aktualnych potrzeb danego klienta. Wojciech Kotkiewicz z ABC Data Value+ zwraca uwagę, że ważne jest, by wykorzystywane do realizacji danego projektu rozwiązania nie wymuszały stosowania dodatkowego oprogramowania i modyfikacji istniejącej już konfiguracji. Użytkownikom zależy na tym, aby z jednego miejsca i przy pomocy jednego ekranu zarządzać całą infrastrukturą w serwerowni. Zyskują na tym producenci, którzy wpisują się w ten trend, oferując rozwiązania kompatybilne z aplikacjami innych dostawców.

Paweł Wróbel

Senior Solution Data Center Architect, APC by Schneider Electric

Inwestorzy mają tendencję do przeszacowywania swoich potrzeb, a niedociążona serwerownia nigdy nie będzie efektywna energetycznie. Mniejszym problemem w przypadku infrastruktury technicznej są serwerownie przeciążone. Dlatego wszystkie projekty powinny zakładać pewną modułowość i rozwój, w miarę coraz większego zapotrzebowania na moc obliczeniową i zasoby IT.

 

Innowacje kontra tradycja

Dostawcy twierdzą, że klienci interesują się innowacyjnymi rozwiązaniami, zwłaszcza jeśli są to urządzenia sprawdzonych marek. Jednak w przypadku infrastruktury IT samo wprowadzenie innowacji rzadko kiedy przekłada się na natychmiastowy sukces. Do nowych rozwiązań klienci muszą się przekonać, zyskać pewność, że sprzęt jest przetestowany, sprawdzony i można na nim polegać.

Z moich obserwacji wynika, że klienci są ostrożni w wyborze najnowszych, innowacyjnych rozwiązań. Często nie chcą być pierwszymi, wolą poczekać i skorzystać z doświadczeń innych – twierdzi Michał Semeniuk z Delta Energy Systems.

To, jak wielka jest ostrożność w stosunku do nowości, zależy od okoliczności. W nowopowstających serwerowniach częściej sięga się po innowacyjne rozwiązania. Z kolei w już istniejących inwestorzy decydują się na proste modernizacje i wprowadzanie sprzętu, który ma zwiększyć energooszczędność.

Tymczasem w przypadku klimatyzacji – jak wyjaśnia Paweł Wróbel – przy prostej wymianie urządzeń nie można oczekiwać skokowej poprawy energooszczędności. Tym bardziej że w nowych rozwiązaniach, o lepszej konstrukcji, stosowane są czynniki chłodnicze uznawane za bardziej ekologiczne, lecz o gorszych własnościach termodynamicznych. Dopiero kompleksowe podejście do usprawnienia przepływu ciepła w serwerowni może skutkować poprawą PUE. Tylko wielowymiarowa modernizacja z zamknięciem korytarzy ciepłych lub zimnych, ze znalezieniem właściwego punktu pracy w zależności od temperatury na frontach szaf IT, zminimalizowanie strat przedmuchów powietrza chłodzącego może przynieść oczekiwany przez inwestora efekt.

– Nie buduje się już serwerowni bez zabudowy korytarzy. Kwestią do przedyskutowania z projektantami i inwestorem jest wybór technologii chłodzenia oraz sposób jej zabudowy w serwerowni – twierdzi ekspert z APC by Schneider Electric.

Bardziej innowacyjne podejście jest wymuszane przez nowe trendy w infrastrukturze IT. Rosnąca gęstość serwerów stwarza problemy w przypadku tradycyjnych rozwiązań chłodzonych powietrzem. Dlatego coraz częściej w data center stosuje się chłodzenie cieczą, które zapewnia odprowadzanie ciepła z procesorów, modułów graficznych oraz pamięci, a jednocześnie obniżenie kosztów operacyjnych.

– Istnieją nawet rozwiązania, gdzie cały sprzęt serwerowy wraz z zasilaczami, dyskami jest całkowicie zanurzony w zbiornikach ze specjalną cieczą. W efekcie odprowadzane jest ciepło z każdego, nawet najmniejszego elementu – wyjaśnia Wojciech Kotkiewicz.

Co więcej, gorąca ciecz chłodząca z centrum danych może zostać wykorzystana do recyklingu ciepła odpadowego i użyta np. do ogrzania innych pomieszczeń.