Właściciele wielu centrów danych próbują je dostosować do tworzonych przez różne organizacje standaryzacyjne klasyfikacji związanych z czasem dostępności. Najpopularniejszymi standardami stosowanymi do określania ciągłości ich pracy są poziomy (Tiers), stworzone przez amerykański Uptime Institute. Data center obsługujące klientów stosujących aplikacje wymagające nieprzerwanego działania, starają się stworzyć warunki odpowiadające Tier 4, czyli najwyższemu poziomowi w klasyfikacji Uptime Institute. Aby spełnić wymogi z tym związane, infrastruktura musi być w pełni redundantna (konfiguracja 2N), czyli składać się z działających równolegle elementów pełniących tę samą rolę. Przy czym nadmiarowość dotyczy także systemów zasilania i chłodzenia.

Celem powielenia infrastruktury jest osiągnięcie takiej ochrony przed przestojami, by nawet poważna awaria pojedynczego systemu nie była w stanie zakłócić pracy serwerów. Tier 4 to dostępność centrum danych na poziomie 99,995 proc., co przekłada się na maksymalnie 28 minut przestoju w ciągu roku. Z uwagi na bardzo wysokie koszty związane z zagwarantowaniem tak wysokiego poziomu dostępności infrastruktury, wiele przedsiębiorstw mających centrum danych stara się spełnić warunki odpowiadające niższej klasie Tier 3 (99,982 proc. – 96 minut przestoju w ciągu roku) albo próbuje się bardziej lub mniej zbliżyć do jej wymogów.

W dużych obiektach klasy Tier 3 i Tier 4 w razie awarii zasilania mają zareagować w pierwszej kolejności rozwiązania UPS, by następnie – jeśli będzie taka potrzeba – generatory prądotwórcze. Obiekty tej klasy są wyposażone w wiele szaf klimatyzacyjnych CRAC (Computer Room Air Conditioner), by skutecznie odprowadzać ciepło generowane przez sprzęt IT.

W przypadku małych centrów danych i serwerowni najczęściej nie jest wymagana tak duża ochrona ciągłości działania. Dlatego integrator może ograniczyć się do powszechnie stosowanego i na ogół wystarczającego zabezpieczenia, jakim są UPS-y, umożliwiające administratorowi wyłączanie systemu w kontrolowany sposób zanim nastąpi przywrócenie zasilania.

 

Nie oznacza to jednak wcale, że projektanci mniejszych systemów informatycznych mogą w ogóle nie myśleć o redundancji infrastruktury. Wręcz przeciwnie, powinno się ją zastosować np. w konfiguracji N+1. W tym wypadku dodatkowa jednostka, pełniąca rolę backupu, przejmuje w razie awarii pracę wadliwego elementu systemu, chroniąc serwerownię przed przestojem. Nadmiarowość ma zastosowanie do systemów zasilania gwarantowanego, ale może dotyczyć także rozwiązań klimatyzacji w serwerowni. Jakaś forma redundancji chłodzenia jest o tyle ważna, że gdy go zabraknie, kwestią minut może być przegrzanie się serwerów, skutkujące przestojem lub awarią.

 

Modularność ułatwia redundancję

Od pewnego czasu w centrach danych i serwerowniach – zarówno na świecie, jak i w Polsce – coraz większą popularność zdobywają rozwiązania modułowe i skalowalne. Dotyczy to nie tylko serwerów i pamięci, ale także rozwiązań zasilania gwarantowanego i chłodzenia. Jeśli zwiększanie mocy i pojemności polega na dokładaniu kolejnych „klocków” do systemu, łatwiejsze staje się inwestowanie w infrastrukturę IT wraz ze wzrostem aktualnych potrzeb danego klienta (zgodnie z zasadą pay as you go).

Producenci oferujący rozwiązania o topologii modularnej, zachwalają ich ekonomiczność, zarówno jeśli chodzi o koszty rozbudowy, jak i zajmowaną przez te urządzenia przestrzeń. Kompaktowa, lekka budowa modułowych UPS-ów sprawia, że w szafie serwerowej można umieścić kilka jednostek tych urządzeń, osiągając pożądany poziom redundancji.

Ekonomia równie ważna jak bezpieczeństwo

Na efektywność energetyczną centrów danych i serwerowi znaczący wpływ ma stopień wykorzystania sprzętu IT. Jednak chociaż wirtualizacja i cloud computing przyczyniają się do zmniejszenia liczby fizycznych serwerów, to zużycie energii wcale nie zmalało, a nawet może rosnąć, gdyż klienci próbują upakować większą moc obliczeniową oraz wydajniejsze i pojemniejsze pamięci masowe na mniejszej powierzchni.

Dlatego tak ważny w całkowitych kosztach utrzymania centrum danych i serwerowni staje się udział energii pobieranej przez systemy zasilania i chłodzenia, a najskuteczniejszym sposobem na poprawę efektywności energetycznej staje się optymalizacja działania tego rodzaju infrastruktury. Oczywiście, najbardziej efektywne będą nowe obiekty, które od początku można projektować z myślą o ograniczaniu kosztów eksploatacji.

Efektywność energetyczna jest mierzona współczynnikiem Power Usage Effectiveness, który określa stosunek całkowitej energii dostarczanej do data center do energii zużywanej wyłącznie przez sprzęt IT. PUE o wartości 2 oznacza, że na każdą 1  kWh zużytą przez serwery, pamięci masowe, sprzęt sieciowy itp., jest potrzebna dodatkowa 1  kWh do działania infrastruktury centrum danych. Tak to wygląda w starszych obiektach, bo w budowanych obecnie projektanci starają się o to, by PUE było poziomie 1,3, a nawet niższym.

 

Kompaktowość modułowych zasilaczy wynika z tego, że są to urządzenia oparte na technologii beztransformatorowej, co radykalnie ogranicza ich rozmiar i wagę. Przykładowo jeśli typowy transformatorowy trójfazowy UPS o mocy 50 kVA, zamknięty w oddzielnej szafie, może ważyć 500 kg, to waga jego beztransformatorowego odpowiednika wyniesie znacznie poniżej 100 kg. Taka różnica sprawia, że UPS z mało mobilnego urządzenia zmienia się w sprzęt, który łatwo zamontować w szafie serwerowej. Pojawienie się zasilaczy modułowych pracujących w konfiguracji równoległej ułatwiło także wymianę „na gorąco” (hot swap) komponentów systemu zasilania gwarantowanego.

Marek Bigaj, prezes zarządu Ever, przyznaje, że zasilacze modułowe są ciekawym zjawiskiem na rynku. Ich konstrukcja zapewnia elastyczne zwiększenie mocy lub czasu podtrzymania zasilania. Zwraca jednak uwagę, że zakup tego typu rozwiązania wiąże się z wyższymi kosztami inwestycyjnymi, ponieważ każdy moduł musi być oddzielnym urządzeniem. To podnosi koszty wytworzenia takich zasilaczy.

– Oprócz wyższych kosztów zakupu takie zasilacze mogą też mieć niższą sprawność niż UPS-y monoblokowe – twierdzi prezes polskiego producenta rozwiązań zasilania gwarantowanego.

 

Proste rozwiązania przynoszą efekty

Szacuje się, że typowe centrum danych jest w stanie obsłużyć nawet 30 proc. więcej sprzętu IT, bazując na używanych dotąd rozwiązaniach zasilania i chłodzenia. Zwykle są bowiem niedociążone i nie wykorzystują w pełni możliwości infrastruktury. Z tego względu najbardziej korzystne są projekty dopasowane do aktualnych potrzeb, ale z możliwością bezproblemowej skalowalności dzięki modułowości. Zapewni to stopniowy rozwój infrastruktury w miarę coraz większego zapotrzebowania na moc obliczeniową i zasoby IT.

Jeśli zaś chodzi o leciwe centra danych, to ich efektywność można zwiększyć bez całkowitej przebudowy. Warto zaproponować klientowi wprowadzenie kolejnych zmian i usprawnień do systemów zasilania i chłodzenia. Standardem staje się chociażby wydzielanie gorących i zimnych korytarzy w centrach danych. Ustawienie szaf serwerowych w rzędy oraz stworzenie gorących i zimnych stref ogranicza w dużym stopniu możliwość niekontrolowanego mieszanie się powietrza o różnych temperaturach. Zapobiega to sytuacji, w której gorące powietrze styka się z wchodzącym do szafy serwerowej, gdy system klimatyzacji musi dostarczać powietrze o znacznie niższej niż optymalna temperaturze – co prowadzi do znacznie większego zużycia energii. Do spadku efektywności chłodzenia dochodzi także możliwość powstawania gorących punktów (hot spots).

Cezary Gutowski

kierownik wsparcia sprzedaży systemów zasilania gwarantowanego, Schneider Electric

Każdy kilowat energii elektrycznej dostarczonej do urządzeń IT prowadzi do powstania kilowata energii cieplnej, którą należy usunąć. Klimatyzacja jest jedną z kluczowych instalacji, wpływających na niezawodność funkcjonalną i koszty eksploatacji centrum danych. Wybór sposobu chłodzenia bezpośrednio wiąże się z ilością zużywanej energii. Uwzględniając wielkość zysków ciepła oraz parametry, jakie musimy zapewnić w pomieszczeniu, należy stawiać na rozwiązania o niższym koszcie eksploatacji, ograniczające zużycie energii.

 

Cezary Gutowski, kierownik wsparcia sprzedaży systemów zasilania gwarantowanego w Schneider Electric, zwraca uwagę, że oddzielenie strefy gorącej od strefy chłodnej jest prostym rozwiązaniem, które w konsekwencji pozwala zwiększyć efektywność energetyczną układu chłodzenia czy zastosować urządzenia z freecoolingiem.

– Najbardziej zaawansowane urządzenia umożliwiają odprowadzanie ciepła bezpośrednio jako gorącego powietrza, a stosując wymianę ciepła i adiabatyczne chłodzenie możemy w naszych realiach klimatycznych osiągnąć średnioroczne zużycie energii elektrycznej przez układ chłodzenia na poziomie zaledwie 5 proc. zainstalowanej mocy IT, czyli jedynie 50 W na każde 1000 W – tłumaczy przedstawiciel producenta.

 

Chłodzenie nie tylko w lecie, nie zawsze powietrzem

Wciąż nierzadkim zjawiskiem jest instalowanie sprzętu IT w pomieszczeniach, których nie projektowano z myślą o zapewnieniu optymalnej dla działania serwerów temperatury. Integrator powinien wytłumaczyć klientowi, jak bardzo rośnie wtedy ryzyko przegrzania i awarii sprzętu IT z powodu niewłaściwego chłodzenia. Z małych, ograniczonych przestrzeni ciepło można odprowadzać na różne sposoby, które różnią się wydajnością, ograniczeniami i kosztem. Powinien być to specjalny system chłodzenia, nawet jeśli klientowi wydaje się, że najlepszym sposobem będzie odprowadzanie ciepła przez ogólny system klimatyzacji budynku.

– To nie jest dobry pomysł, bo najczęściej takie instalacje działają tylko w cieplejszej porze roku, a pomieszczenie IT wymaga odprowadzania ciepła także zimą – przestrzega Cezary Gutowski, z Schneider Electric.

Choć najczęściej gęstość mocy na jedną szafę serwerową to 4–6 kW, to z roku na rok coraz częściej wykorzystuje się sprzęt IT o dużej gęstości. Gdy szafa serwerowa zostanie w pełni zapełniona nowymi serwerami o maksymalnym upakowaniu modułów obliczeniowych, to jej zapotrzebowanie na moc może wzrosnąć nawet do ponad 30 kW. Gdy stopień upakowania sprzętu IT zaczyna znacznie wykraczać poza założony poziom, to pojawiają się problemy z przeciążeniami, przegrzewaniem i utratą redundancji systemu utrzymującego ciągłość działania.

Ponieważ rosnąca gęstość serwerów stwarza problemy w przypadku tradycyjnych rozwiązań klimatyzacji opartej na obiegu powietrza, to w niektórych przypadkach warto zaproponować chłodzenie cieczą. Pozwoli to odprowadzić ciepło z procesorów, modułów graficznych oraz pamięci, a jednocześnie obniżyć koszty operacyjne. Zdarzają się nawet rozwiązania, w których cały sprzęt serwerowy wraz z zasilaczami i dyskami jest całkowicie zanurzony w zbiornikach ze specjalną cieczą.

Marek Bigaj

prezes zarządu, Ever

Coraz większy wpływ na rynek systemów zasilania gwarantowanego ma rosnąca popularność chmury obliczeniowej. Jeszcze kilka lat temu w centrach danych działało wiele serwerów i każdy z nich był podłączony do zasilacza UPS. Wraz z postępującą wirtualizacją popyt na mniejsze serwery spada, co nie pozostaje bez wpływu na rynek systemów zasilania gwarantowanego. Małe serwerownie zabezpieczane są zasilaczami najczęściej jednofazowymi o mocy do 3 kVA, natomiast centra danych dużymi centralnymi jednostkami trójfazowymi.