Nie oznacza to jednak wcale, że projektanci mniejszych systemów informatycznych mogą w ogóle nie myśleć o redundancji infrastruktury. Wręcz przeciwnie, powinno się ją zastosować np. w konfiguracji N+1. W tym wypadku dodatkowa jednostka, pełniąca rolę backupu, przejmuje w razie awarii pracę wadliwego elementu systemu, chroniąc serwerownię przed przestojem. Nadmiarowość ma zastosowanie do systemów zasilania gwarantowanego, ale może dotyczyć także rozwiązań klimatyzacji w serwerowni. Jakaś forma redundancji chłodzenia jest o tyle ważna, że gdy go zabraknie, kwestią minut może być przegrzanie się serwerów, skutkujące przestojem lub awarią.

 

Modularność ułatwia redundancję

Od pewnego czasu w centrach danych i serwerowniach – zarówno na świecie, jak i w Polsce – coraz większą popularność zdobywają rozwiązania modułowe i skalowalne. Dotyczy to nie tylko serwerów i pamięci, ale także rozwiązań zasilania gwarantowanego i chłodzenia. Jeśli zwiększanie mocy i pojemności polega na dokładaniu kolejnych „klocków” do systemu, łatwiejsze staje się inwestowanie w infrastrukturę IT wraz ze wzrostem aktualnych potrzeb danego klienta (zgodnie z zasadą pay as you go).

Producenci oferujący rozwiązania o topologii modularnej, zachwalają ich ekonomiczność, zarówno jeśli chodzi o koszty rozbudowy, jak i zajmowaną przez te urządzenia przestrzeń. Kompaktowa, lekka budowa modułowych UPS-ów sprawia, że w szafie serwerowej można umieścić kilka jednostek tych urządzeń, osiągając pożądany poziom redundancji.

Ekonomia równie ważna jak bezpieczeństwo

Na efektywność energetyczną centrów danych i serwerowi znaczący wpływ ma stopień wykorzystania sprzętu IT. Jednak chociaż wirtualizacja i cloud computing przyczyniają się do zmniejszenia liczby fizycznych serwerów, to zużycie energii wcale nie zmalało, a nawet może rosnąć, gdyż klienci próbują upakować większą moc obliczeniową oraz wydajniejsze i pojemniejsze pamięci masowe na mniejszej powierzchni.

Dlatego tak ważny w całkowitych kosztach utrzymania centrum danych i serwerowni staje się udział energii pobieranej przez systemy zasilania i chłodzenia, a najskuteczniejszym sposobem na poprawę efektywności energetycznej staje się optymalizacja działania tego rodzaju infrastruktury. Oczywiście, najbardziej efektywne będą nowe obiekty, które od początku można projektować z myślą o ograniczaniu kosztów eksploatacji.

Efektywność energetyczna jest mierzona współczynnikiem Power Usage Effectiveness, który określa stosunek całkowitej energii dostarczanej do data center do energii zużywanej wyłącznie przez sprzęt IT. PUE o wartości 2 oznacza, że na każdą 1  kWh zużytą przez serwery, pamięci masowe, sprzęt sieciowy itp., jest potrzebna dodatkowa 1  kWh do działania infrastruktury centrum danych. Tak to wygląda w starszych obiektach, bo w budowanych obecnie projektanci starają się o to, by PUE było poziomie 1,3, a nawet niższym.