Obecnie klienci z jednej strony liczą się z każdą złotówką i ograniczanie budżetów stało się normą, z drugiej wiedzą, że koszty przestoju i konsekwencje braku ciągłości są dziś dla biznesu dużo większe niż jeszcze niedawno. To doprowadziło do sytuacji, w której rośnie zainteresowanie skutecznymi narzędziami do zarządzania infrastrukturą centrum danych. Pomagają one utrzymać odpowiednią dyscyplinę w planowaniu i wykorzystywaniu zasobów, a przy tym dają gwarancję nieprzerwanego świadczenia usług. Tym samym stają się dla integratora szansą na poważne zwiększenie dochodów.

Wdrożenie sprzętu i oprogramowania w centrum danych to dopiero pierwszy krok na drodze do jego produktywnego działania, często ten mniej skomplikowany. Następnym etapem jest uruchomienie rozmaitych narzędzi, które sprawią, że data center będzie pracować tak wydajnie, jak to tylko możliwe, bezproblemowo obsługując wielu klientów – wewnętrznych i zewnętrznych.

W centrum danych siłą wiążącą w jeden organizm wszystkie migające diodami szafy – pełne serwerów, pamięci masowych, sprzętu sieciowego i zasilającego – jest oprogramowanie. Dba ono o to, aby wszystko ze sobą współpracowało jak najbardziej efektywnie, dostarczając administratorom informacje ułatwiające zarządzanie całym środowiskiem i pomagające w optymalizacji kosztów. Narzędzia te mogą być dostępne w postaci prostszych aplikacji, służących do wyłączania lub resetowania poszczególnych elementów serwerowni, ale mogą również stanowić w pełni funkcjonalną, bardzo zaawansowaną platformę do zarządzania całą infrastrukturą.

Niektóre z tych narzędzi monitorują centrum danych, aby zapewnić właściwe chłodzenie i oczekiwane zużycie energii. Inne ostrzegają o potencjalnych problemach i radzą sobie z nimi automatycznie albo sugerują określone rozwiązania, zapobiegające przykrym konsekwencjom. Wiele z nich należy do aplikacji określanych mianem…

 
 
…Data Center Infrastructure Management

Analitycy z Gartnera definiują DCIM jako narzędzia, które monitorują, mierzą i zarządzają centrum danych, począwszy od poziomu chłodzenia, przez analizę stanu sprzętu informatycznego (serwerów, pamięci masowych, urządzeń sieciowych) po kontrolę komponentów infrastruktury (listew zasilania PDU, zasilaczy UPS, klimatyzatorów CRAC). Najbardziej zaawansowane platformy DCIM znajdują zastosowanie u największych dostawców usług, dysponujących dużymi centrami danych. Te mniej skomplikowane optymalizują pracę serwerowni i mniejszych centrów danych.

 

Umiejętnie wdrożona platforma DCIM daje administratorom szczegółowy wgląd we wszystkie elementy serwerowni i centrum danych, także w połączenia sieciowe zarówno z części informatycznej, jak i ze wspierającej infrastruktury fizycznej (okablowanie miedziane i światłowodowe, instalacje zasilające oraz systemy chłodzenia). Dzięki temu można identyfikować, lokalizować, wizualizować zasoby i zarządzać nimi, łatwo dodawać i uruchamiać nowe, a także w przemyślany sposób planować rozbudowę oraz konsolidację środowiska IT. Rozwiązanie DCIM zapewnia też kontrolę nad zużyciem energii, umożliwiając zwiększanie efektywności energetycznej centrum danych. Wielu klientów decyduje się na wdrożenie tego narzędzia właśnie dlatego, że dzięki niemu uzyskują informacje o tym, jak duże są koszty funkcjonującego centrum danych i z czego wynikają. Specjaliści szacują, że DCIM może pomóc obniżyć zużycie energii o 10–15 proc.

 

Wiedzieć, co na stanie

Podstawą efektywnego zarządzania jest określenie stanu posiadania. Dlatego kluczowym komponentem DCIM są aplikacje, które umożliwiają zlokalizowanie wszystkich urządzeń i pozostałych elementów infrastruktury oraz zgromadzenie szczegółowych informacji o konfiguracji każdego fizycznego serwera. Odpowiadają na pytanie, jakie maszyny wirtualne są na nim uruchomione i w jaki sposób jest doprowadzone zasilanie. To kluczowa funkcja, która pozwala uniknąć nagłych przerw w działaniu najważniejszych dla firmy aplikacji. Takie przerwy mogą się zdarzyć w wyniku błędnego odłączenia jednej z listew zasilających, czy któregoś z przełączników sieciowych lub konkretnego routera. Bo to nie awarie są najczęstszą przyczyną nieoczekiwanych przestojów, ale źle przeprowadzone zmiany w systemie. Wykrywając, jakie są relacje między poszczególnymi elementami infrastruktury, DCIM umożliwia stworzenie precyzyjnego graficznego modelu centrum danych.

Narzędzia DCIM zapewniają monitoring infrastruktury w czasie rzeczywistym. Generują raporty i natychmiastowe powiadomienia o błędach, które mogą mieć wpływ na dostępność systemu IT. Ponieważ platforma do zarządzania infrastrukturą może być wdrażana etapami, na początek dobrze jest uruchomić w centrum danych właśnie monitoring w czasie rzeczywistym. Jeśli zostaną przekroczone założone, krytyczne parametry, nastąpi aktywacja alarmu.

Rozwiązania DCIM nie mają jeszcze długiej historii i wciąż są dopracowywanie. Według analityków rynek ten jest bardzo perspektywiczny i będzie się szybko rozwijał. Obecnie DCIM to z jednej strony zaawansowane, wielofunkcyjne platformy największych graczy na rynku, takie jak: APC StruxureWare, BMC Nlyte, CA DCIM, Emerson/Trellis, HP Asset Manager czy iTracsCPIM. Z drugiej jest wiele narzędzi o konkretnych, wybranych funkcjach, które są oferowane przez mniejszych producentów oprogramowania i dostawców infrastruktury do centrum danych.

Tomasz Laszuk

prezes zarządu InfoLAN

Jako integrator korzystamy z własnego centrum danych, w którym świadczymy część usług klientom. Widzimy zainteresowanie hostingiem i kolokacją głównie wśród małych i średnich firm. W dzisiejszych czasach nie opłaca się im budować własnej infrastruktury, bo zdecydowanie taniej wychodzi wynająć ją od przedsiębiorstwa, które jest w stanie uzyskać pewien efekt skali. Podczas tworzenia takiego centrum danych ważne jest natomiast, by „logicznie” zintegrować je z systemami klienta, dzięki czemu fakt przechowywania danych na zewnątrz nie będzie powodował dla pracowników żadnych niedogodności.

 
Sieci sterowane programowo

Nie tylko w centrum danych gwałtownie rośnie potrzeba szybkiego reagowania na zmiany i dostosowywania się do nich. Ponieważ takim wymaganiom nie potrafią sprostać tradycyjne sieci komputerowe, stopniowo urzeczywistnia się wizja sieci sterowanych programowo – Software Defined Networking.

SDN jest formą wirtualizacji sieci, w której mechanizmy sterowania są odseparowane od mechanizmów transmisji danych i wbudowane w oprogramowanie umożliwiające kontrolę nad wieloma urządzeniami sieciowymi, tak jakby stanowiły jeden element infrastruktury. Taka architektura daje administratorom programowalne mechanizmy kontroli nad ruchem sieciowym, oferuje wielkie możliwości jego kształtowania i dostosowywania do szybko zmieniających się potrzeb aplikacji i użytkowników. Architektura Software Defined Networking i jej otwartość stają się szansą nie tylko dla integratorów, ale i dla twórców aplikacji, którzy będą mogli precyzyjnie budować, skalować, przebudowywać i integrować różne rozwiązania.

Analitycy widzą coraz większe możliwości zastosowania SDN w najbliższych latach, zarówno u dostawców usług w chmurze, jak i w sieciach korporacyjnych. Będzie to stymulowane przez te firmy i instytucje, które borykają się z problemami sieciowymi, związanymi z bezpieczeństwem, wydajnością i zarządzalnością. Ku wykorzystaniu sieci SDN będą skłaniały się także przedsiębiorstwa szukające nowych, innowacyjnych źródeł generowania dochodów. Można się spodziewać, że w dalszej perspektywie większość sieci stanie się programowo sterowana – najpierw w części, a następnie w całości. IDC przewiduje, że wartość sprzedaży sieci SDN w ciągu najbliższych czterech lat wzrośnie aż ośmiokrotnie – z 960 mln dol. w 2014 r. do ponad 8 mld dol. w 2018 r. Prognoza obejmuje cały ekosystem sieci sterowanych programowo, w tym fizyczną infrastrukturę, kontrolery, oprogramowanie do wirtualizacji sieci, rozwiązania zabezpieczające, a także powiązane z SDN aplikacje i usługi.

W ciągu kilku najbliższych lat będzie też wzrastać konkurencja na rynku SDN. Najwięksi dostawcy – Brocade, Cisco, HP, IBM czy VMware – stworzyli już strategie i oferty związane z sieciami sterowanymi programowo. Obecnie niemal każdy producent w branży sieciowej deklaruje wsparcie dla protokołu komunikacyjnego OpenFlow – rozwiązania open source, które umożliwia tworzenie środowiska SDN. Między niektórymi dostawcami rywalizacja zaczyna się zaostrzać. Na przykład Cisco i VMware dużo wysiłku wkładają w zdobycie partnerów i klientów, którzy będą podzielać ich – odmienne od siebie – wizje sieci sterowanych programowo. Cisco proponuje architekturę Application CentricInfrastructure (ACI), która łączy firmowy sprzęt i oprogramowanie. Kontrpropozycją VMware jest NSX – platforma do wirtualizacji usług sieciowych.

W sytuacji, gdy instalacje sieciowe są coraz bardziej rozbudowane i złożone oraz zwiększa się liczba centrów danych, powszechna staje się wirtualizacja serwerów i pamięci masowych, rozwija się cloud computing i coraz silniejsze są trendy mobilności i konsumeryzacji IT, sieci SDN wydają się naturalnym kierunkiem rozwoju.

 

Łukasz Bromirski

 

dyrektor sprzedaży ds. klientów strategicznych, Cisco Systems

SDN stanowi ogromną szansę dla integratorów na sprawne prowadzenie ich głównej działalności w nowej rzeczywistości. Zamiast składać rozwiązania z praktycznie gotowych elementów od paru producentów, najbardziej ambitni zaczynają wykorzystywać programowalność sieci do osadzania aplikacji własnych i obcych w lepszy i bardziej optymalny – również kosztowo – sposób. Tego zresztą oczekują użytkownicy: otwartych, prostych i intuicyjnych rozwiązań, które znają z używanych na co dzień aplikacji webowych. Budowa rozwiązań wokół SDN może oznaczać proste dodatki, ale równie dobrze stabilną platformę dla całego ekosystemu rozwiązań.