Własna serwerownia zapewnia niezależność i kontrolę nad środowiskiem IT. Integrator sam decyduje o tym, jak jest realizowany dostęp do infrastruktury. Określa, jaki powinien być poziom zabezpieczeń i sposób zarządzania serwerownią. Decyzja o inwestycji wiąże się jednak z wieloma wyzwaniami, takimi chociażby jak uzyskanie pozwoleń, przydziału mocy czy zapewnienie łączności telekomunikacyjnej. Bez wątpienia tworzenie nowego obiektu od podstaw jest zarówno czasochłonne, jak i kosztowne. Druga opcja tworzenia centrum danych to skorzystanie z gotowej oferty wyspecjalizowanych firm.

Operatorzy, zachęcając do wstawienia serwerów do ich centrów, dowodzą, że budowa własnego jest z wielu względów nieuzasadniona. Zestawiając całościowe koszty funkcjonowania centrum danych, pokazują, że kolokacja zawsze będzie rozwiązaniem bardziej efektywnym. Warszawski Atman powołuje się na analizę, którą przeprowadził wspólnie z Audytelem. Pod uwagę wzięto dwa przypadki: w pierwszym założono, że przedsiębiorstwo potrzebuje 100 mkw. powierzchni serwerowej, a w drugim obliczono nakłady inwestycyjne i koszty operacyjne dla firmy z sektora MŚP, która potrzebuje trzech szaf serwerowych. Rozważano cztery scenariusze: budowę własnego centrum danych, budowę serwerowni w budynku biurowym, dalszą eksploatację obecnej serwerowni i kolokację u zewnętrznego operatora data center. Analiza wykazała, że skala oszczędności uzyskanych dzięki kolokacji – w każdym z przypadków – jest  znacząca.

Zainwestowanie we własną infrastrukturę bywa jednak opłacalne w szczególnych przypadkach. Przykładowo, gdy serwerownia ma spełniać specyficzne potrzeby, związane chociażby z niestandardowym sprzętem, aplikacjami i parametrami. Będzie korzystne także wtedy, gdy firma jest pewna stałego i dużego obciążenia własnego centrum danych w długiej perspektywie czasu. Należy jednak pamiętać, że infrastruktura się zużywa, a to pociąga za sobą wydatki, nawet znaczne. W przypadku remontu czy regeneracji istotnych elementów serwerowni mogą też wystąpić problemy z redundancją.

Kolokacja czy chmura?

Firmom, które chcą zacząć świadczenie usług, chmura daje możliwość rozpoczęcia działania niemal od zaraz. Postawienie kilku maszyn wirtualnych, na których zostanie uruchomione rozwiązanie dla klientów – czy to będzie oprogramowanie w modelu SaaS, czy aplikacja realizująca jakieś konkretne zadanie – jest bardzo proste i nie wymaga dużych nakładów finansowych. Gdy jednak przekracza się pewien próg krytyczny i potrzeba wielu maszyn wirtualnych, opłata za usługę może okazać się znaczącym kosztem.

Należy także pamiętać, że tanie usługi chmury publicznej są tworzone na zasadach nadsubskrypcji. Jej operator może zaproponować niską cenę, bo sprzedaje wielu klientom tę samą, współużytkowaną infrastrukturę, zakładając, że nie wszyscy będą jednocześnie z niej korzystać. W przypadku, gdy integratorowi zależy na infrastrukturze, która będzie zapewniać 100 proc. mocy obliczeniowej w trybie 24/7, za usługę (która tym samym staje się hostingiem) będzie zmuszony zapłacić więcej. Bywa też, że infrastruktura chmurowa uniemożliwia uruchomienie aplikacji starszego typu, niedostosowanych do działania w tego typu środowisku. Wtedy kolokacja własnych serwerów może okazać się lepszym rozwiązaniem.

 

Aż 70 procent taniej?

Zarówno warszawski Atman, jak i poznański Beyond.pl twierdzą, że firmy korzystające z profesjonalnego centrum danych wydają dużo mniej niż gdyby utrzymywały własne. Specjaliści Atmana dowodzą, że w przypadku małych i średnich firm outsourcing centrum danych może dać oszczędności rzędu 70 proc. kosztów inwestycji we własne centrum danych (i to zarówno, jeśli chodzi o rozbudowę własnej serwerowni, jak i adaptację budynku biurowego dla nowej placówki). Na oszczędności ma wpływ m.in. fakt, że w przypadku kolokacji klient zaczyna korzystać z nowoczesnej infrastruktury niemal natychmiast. Tańszy jest też zakup energii elektrycznej, bo duży obiekt może negocjować ceny ze względu na skalę prowadzonej działalności. Mniejsze są także koszty utrzymania infrastruktury i potrzebnego do jej obsługi  personelu, bo rozkładają się na wszystkich klientów centrum danych.

Według Beyond.pl pierwszym czynnikiem wpływającym na tak duże obniżenie kosztów jest infrastruktura. Zastosowane technologie przyczyniają się do mniejszego zużycia energii elektrycznej. Przykładowe rozwiązania, które wykorzystują duże centra danych, to: chłodzenie adiabatyczne, system zasilania awaryjnego Diesel Rotary UPS, żelbetonowa konstrukcja budynku, ułatwiająca utrzymanie niskiej temperatury oraz mechanizmy usprawniające usuwanie ciepła generowanego przez serwery. Do tego dochodzi kompleksowość usług.

Zdaniem operatorów

Robert Mikołajski, kierownik Działu Rozwoju Biznesu, Atman

Jeśli weźmiemy pod uwagę całościowe koszty funkcjonowania centrum danych, a więc wydatki na infrastrukturę i jej modernizację, koszty utrzymywania obiektu, energii elektrycznej i wynagrodzenia pracowników, okaże się, że kolokacja zawsze będzie efektywniejszym rozwiązaniem niż własna serwerownia. Z obliczeń Atmana, przeprowadzonych we współpracy z Audytelem, wynika, że na przestrzeni 20 lat outsourcing będzie niemal dwukrotnie tańszy w porównaniu do inwestycji we własne centrum danych o powierzchni 100 mkw.

Maciej Madziała, IT Soultions Architect, Beyond.pl

Zdecydowaliśmy się na certyfikację centrum danych, ponieważ tego typu oficjalne dokumenty określają precyzyjnie standard obiektu. Pozwalają także klientowi na porównanie ofert, dając pojęcie o warunkach, w jakich będą przechowywane jego dane. Wybraliśmy standaryzację według niezależnej międzynarodowej instytucji, jaką jest American National Standards Institute, bo to najbardziej szczegółowy audyt w tej branży. Certyfikacja dotycząca ANSI/TIA-942 polegała na weryfikacji ponad 2,6 tys. różnych wymogów.

Zbigniew Szkaradnik, prezes zarządu,

3S Data CenterKolokacja jest, zwłaszcza dla małych i średnich podmiotów, rozwiązaniem technicznie lepszym, bardziej niezawodnym i na dodatek tańszym niż własna serwerownia. Zbudowanie własnego centrum danych może być opłacalne w przypadku wielkich korporacji lub dużych banków. Wybór zależy więc od skali, kapitału, uwarunkowań prawnych, czasu potrzebnego na budowę obiektu oraz ryzyka biznesowego. Rachunki pokazują, że o budowie własnego centrum danych nie warto myśleć, jeśli ma mieścić mniej niż 50 szaf serwerowych i musi być uruchomione w czasie krótszym niż dwa lata.

 

– Oferujemy kolokację, serwery dedykowane oraz dwa rodzaje chmury. Dzięki temu możliwe jest budowanie środowisk hybrydowych z wykorzystaniem rozwiązań jednego dostawcy, co przekłada się na atrakcyjną cenę – twierdzi Maciej Madziała, IT Soultions Architect w Beyond.pl.

Ważna jest też neutralność telekomunikacyjna centrum danych, która daje możliwość negocjacji cen z operatorami. Na przykład w przypadku centrów danych Beyond.pl każdy operator telekomunikacyjny może oferować swoje usługi, a decyzję odnośnie do wyboru podejmuje klient. Także Atman w swoim warszawskim obiekcie wprowadził możliwość przyłączenia się do wielu operatorów na jednakowych dla wszystkich zasadach.

Dla obniżenia kosztów w przypadku korzystania z zewnętrznego centrum danych niebagatelne znaczenie mają również specjaliści, którzy wspierają klientów w administrowaniu środowiskami. W efekcie firmy nie muszą zatrudniać nowych pracowników do działu IT.

 

Co cenią integratorzy

Operatorzy potwierdzają, że integratorzy – jako klienci centrów danych – najczęściej korzystają z oferty kolokacji. Gdy umieszczą własne serwery w profesjonalnym otoczeniu technicznym, mają zapewnione bezpieczeństwo fizyczne, energetyczne i pełne spektrum łączy telekomunikacyjnych. Zakres wykorzystania usługi jest różny – od wydzielonego całego pomieszczenia (które w zasadzie staje się samodzielnym centrum danych), przez kilka szaf, po przestrzeń w pojedynczej szafie – najczęściej wielokrotność jednostki U.

Firmy IT wolą kolokację od hostingu, czyli wykorzystania infrastruktury serwerowej operatora. Bo choć w takim przypadku muszą kupić własny sprzęt, korzystają na mniejszych ograniczeniach technicznych. Kolokacja daje im także możliwość zdobycia klientów, dla których świadczone przez operatora usługi hostingowe, polegające na konfigurowaniu maszyn przy użyciu gotowych szablonów na stronie internetowej, są daleko niewystarczające. Uruchamiając na własnych serwerach hosting dla klientów, integrator tworzy zazwyczaj bardziej spersonalizowane rozwiązania (także hybrydowe, czyli połączone z infrastrukturą klienta) i dzięki temu lepiej na takich usługach zarabia.

Za skorzystaniem z hostingu przemawia natomiast uzyskanie większej elastyczności działania i szybkości reagowania na zmiany. Przejawiać się to może dodawaniem różnych usług operatora do usług własnych, co prowadzi do stworzenia zróżnicowanej i bardziej kompleksowej oferty. W profesjonalnym centrum danych integrator zyskuje dostęp do najnowszych technologii i know-how usługodawcy, który zapewnia mu ciągłość biznesu (dzięki redundancji), a także umożliwia spełnienie wymagań określonych przez przepisy prawne i regulacje branżowe.

 

Zapasowe centrum danych

Określenie zapasowe centrum danych ma różne znaczenia. Może to być jedynie bezpieczne miejsce przechowywania kopii danych albo zapasowe środowisko IT (infrastruktura), umożliwiające podjęcie po pewnym, niezbyt długim czasie normalnej działalności w razie uszkodzenia lub zniszczenia podstawowych zasobów IT.

– Może to być także infrastruktura działająca równolegle z tą podstawową, która jest wykorzystywana w firmie. Wówczas awaria jednego ośrodka powoduje najwyżej spowolnienie pracy systemów IT – podkreśla Zbigniew Szkaradnik, prezes zarządu 3S Data Center.

 

Wybór rodzaju zapasowego centrum danych zależy od celu, jaki ma ono spełniać. Między kolokacją i chmurą publiczną – dwoma skrajnymi rozwiązaniami – znajduje się wiele rozwiązań pośrednich, np. wynajem infrastruktury serwerowej (serwery dedykowane) oraz chmura prywatna.

Kolokacja to metoda wybierana przez tych, którzy chcą polegać na własnym sprzęcie i – przynajmniej na razie – wykluczają opcję skorzystania z rozwiązań centrum zapasowego w chmurze publicznej. Wrażliwe na te kwestie są szczególnie sektory: bankowo-finansowy, ubezpieczeniowy i administracja państwowa.

W przypadku tworzenia zapasowego centrum danych przy użyciu kolokacji oferta operatów często jest wzbogacana o specjalne łącza między centrum podstawowym a zapasowym. W takim rozwiązaniu bardzo duże znaczenie ma odległość między obydwoma ośrodkami przetwarzania danych. Jeśli zastosowane rozwiązanie ma pracować w trybie active-active, najczęściej odległość nie może przekraczać 30 km.

 

Centrum w chmurze

Inna opcja polega na budowie zapasowego centrum danych w chmurze publicznej lub prywatnej. Rozwiązanie to jest dobre dla przedsiębiorstw, które potrzebują redundancji przy jak najmniejszym zaangażowaniu operacyjnym. W tym wypadku nie trzeba łączyć ośrodków przetwarzania danych za pomocą specjalnych łączy telekomunikacyjnych ani zatrudniać specjalistów utrzymujących infrastrukturę IT. Rozwiązanie charakteryzuje się niską barierą wejścia i możliwością uruchomienia praktycznie z dnia na dzień.

Wadą zapasowego centrum danych w chmurze jest to, że nie wszystkie scenariusze redundancji można zrealizować, a przy bardziej złożonych systemach (szczególnie starszych i specyficznych) potrzebna będzie przebudowa firmowej architektury. Może się też okazać, że w ten sposób uda się zabezpieczyć tylko część procesów przetwarzania danych.

– Jednak w większości przypadków chmura publiczna jest dobrym wyborem, a dla backupu ważnych danych chyba nie ma lepszego rozwiązania, jeśli weźmiemy pod uwagę elastyczność i nakłady finansowe, jakie trzeba ponieść, by móc z niego skorzystać – twierdzi Adam Dzielnicki, Product Manager w Atmanie.

Firmy, które oczekują bardziej indywidualnego podejścia, chętniej wybierają chmurę prywatną, czyli system szyty na miarę. Wiele przedsiębiorstw wybiera rozwiązanie hybrydowe, które zakłada także wsparcie w warstwie operacyjnej.

Aby w pełni wykorzystać możliwości oferty operatora – w zakresie kolokacji, hostingu czy usług chmurowych – firma IT potrzebuje odpowiednio wydajnej sieci. Także stosowanie wirtualizacji i konsolidacji powoduje, że rośnie zapotrzebowanie na infrastrukturę sieciową, w której nie będzie dochodziło do tworzenia się wąskich gardeł i powstawania wpływających na jakość usług opóźnień. Dlatego ważne jest, aby być na bieżąco z ofertą firm sprzedających rozwiązania do kontroli jakości transmisji oraz narzędzia do monitorowania infrastruktury sieciowej, które służą do identyfikowania i rozwiązywania ewentualnych problemów.