Wraz ze wzrostem popularności chmury publicznej coraz częściej pojawiają się prognozy, jakoby infrastruktura lokalna odchodziła w przeszłość. Tymczasem każdy dostawca sprzętu i oprogramowania mówi dziś to samo: przyszłość chmury jest hybrydowa. Choć stale rozwijana jest oferta chmury publicznej, przedsiębiorstwa wciąż będą chciały uruchamiać własną infrastrukturę i po swojemu obsługiwać wybrane procesy biznesowe. Z tego powodu firmowe centrum danych pozostanie ważną częścią świata IT. Z jednym zastrzeżeniem: ponieważ technologie mocno ewoluują, zmienia się też sposób korzystania z data center.

To, że chmura publiczna nie „weźmie” wszystkiego, zwiększa możliwości graczy w kanale sprzedaży IT. W przyszłości rola integratorów nie ograniczy się jedynie do bycia brokerami usług cloud. Jednak, gdy trzeba łączyć różne światy, zwiększa się skomplikowanie środowiska IT. Jego wdrożenie staje się trudniejsze, a klienci będą dla infrastruktury on-premise wymagać poziomu obsługi porównywalnego z tym, jaki dostają w przypadku chmury publicznej. Dodatkowo sprawy nie ułatwiają coraz ważniejsze kwestie dotyczące prywatności danych i zagrożeń związanych z cyberbezpieczeństwem. Nie można też zapominać o rozwoju nowych technologii, takich jak Internet rzeczy, Big Data czy sztuczna inteligencja, które trzeba będzie uwzględnić w konstruowaniu oferty odpowiadającej dzisiejszym i przyszłym potrzebom klientów.

Co niezwykle istotne, analitycy z Gartnera przewidują, że do 2022 r. aż 75 proc. danych wykorzystywanych przez przedsiębiorstwa będzie generowanych i przetwarzanych poza tradycyjnym głównym centrum danych i chmurą (w 2018 r. było to mniej niż 10 proc.). Aby nadążyć za zmianami, dostawcy i ich partnerzy powinni się bardziej koncentrować na potrzebach zdalnych biur i infrastruktury  brzegowej (edge computing).

Po nowemu, ale cel pozostaje ten sam

Przez lata centrum danych podlegało ewolucji, która bardzo odmieniła jego oblicze. Grzegorz Dobrowolski, dyrektor sprzedaży rozwiązań Data Center i Enterprise Networking w Cisco, zauważa, że gdybyśmy cofnęli się w czasie jakieś 15 lat, to znaleźlibyśmy się w świecie, gdzie rozwiązania komputerowe używane przez przedsiębiorstwa były stosunkowo proste i sprowadzały się do serwerów szafowych z systemami operacyjnymi, w których uruchamiano aplikacje. Wprowadzenie procesorów wielordzeniowych w połowie pierwszej dekady XXI wieku stworzyło możliwości wirtualizacji infrastruktury. Następnie pojawiło się przetwarzanie w chmurze oraz całkowicie nowa generacja systemów zoptymalizowanych pod kątem rozbudowy środowisk.

W dzisiejszych realiach biznesowych trudno traktować chmurę jako osobny byt, działający w oderwaniu od pozostałych zasobów IT. To ewolucja w dostarczaniu infrastruktury, mocy obliczeniowej i przestrzeni do przechowywania informacji. Co więcej, organizacje coraz częściej decydują się nie tylko na migrację do modelu cloud, ale także na implementację środowiska multi cloud, łączącego wiele usług chmurowych pochodzących od różnych dostawców.

Wobec biznesu stwarza to liczne wyzwania, związane m.in. z efektywnym zarządzaniem, a przede wszystkim bezpieczeństwem danych – mówi Grzegorz Dobrowolski z polskiego oddziału Cisco.

Bez względu na duże zmiany rola infrastruktury centrum danych, także połączonej z chmurą, wciąż pozostaje ta sama. Ma ona umożliwiać przedsiębiorstwom przetwarzanie i przechowywanie dużych ilości danych oraz uruchamianie aplikacji o znaczeniu krytycznym. Przy czym jej potencjał jest coraz większy. Przykładowo nowy serwer o takich samych wymiarach jak model poprzedniej generacji może zapewnić kilka razy większą moc obliczeniową, zużywając jednocześnie tylko połowę energii. W przypadku pamięci masowych wielkie korzyści daje zastosowanie nośników z pamięcią flash. W rezultacie nowe technologie są wprowadzane o wiele szybciej niż kiedyś. Dzięki temu rośnie prawdopodobieństwo nakłonienia klientów do zakupu nowych systemów, w przypadku których efektywność energetyczna staje się równie ważna jak wydajność.

 

Zmienia się model działania systemów IT, a serwery, pamięci masowe, sieci, zasilanie i chłodzenie są projektowane oraz wdrażane w taki sposób, by minimalizować koszty poprzez eliminowanie manualnej obsługi infrastruktury. Automatyzacja procesów, zwiększenie poziomu bezpieczeństwa oraz ułatwione zarządzanie – to podstawowe profity wynikające z użycia nowych technologii w centrum danych. Dodatkowo, dzięki zastosowaniu analityki, łatwiejsze staje się uzyskanie w czasie rzeczywistym wglądu w działanie poszczególnych jego elementów.

Wiele chmur do łączenia

Nie ma wątpliwości, że bogata oferta rozwiązań chmurowych cieszy się coraz większym zainteresowaniem. Możliwość szybkiego uruchomienia przetwarzania, kontrola kosztów oraz dostosowanie do zmian obciążenia powodują, że coraz więcej przedsiębiorstw rozważa migrację jakiejś części swojego środowiska IT do chmury.

Często jednak pomija się takie aspekty, jak możliwość powrotu z chmury, czasochłonność i koszty zarządzania zmianą. Dlatego kluczowe jest właściwe przygotowanie do korzystania z cloud computingu – mówi Wojciech Wolas, dyrektor sprzedaży w sektorze Bankowość i Finanse w Dell Technologies.

Powinno być ono efektem analizy wykorzystywanych aplikacji, przetwarzanych danych i planów rozwoju przedsiębiorstw. Czasami optymalnym, najbardziej efektywnym rozwiązaniem jest przetwarzanie kluczowych danych lokalnie i współpraca z wieloma dostawcami chmury, jednymi specjalizującymi się w usługach typu IaaS (czyli wynajem mocy obliczeniowej i przestrzeni dyskowej lub archiwum), a drugimi w SaaS (np. poczta, CRM, systemy F/K, systemy HR, analiza Big Data czy machine learning). IT staje się wtedy dostawcą usług własnych i brokerem wszystkich usług (wewnętrznych i zewnętrznych), zapewniając dobór parametrów i kosztów optymalizowanych zgodnie z potrzebami biznesu.

Przenosząc się do chmury, przedsiębiorstwa nie zrezygnują z kontroli nad swoim IT. Będą w dalszym ciągu korzystać z lokalnych centrów danych, świadczących te usługi, które są zbyt ważne, by oddać je w obce ręce. Coraz częściej wdrażana będzie infrastruktura chmury prywatnej (według IDC ponad 28 proc. wydatków związanych z cloud computingiem dotyczy tej formy chmury). Rozwiązania umożliwiające tworzenie środowisk hybrydowych (takie jak np. Azure Stack) będą wykorzystywane do dostarczania usług z chmury bez wyprowadzania danych ze środowiska kontrolowanego przez firmę. W razie potrzeby w użyciu będzie chmura publiczna. Wszystko działać powinno w taki sposób, by użytkownicy końcowi nie musieli się zastanawiać, skąd pochodzą ich usługi.

Zdaniem integratora

Roman Szwed, prezes Atende

W naszych działaniach integratorskich uwzględniamy od dawna usługi z chmury, traktując je jako element kompleksowych rozwiązań przynoszących wymierne korzyści klientom. Nie konkurujemy z tanimi i łatwo dostępnymi rozwiązaniami potentatów światowych, ale oferujemy usługi o dużej wartości dodanej, których nie mają inni. Stawiamy na rozwój usług profesjonalnych, w tym świadczonych z własnej chmury albo z chmury globalnych partnerów. Zaspokajają one np. specyficzne potrzeby polskiej ochrony zdrowia, operatorów telewizji internetowej i mogą służyć do wielu innych zastosowań. Najnowszym przykładem są usługi chmurowe oparte na naszym produkcie ChainDoc, który rozwiązuje problem trwałego nośnika i wspiera proces przejścia do modelu „paper less” bazujący na technologii blockchain. Rozważnie wybieramy obszary, w których oferujemy własne rozwiązania chmurowe, tak żeby atrakcyjny model dostarczania usługi szedł w parze z funkcjonalnością naszych rozwiązań.

 

Zdaniem specjalisty

Dariusz Dobkowski, dyrektor sprzedaży rozwiązań Data Center, Huawei Enterprise Polska

Jednym z najważniejszych trendów w nowoczesnych centrach danych jest upowszechnianie się rozwiązań flash, które ostatnio, dzięki znacznemu obniżeniu ich kosztów, zyskały na popularności. W tym kontekście warto wspomnieć o architekturze NVMe, która znacznie skraca i upraszcza komunikację pomiędzy procesorami a dyskami w macierzy, wpływając na poprawę wydajności i minimalizację opóźnień. Ze względu na swoją konstrukcję macierze all-flash są w stanie zapewnić niezawodność na poziomie 99,9999 proc., co przekłada się na ok. 31 s przestoju w skali roku.

Wojciech Wolas, dyrektor sprzedaży w sektorze Bankowość i Finanse, Dell Technologies

W ostatnich latach obserwujemy bardzo szybki rozwój architektur i rozwiązań stosowanych w centrum danych. Wynika on nie tylko z postępu w technologiach informatycznych oraz lawinowego przyrostu przetwarzanych danych, ale również ze zmiany modelu dostarczania usług IT i ich wykorzystania przez przedsiębiorstwa. Pomijając kwestie optymalizacji wykorzystania energii elektrycznej oraz chłodzenia, do najbardziej widocznych trendów w rozwoju centrów danych należy zaliczyć edge computing, hiperkonwergencję, wzrost wykorzystania technologii flash oraz środowisk wielochmurowych.

Małgorzata Kasperska, wiceprezes Działu ITD, Schneider Electric

Ubiegły rok pokazał, że centra danych nie tylko powinny dążyć do optymalizacji, ale zostaną do tego niejako zmuszone. Proces ten stanowi duże wyzwanie ze względu na obciążenia IT i zewnętrzne warunki otoczenia przedsiębiorstwa – zmieniają się one dynamicznie i czasami są zupełnie nieprzewidywalne. W efekcie opcje znacząco poprawiające wydajność operacyjną centrów danych są ograniczone. Z pomocą przychodzi sztuczna inteligencja, która według danych Gartnera do 2025 roku ma stać się fundamentem systemów informatycznych. Będzie ona w stanie optymalizować centra danych w czasie rzeczywistym, bez konieczności angażowania pracowników.

Piotr Wojciechowski, Engineering Manager, Vertiv

Jeśli systemy zasilania gwarantowanego osiągają sprawność w trybie VFI na poziomie 96,5 proc., systemy klimatyzacji działają z rocznym pPUE < 1,10, a wyliczenia dostępności centrów danych pokazują ponad 99,99 proc., to mogłoby się wydawać, że niewiele już da się zrobić. Jednak nowe, zaawansowane technologie potrafią zaskoczyć, gdyż oferują jeszcze więcej korzyści w zakresie wydajności i obniżania kosztów TCO. Na polskim rynku potrzeba tylko trochę więcej odwagi, decyzyjności i zaufania, by je wprowadzić i w pełni wykorzystać, zanim zastąpi się je nowszymi, –jeszcze doskonalszymi.

Grzegorz Dobrowolski, dyrektor sprzedaży rozwiązań Data Center i Enterprise Networking, Cisco

Pamiętajmy, że sama technologia to nie wszystko. Równie istotny jest doświadczony zespół wdrożeniowy. Ważną rolę odgrywa także wsparcie biznesu już na etapie planowania wdrożenia środowiska multi cloud oraz przyśpieszenie i zapewnienie bezpieczeństwa procesu migracji zasobów. Nie mniej istotne jest umożliwienie bezpiecznego przejścia od sieci prywatnych do chmury przy jednoczesnym utrzymaniu komfortu korzystania z aplikacji firmowych.

 

Programowo definiowane i hiperkonwergentne

Z pojęciem programowo definiowanego centrum danych (Software Defined Data Center) oswajamy się już od kilku dobrych lat. O ile wcześniej było ono dość egzotyczne, to obecnie możemy obserwować, jak w coraz większym stopniu (głównie za sprawą hiperkonwergencji) idea jest wcielana w życie. W SDDC cała infrastruktura IT jest zwirtualizowana i dostarczana jako usługa. Wdrażanie, provisioning, monitorowanie i zarządzanie zasobami centrum danych odbywa się za pomocą oprogramowania zapewniającego automatyzację procesów i obsługującego zarówno nowe, jak i starsze aplikacje. SDDC ułatwiają ograniczanie nakładów inwestycyjnych (CAPEX) i wydatków operacyjnych (OPEX), zwiększając wydajność, sprawność, kontrolę i elastyczność centrów danych.

Dlatego bazowanie na oprogramowaniu SDDC będzie standardowym modelem działania centrum danych, zarówno w przypadku obiektów nowych, jak i tych, które już funkcjonują (także w starszych środowiskach priorytetem będzie możliwość tworzenia i dodawania usług na żądanie). W rezultacie w centrach danych będzie więcej infrastruktury hiperkonwergentnej i komponowalnej (composable) oraz sieci i pamięci masowych definiowanych programowo.

Zwłaszcza rozwiązania HCI (Hyper-Converged Infrastructure) są coraz częściej wybierane przez klientów. Hiperkonwergencja realizuje postulaty SDDC, umożliwiając wdrażanie zaawansowanych rozwiązań chmury prywatnej i hybrydowej na bazie programowo definiowanych komponentów – mocy obliczeniowej, podsystemów dyskowych i sieci. W przeważającej większości są to urządzenia bazujące na popularnych platformach x86, wyposażone w dużą ilość pamięci RAM i wiele dysków, zapewniające łatwą skalowalność całego systemu. Ich zaletą jest również możliwość zarządzania za pomocą jednej konsoli i integracji z wirtualizatorem.

– Dzięki temu HCI doskonale sprawdza się jako platforma do budowania rozwiązań takich jak: chmura hybrydowa oraz prywatna, wyniesione ośrodki przetwarzania czy w pełni zintegrowane platformy stworzone z myślą o konkretnych rozwiązaniach, np. VMware Ready Systems, Virtual Desktop Infrastructure czy Azure Stack – mówi Wojciech Wolas.

W rezultacie elementy infrastruktury hiperkonwergentnej dojrzewają a popyt rośnie, w miarę jak klienci rezygnują z oddzielnych rozwiązań z zakresu pamięci masowej, serwerów i sieci na rzecz integracji, jaką zapewnia HCI. Nowa technologia odświeża centra danych, zaspokajając potrzeby ich użytkowników w zakresie zwiększenia prostoty, elastyczności i hybrydowości we wdrażaniu infrastruktury.

 

Coraz większe wykorzystanie SSD

Rozwój technologii flash jest najbardziej widoczny w podsystemach pamięci masowych. Dyski SSD zrewolucjonizowały architekturę macierzy dyskowych, upraszczając ich budowę przy jednoczesnym zwiększeniu wydajności, skróceniu czasu odpowiedzi, zmniejszeniu awaryjności (ograniczenie ruchomych elementów) i zapotrzebowania na energię elektryczną.

Dlatego dla klientów korzystających z aplikacji wymagających dużej wydajności – od baz danych po sztuczną inteligencję – pamięć masowa flash staje się rozwiązaniem pierwszego wyboru. Tym bardziej że koszty nie stanowią już bariery trudnej do pokonania. W segmencie dysków SSD dla przedsiębiorstw spadek cen jest przede wszystkim rezultatem coraz ostrzejszej konkurencji między dostawcami. Zdaniem analityków z DRAM eXchange ich walka w bieżącym roku przybierze na sile, dlatego – mimo rosnącego zapotrzebowania na serwery – ceny SSD klasy enterprise zmniejszą się nawet bardziej niż w przypadku wyraźnie taniejących podzespołów konsumenckich.

Producenci wprowadzają na rynek nowe generacje wydajnych serwerów i pamięci masowych z bardzo szybkimi nośnikami NVMe (Non-Volatile Memory Express) oraz oprogramowanie, które ma za zadanie zwiększyć niezawodność pamięci flash, ich dostępność i efektywność. Można wręcz zaryzykować stwierdzenie, że rozpoczyna się boom na wszystkie rodzaje pamięci flash. Zdaniem analityków wykorzystanie macierzy All-Flash Array (AFA) i Hybrid Flash Array (HFA) będzie w roku bieżącym i następnych latach szybko rosło (AFA szybciej niż HFA).

Wojciech Wolas zwraca uwagę na zastosowanie pamięci flash jako tańszego i pojemniejszego rozszerzenia pamięci RAM wykorzystującego technologię Intel Optane.

W systemach bazujących na architekturze x86 rozwiązania te zapewniają uzyskanie wydajności zarezerwowanej do tej pory głównie dla drogich i wieloprocesorowych platform – mówi specjalista z Della.

Centra danych bardziej rozproszone

Firmowe centra danych nie są przeżytkiem – realizują dotychczasowe zadania, które nie przestają być ważne. W wielu przypadkach będzie się jednak odchodzić od centralizacji obciążeń IT, przenosząc je do mniejszych obiektów tworzonych w lokalnych biurach lub oddziałach. W konsekwencji powstawać będzie rozproszona architektura data center, w której przetwarzanie może być realizowane „bliżej” użytkowników czy aplikacji.

Jeśli przybywać będzie połączonych z siecią urządzeń, dla wielu aplikacji problemem staną się opóźnienia w transmisji danych, jak również zbyt niska przepustowość łącza oraz regulacje prawne. Wiele zadań wymaga przetwarzania w czasie rzeczywistym, którego architektura chmury nie jest w stanie zapewnić. Edge computing to sposób na odciążenie centralnych ośrodków i uniknięcie kłopotów z przetwarzaniem danych. Przykładowo w sieci sklepów, w której zastosuje się ten model, każda placówka ma własne, niezależne centrum danych. Nawet jeśli główny system ulegnie awarii, markety mogą nadal obsługiwać klientów.

Edge computing ma ogromny potencjał, ale należy zauważyć, że nie jest alternatywą dla systemów centralnego przetwarzania danych. Uzupełnia i rozszerza ich możliwości, zwiększa efektywność działania poprzez połączenie ze środowiskami o rozproszonym charakterze – mówi Małgorzata Kasperska, wiceprezes Działu ITD w Schneider Electric.

Ważnym polem zastosowań tej koncepcji jest Internet rzeczy, gdzie gigabajty albo nawet terabajty danych zbieranych z czujników, różnego rodzaju urządzeń czy koncentratorów IoT mogą być wstępnie przetwarzane i agregowane na brzegu sieci. Następnie w formie skonsolidowanej przesyłane są do głównego data center albo bezpośrednio do chmury, co oszczędza pasmo sieci WAN i odciąża główne centrum danych. Rozwiązania, które wspomagają takie rozproszone przetwarzanie, to np. hiperkonwergencja i SD-WAN. Umożliwiają one automatyzowanie zarządzania lokalną mocą obliczeniową, podsystemami storage czy siecią, ułatwiając przy tym zdalne utrzymanie i centralne administrowanie data center.

Ponieważ Internet rzeczy będzie się szybko rozwijał, zbierając ogromne ilości danych na brzegu sieci, centra danych muszą się wraz z nim skalować. Przybywające zasoby będą jednak wdrażane w modelu rozproszonym, a nie centralnym.

 

Zautomatyzowana infrastruktura fizyczna

Ważnym zadaniem osób odpowiedzialnych za funkcjonowanie infrastruktury centrum danych jest zwiększanie jej efektywności poprzez wykorzystanie nowych technologii w dziedzinie chłodzenia oraz zasilania. Jednak w przeciwieństwie do innowacji opartych na oprogramowaniu, postęp w technologiach elektrycznych i mechanicznych dokonuje się wolniej. Do znaczących przełomów w zakresie zasilania i chłodzenia centrów danych dochodzi rzadziej, a nowe technologie, zanim zostaną wprowadzone, potrzebują dużo czasu, by osiągnąć na rynku masę krytyczną. Można przewidywać, że w nadchodzących latach do osiągnięcia tego stanu systematycznie dążyć będą dwa, wcale nie nowe rozwiązania.

Pierwsze to bezpośrednie chłodzenie cieczą, które – choć było wykorzystywane w systemach komputerowych od dziesięcioleci – powinno cieszyć się coraz większym zainteresowaniem w kontekście centrów danych. Odpowiada bowiem potrzebom związanym z nowymi architekturami i technologiami. Przykładowo, jeśli infrastruktura hiperkonwergentna integruje w jednym systemie i niewielkiej przestrzeni moc obliczeniową, pamięć masową i sieć, to potrzebuje wydajniejszego chłodzenia w przeliczeniu na jednostkę powierzchni. Może je zapewnić właśnie rozwiązanie wykorzystujące ciecz.

Zdaniem Grzegorza Nizińskiego, Data Center & Infrastructure business development managera w S4E, technologia DCLC (Direct Contact Liquid Cooling) znacznie przyczynia się do zmniejszenia kosztów chłodzenia.

Główną zaletą tych systemów jest stosunkowo wysoka temperatura cieczy, wynosząca około 38oC, dzięki czemu system chłodzenia może działać przez większość czasu w trybie free coolingu – mówi przedstawiciel krakowskiego VAD-a.

Podobnie jak chłodzenie cieczą, odpowiedzią na specyficzne wymagania środowisk o dużej gęstości są baterie litowo-jonowe (które są używane komercyjnie od początku lat dziewięćdziesiątych XX w.). Można spodziewać się rosnącej sprzedaży tego typu akumulatorów, które będą stopniowo zastępować baterie kwasowo-ołowiowe w systemach UPS dla centrów danych. Są one lżejsze i zajmują mniej miejsca, charakteryzują się dłuższą żywotnością (ocenianą na 10 lat), mniejszymi wymogami odnośnie do konserwacji i warunków przechowywania oraz większą elastycznością działania. Oprócz zalet mają jedną wadę – cenę. Oczekuje się jednak, że będzie ona spadać wraz ze wzrostem ich produkcji.

Także w obszarze zasilania i chłodzenia postępuje w centrum danych automatyzacja, umożliwiająca optymalizację systemów oraz likwidująca skutki niedoborów specjalistów potrafiących zarządzać infrastrukturą centrum danych.

Coraz powszechniejsze stanie się użycie zaawansowanych rozwiązań DCIM, które, wykorzystując sztuczną inteligencję, będą w optymalny sposób dobierać parametry pracy urządzeń – przewiduje Grzegorz Niziński.

Pomimo wcześniejszych wątpliwości, związanych z wdrażaniem oprogramowania do zarządzania infrastrukturą centrum danych (DCIM) i zwrotem z takiej inwestycji, platformy te zaczynają być uznawane za integralny element programowo definiowanej infrastruktury w centrum danych. Uzasadnienie zakupu rozwiązania, które będzie m.in. monitorować pobór prądu (przy użyciu takich standardów jak PUE) i ułatwiać uzyskanie wyższej efektywności energetycznej, nie powinno być w takich okolicznościach szczególnie trudne.

Rośnie też znaczenie wspomnianej sztucznej inteligencji w centrum danych. Gdy rolą działów IT przestaje być dostarczanie sprzętu, a staje się świadczenie usług „wszędzie i o każdej porze”, jest ona coraz ważniejszym elementem zarządzania. W wyniku uzyskanej dzięki niej automatyzacji zadań i redukcji błędów przedsiębiorstwa mogą rozszerzyć zakres i podnieść jakość obsługi IT bez zwiększania liczby pracowników.

 

W porównaniu z akumulatorami kwasowo-ołowiowymi baterie litowo-jonowe mają same zalety i… jedną poważną wadę – cenę. Oczekuje się jednak, że będzie ona spadać wraz ze wzrostem produkcji.