Wraz ze wzrostem popularności chmury publicznej coraz częściej pojawiają się prognozy, jakoby infrastruktura lokalna odchodziła w przeszłość. Tymczasem każdy dostawca sprzętu i oprogramowania mówi dziś to samo: przyszłość chmury jest hybrydowa. Choć stale rozwijana jest oferta chmury publicznej, przedsiębiorstwa wciąż będą chciały uruchamiać własną infrastrukturę i po swojemu obsługiwać wybrane procesy biznesowe. Z tego powodu firmowe centrum danych pozostanie ważną częścią świata IT. Z jednym zastrzeżeniem: ponieważ technologie mocno ewoluują, zmienia się też sposób korzystania z data center.

To, że chmura publiczna nie „weźmie” wszystkiego, zwiększa możliwości graczy w kanale sprzedaży IT. W przyszłości rola integratorów nie ograniczy się jedynie do bycia brokerami usług cloud. Jednak, gdy trzeba łączyć różne światy, zwiększa się skomplikowanie środowiska IT. Jego wdrożenie staje się trudniejsze, a klienci będą dla infrastruktury on-premise wymagać poziomu obsługi porównywalnego z tym, jaki dostają w przypadku chmury publicznej. Dodatkowo sprawy nie ułatwiają coraz ważniejsze kwestie dotyczące prywatności danych i zagrożeń związanych z cyberbezpieczeństwem. Nie można też zapominać o rozwoju nowych technologii, takich jak Internet rzeczy, Big Data czy sztuczna inteligencja, które trzeba będzie uwzględnić w konstruowaniu oferty odpowiadającej dzisiejszym i przyszłym potrzebom klientów.

Co niezwykle istotne, analitycy z Gartnera przewidują, że do 2022 r. aż 75 proc. danych wykorzystywanych przez przedsiębiorstwa będzie generowanych i przetwarzanych poza tradycyjnym głównym centrum danych i chmurą (w 2018 r. było to mniej niż 10 proc.). Aby nadążyć za zmianami, dostawcy i ich partnerzy powinni się bardziej koncentrować na potrzebach zdalnych biur i infrastruktury  brzegowej (edge computing).

Po nowemu, ale cel pozostaje ten sam

Przez lata centrum danych podlegało ewolucji, która bardzo odmieniła jego oblicze. Grzegorz Dobrowolski, dyrektor sprzedaży rozwiązań Data Center i Enterprise Networking w Cisco, zauważa, że gdybyśmy cofnęli się w czasie jakieś 15 lat, to znaleźlibyśmy się w świecie, gdzie rozwiązania komputerowe używane przez przedsiębiorstwa były stosunkowo proste i sprowadzały się do serwerów szafowych z systemami operacyjnymi, w których uruchamiano aplikacje. Wprowadzenie procesorów wielordzeniowych w połowie pierwszej dekady XXI wieku stworzyło możliwości wirtualizacji infrastruktury. Następnie pojawiło się przetwarzanie w chmurze oraz całkowicie nowa generacja systemów zoptymalizowanych pod kątem rozbudowy środowisk.

W dzisiejszych realiach biznesowych trudno traktować chmurę jako osobny byt, działający w oderwaniu od pozostałych zasobów IT. To ewolucja w dostarczaniu infrastruktury, mocy obliczeniowej i przestrzeni do przechowywania informacji. Co więcej, organizacje coraz częściej decydują się nie tylko na migrację do modelu cloud, ale także na implementację środowiska multi cloud, łączącego wiele usług chmurowych pochodzących od różnych dostawców.

Wobec biznesu stwarza to liczne wyzwania, związane m.in. z efektywnym zarządzaniem, a przede wszystkim bezpieczeństwem danych – mówi Grzegorz Dobrowolski z polskiego oddziału Cisco.

Bez względu na duże zmiany rola infrastruktury centrum danych, także połączonej z chmurą, wciąż pozostaje ta sama. Ma ona umożliwiać przedsiębiorstwom przetwarzanie i przechowywanie dużych ilości danych oraz uruchamianie aplikacji o znaczeniu krytycznym. Przy czym jej potencjał jest coraz większy. Przykładowo nowy serwer o takich samych wymiarach jak model poprzedniej generacji może zapewnić kilka razy większą moc obliczeniową, zużywając jednocześnie tylko połowę energii. W przypadku pamięci masowych wielkie korzyści daje zastosowanie nośników z pamięcią flash. W rezultacie nowe technologie są wprowadzane o wiele szybciej niż kiedyś. Dzięki temu rośnie prawdopodobieństwo nakłonienia klientów do zakupu nowych systemów, w przypadku których efektywność energetyczna staje się równie ważna jak wydajność.