Dostawcy starają się znaleźć kompromis, oferując coraz doskonalsze rozwiązania w zakresie dostarczania mocy obliczeniowej, zasilania i chłodzenia, zarządzania przestrzenią fizyczną, efektywności wirtualizacji czy bezawaryjności sprzętu. W branży zachodzą także zmiany w obszarze infrastruktury – kolejni dostawcy wprowadzają innowacyjne modele, w których sprzęt wdrażany on-premise jest oferowany – na podobieństwo chmury publicznej – w formie usługi. Ze względu na rozwój Internetu rzeczy i rosnące potrzeby przetwarzania na brzegu sieci znaczenie lokalnej infrastruktury nie będzie jednak maleć. Wręcz przeciwnie, hybrydowa architektura okazuje się najwłaściwszą w dostarczaniu zasobów IT.

Centrum danych powstaje po to, by stworzyć środowisko dla aplikacji, które są najważniejsze z biznesowego punktu widzenia. Dla zarządzających centrami danych istotny będzie czas implementacji aplikacji i optymalizacja kosztów związanych z budową rozwiązania, jego uruchomieniem, a później administrowaniem. Niemniej ważna jest dostępność, zarówno jeśli chodzi o ciągłość biznesową i odtwarzalność, jak i skalowanie i migrację obciążeń w sytuacjach kryzysowych. Kluczową sprawą pozostaje bezpieczeństwo danych i aplikacji.

W związku z tym poszukuje się nowych rozwiązań, które usprawniają działanie środowisk IT, a także nowych modeli ich dostarczania – mówi Grzegorz Dobrowolski, dyrektor ds. sprzedaży rozwiązań enterprise networking i data center w Cisco.

Podstawą tworzenia nowoczesnych aplikacji typu cloud native stają się w centrach danych platformy kontenerowe. Poszczególne elementy aplikacji budowanych w modelu mikrousług dużo wydajniej i łatwiej wirtualizuje się w formie kontenerów lub małych i lekkich modułów, które współużytkują jądro systemu operacyjnego i przez to uruchamiają się o wiele szybciej niż klasyczne maszyny wirtualne. W tym obszarze niekwestionowanym zwycięzcą i de facto standardem wydaje się Kubernetes.

Z ekonomicznego punktu widzenia najbardziej zasadne jest wdrożenie gotowego i kompletnego rozwiązania kontenerowego, dzięki któremu firmy nie muszą poświęcać czasu na budowanie i integrację całego systemowego „podwozia”. Mogą za to skupić się na istocie sprawy, czyli tworzeniu i wdrażaniu oprogramowania aplikacyjnego – mówi Paweł Albert, Advisory Systems Engineer w Dell Technologies.

Problemem jest jednak wdrażanie i konfigurowanie wielu kontenerów dla wielu mikrousług oraz zarządzanie nimi. Zadanie jest jeszcze bardziej skomplikowane, jeżeli w skład środowiska IT wchodzi wiele chmur publicznych i prywatnych. Pomocne mogą być platformy do zarządzania kontenerami w środowiskach klasy produkcyjnej, które dzięki automatyzacji wielu procesów pozwalają zaoszczędzić czas zespołów IT. Migracja do chmury nie stanowi jednak rozwiązania wszystkich problemów. O ile obecnie wiele aplikacji od razu powstaje w chmurze, starsze z nich nie zawsze są dostosowane do wymogów modelu SaaS. Niektórych wręcz nie da się przenieść do chmury i muszą pracować w maszynach wirtualnych.

Ważne jest, żeby aplikacji nie traktować jako osobnego elementu środowiska IT. Poprawność ich działania należy oceniać, biorąc pod uwagę cele biznesowe, które pozwalają spełnić – twierdzi Grzegorz Dobrowolski.

Przykładowo, chatbot odpowiadający za kontakt z klientem powinien przyczynić się do mniejszej liczby zapytań wysyłanych innymi kanałami. Jeżeli tak się nie dzieje, może to oznaczać, że aplikacja jest nieskuteczna, mimo że pod względem technicznym funkcjonuje dobrze. Rozwiązaniem będzie monitorowanie działania aplikacji pod kątem procesu biznesowego, jaki realizuje. Tak można zidentyfikować, w którym miejscu procesu występuje problem. Optymalizując działanie aplikacji, nie należy zapominać o efektywnym zarządzaniu infrastrukturą. W takim przypadku z pomocą przychodzą narzędzia ułatwiające administrowanie zasobami, szybkie reagowanie na zmieniające się potrzeby i zapewniające wydajność dostosowaną do obciążeń.