Wyniki raportu Vertiv "Data Center 2025: Closer to the Edge" wskazują na przyspieszenie inwestycji związanych z przetwarzaniem brzegowym. To będzie jeden z kluczowych trendów w najbliższych latach.

Wśród firm, które korzystają z edge computingu albo planują to zrobić do 2025 r., 53 proc. spodziewa się, że liczba ich serwerowni wzrośnie co najmniej o 100 proc., a 20 proc. spodziewa się wzrostu czterokrotnego lub większego. Łącznie takich placówek za 6 lat powinno być o 226 proc. więcej niż teraz.

Zmiana nastąpiła w ostatnich latach – w badaniu z 2014 r. przetwarzanie na brzegu sieci uznano za rosnący trend, ale w 19-stronicowym raporcie zasłużył on tylko na cztery wzmianki. Uwaga ankietowanych skupiała się wówczas na architekturze hybrydowej, wykorzystującej zasoby korporacyjne, chmurowe i kolokację.  

Mniej pytanych niż w poprzednich latach przewiduje przeprowadzkę do chmury, co autorzy raportu wiążą z prognozowanym rozwojem edge computingu. W 2014 r. 67 proc. badanych firm spodziewało się, że do 2025 r. 60 proc. zadań serwerowych będzie wykonywana w chmurze. W 2019 r. ten odsetek spadł do 62 proc.

Po co przedsiębiorcom edge computing

Z danych wynika, że najczęściej przetwarzanie brzegowe w 2025 r. będzie wykorzystywane do zadań określonych jako "data intensive" – 42 proc. pytanych wskazało je jako najważniejsze. Chodzi np. o systemy działające w produkcji przemysłowej, smart cities, VR i generalnie o sytuacje, gdy duża ilość danych czyni niepraktycznym ich transfer bezpośrednio do chmury. Kluczowa dla spełnienia tego wymagania jest duża przepustowość.

Kolejny przewidywany obszar wykorzystania edge computingu to "machine-to-machine latency sensitive" (22 proc.), tzn. obciążenia dostosowane do komunikacji M2M, np. inteligentna cyberbezpieczeństwo czy sieci energetyczne. Tutaj wymagane są zwłaszcza bardzo małe opóźnienia.

Nieco rzadziej przetwarzanie brzegowe będzie dotyczyć obszaru "human-latency sensitive" (20 proc.). Chodzi o usługi zoptymalizowane do wykorzystania przez konsumenta, jak rozszerzona rzeczywistość, rozwiązania w handlu detalicznym.

Najmniej wskazań dotyczących wymagań wobec edge computingu mieściło się w kategorii "life critical" (17 proc.), gdzie stawką sprawnie działających systemów jest ludzkie zdrowie i bezpieczeństwo, np. w autonomicznych pojazdach i rozwiązaniach dla służby zdrowia.

– W ciągu zaledwie pięciu lat zaobserwowaliśmy pojawienie się zupełnie nowego segmentu rynku, stymulowanego potrzebą umieszczenia rozwiązań przetwarzających dane bliżej ich użytkowników – mówi Rob Johnson, CEO Vertiv. – Ta nowa rozproszona sieć jest zależna od infrastruktury o charakterze krytycznym, co w zasadniczy sposób zmieniło myślenie o centrach danych.

Sprawne zarządzanie wyzwaniem

– Wyzwaniem, zwłaszcza biorąc pod uwagę niedobór personelu w centrach danych, będzie skuteczne i wydajne zarządzanie całą tą nową infrastrukturą. Coraz ważniejszą rolę zacznie odgrywać zdalne zarządzanie centrami danych – zauważa Giordano Albertazzi, prezes Vertiv na region EMEA.

Dodaje, że szacunki dotyczące wzrostu obliczeń dokonywanych na brzegu sieci są zgodne z przewidywaną rosnącą popularnością rozwiązań sztucznej inteligencji, internetu rzeczy i innych aplikacji, których poprawne działanie zależy od wysokiej przepustowości infrastruktury i małych opóźnień.

Wśród innych istotnych wyników badania warto zauważyć, że uczestnicy nie są już tak optymistycznie nastawieni do zasilania centrum danych energią słoneczną i wiatrową, jak 5 lat temu. Wówczas przewidywali, że ok. 34 proc. mocy data center będzie pochodzić z tych źródeł do 2025 r. Obecnie oczekują, że wskaźnik ten wyniesie 21 proc.

W skali globalnej 16 proc. specjalistów spodziewa się przejścia na emeryturę do 2025 r. To pogłębi i tak już duży niedobór talentów w sektorze data center.