Rynek edge computingu osiągnie roczną stopę wzrostu na poziomie 54 proc. do roku 2025 r. – prognozuje Grand View Research. Za 6 lat jego globalna wartość powinna wynieść 28,84 mld dol.

Szybki wzrost jest związany z tym, że administratorzy IT w przedsiębiorstwach w niemal każdej branży widzą potrzebę zmniejszania „dystansu” pomiędzy użytkownikami i ich urządzeniami, a lokalizacją, w której są przechowywane i przetwarzane dane. Ta zmiana jest konieczna ze względu na rosnącą liczbę osób i urządzeń połączonych z siecią oraz ogromne ilości generowanych i pobieranych danych. W koncepcji edge computingu są one przetwarzane w urządzeniach końcowych, a do dużych centrów danych trafiają wyniki obliczeń lub dane szczątkowe, potrzebne do późniejszych analiz.

Analitycy przewidują, że rosnąca potrzeba przetwarzania dużych ilości informacji w wyniku rozwoju internetu rzeczy powinna zwiększyć popyt na edge computing w najbliższych latach. Inwestycjom będzie sprzyjać także nacisk przedsiębiorstw na redukcję kosztów, automatyzację procesów i usprawnienie operacji.

Grand View Research spodziewa się, że przechodzenie na przetwarzanie brzegowe wpłynie na strategie IT najważniejszych firm w kolejnych latach. Przewiduje, że mikro centra danych będą sytuowane bliżej infrastruktury, aby zmniejszyć opóźnienia. Zarządzanie centrum danych jako usługa (DMaaS) staje się natomiast tanim sposobem realizacji tego zadania.

Rygorystyczne wymagania standardów 5G, takie jak wysoka niezawodność i bardzo niskie opóźnienia, powinny z kolei generować zapotrzebowanie na usługi oparte na sieciach RAN (Radio Access Network).

Ponadto Mobile Edge Computing (MEC) staje się obiecującą architekturą obliczeniową dla operatorów telekomunikacyjnych, dostawców platform IT i integratorów systemów – stwierdza Grand View Research. MEC dodaje do RAN możliwości wirtualizacji i obliczeń.

Sieci muszą się zmieniać

Obecnie ok. 80-90 proc. ruchu generowanego w sieci to konsumpcja informacji przez użytkowników. Trend ten jednak niedługo się zmieni – ilość danych pobieranych i wysyłanych wyrówna się. Do tego dojdzie mnóstwo urządzeń internetu rzeczy, które będą głównie produkowały dane, a nie je pobierały. Charakter danych przetwarzanych na brzegu sieci spowoduje, że obszar ten nabierze krytycznego znaczenia.

Według Vertiv infrastrukturę sieciową należy projektować i budować tak, aby mogła wspierać transmisję danych, redukując ryzyko wystąpienia czterech negatywnych zjawisk (nadmiar informacji, opóźnienia wpływające na komfort pracy użytkownika, opóźnienia w transmisji między urządzeniami, ryzyko dla zdrowia i życia – gdy urządzenia odpowiadają za bezpieczeństwo ludzi, np. autonomiczne samochody, inteligentny transport publiczny, drony, roboty).

– W przyszłości zadania stawiane przed sieciami, w których coraz więcej danych przetwarzanych jest na brzegu sieci, zostaną rozszerzone. Rosnąca ilość wysyłanych przez użytkowników danych wymusi wprowadzenie modułów zarządzających ruchem, zapewniających bezpieczeństwo oraz szeroko rozumianą analitykę – uważa Bartłomiej Raab, Country Manager w Vertiv Polska.

Jego zdaniem konieczne będzie więc stworzenie sieciowej infrastruktury IT wspierającej różnego typu podmioty, np. handel detaliczny, firmy telekomunikacyjne czy ośrodki uniwersyteckie.

– Kluczowe znaczenie dla powodzenia tego projektu będą mieć takie czynniki, jak niskie opóźnienia w transmisji danych czy odporność na awarie, które przełożą się na wysoki poziom zadowolenia użytkowników – dodaje Bartłomiej Raab.