Stale wzrasta liczba urządzeń połączonych z siecią, a każde z nich zwiększa presję na infrastrukturę techniczną, która ma obsługiwać całą ich komunikację. Zdaniem analityków Gartnera, już w 2020 r. na świecie może funkcjonować nawet 20 mld urządzeń w ramach Internetu rzeczy (IoT). Wraz z eksplozją liczby punktów końcowych, rozwojem mobilności i powstaniem nowych środowisk przetwarzania danych, zwiększa się ilość informacji wykorzystywanych do celów analitycznych, uczenia maszynowego i automatyzacji. Tym samym rosną koszty wysyłki danych do lokalizacji centralnych. Urządzenia działające w ramach IoT generują ogromne ilości danych i realizują procesy, które często muszą być obsłużone dosłownie w milisekundach.

W rezultacie tradycyjne, scentralizowane architektury dostawców usług nie są w stanie sprostać obecnym potrzebom. Tym bardziej, że należy się spodziewać nowej fali aplikacji, które jeszcze bardziej obciążą brzeg sieci, przede wszystkim bazujących na Internecie rzeczy, ale także wykorzystujących wirtualną i rozszerzoną rzeczywistość. Ich wdrożenia spowodują konieczność przeniesienia przetwarzania i magazynowania danych bliżej użytkowników i ich urządzeń.

Wspomniany Gartner szacował dwa lata temu, że ok. 10 proc. danych generowanych przez przedsiębiorstwa jest tworzone i przetwarzane poza tradycyjnym, scentralizowanym centrum danych lub chmurą. Analitycy przewidywali jednak duże zmiany – do 2025 r. odsetek ten miałby sięgnąć najpierw 50 proc., a według późniejszej aktualizacji, nawet 75 proc.!

Po co edge computing?

W tej sytuacji korzyści przyniesie decentralizacja mocy obliczeniowej i zbliżenie jej do miejsca, w którym dane są generowane – innymi słowy zastosowanie edge computingu. Możliwości tego modelu obejmują obsługę różnych procesów – od prostego filtrowania zdarzeń i danych, po złożone ich przetwarzanie. Edge computing, zwany również przetwarzaniem na krawędzi albo brzegu sieci, w pobliżu źródła danych, eliminuje konieczność przesyłania informacji do odległej chmury lub innych scentralizowanych systemów. Architektura edge computing umieszcza wydajne zasoby obliczeniowe, pamięci masowe i sieciowe jak najbliżej użytkowników i urządzeń końcowych.

Dzięki ograniczeniu dystansu i czasu niezbędnego do wysłania danych do centralnych lokalizacji, można zwiększyć szybkość transportu informacji, zmniejszyć jego opóźnienia oraz poprawić wydajność urządzeń i aplikacji działających właśnie na krawędzi, w konkretnych miejscach – mówi Artur Czerwiński, dyrektor ds. technologii w Cisco.

Chociaż edge computing znajduje się obecnie na wczesnym etapie wdrażania, to rosnące znaczenie tego modelu jako elementu cyfrowej transformacji każe przypuszczać, że szybko znajdzie się w głównym nurcie. Według IDC do 2022 r. aż 40 proc. wdrożeń chmury w firmach będzie obejmować przetwarzanie brzegowe.