Stale wzrasta liczba urządzeń połączonych z siecią, a każde z nich zwiększa presję na infrastrukturę techniczną, która ma obsługiwać całą ich komunikację. Zdaniem analityków Gartnera, już w 2020 r. na świecie może funkcjonować nawet 20 mld urządzeń w ramach Internetu rzeczy (IoT). Wraz z eksplozją liczby punktów końcowych, rozwojem mobilności i powstaniem nowych środowisk przetwarzania danych, zwiększa się ilość informacji wykorzystywanych do celów analitycznych, uczenia maszynowego i automatyzacji. Tym samym rosną koszty wysyłki danych do lokalizacji centralnych. Urządzenia działające w ramach IoT generują ogromne ilości danych i realizują procesy, które często muszą być obsłużone dosłownie w milisekundach.

W rezultacie tradycyjne, scentralizowane architektury dostawców usług nie są w stanie sprostać obecnym potrzebom. Tym bardziej, że należy się spodziewać nowej fali aplikacji, które jeszcze bardziej obciążą brzeg sieci, przede wszystkim bazujących na Internecie rzeczy, ale także wykorzystujących wirtualną i rozszerzoną rzeczywistość. Ich wdrożenia spowodują konieczność przeniesienia przetwarzania i magazynowania danych bliżej użytkowników i ich urządzeń.

Wspomniany Gartner szacował dwa lata temu, że ok. 10 proc. danych generowanych przez przedsiębiorstwa jest tworzone i przetwarzane poza tradycyjnym, scentralizowanym centrum danych lub chmurą. Analitycy przewidywali jednak duże zmiany – do 2025 r. odsetek ten miałby sięgnąć najpierw 50 proc., a według późniejszej aktualizacji, nawet 75 proc.!

Po co edge computing?

W tej sytuacji korzyści przyniesie decentralizacja mocy obliczeniowej i zbliżenie jej do miejsca, w którym dane są generowane – innymi słowy zastosowanie edge computingu. Możliwości tego modelu obejmują obsługę różnych procesów – od prostego filtrowania zdarzeń i danych, po złożone ich przetwarzanie. Edge computing, zwany również przetwarzaniem na krawędzi albo brzegu sieci, w pobliżu źródła danych, eliminuje konieczność przesyłania informacji do odległej chmury lub innych scentralizowanych systemów. Architektura edge computing umieszcza wydajne zasoby obliczeniowe, pamięci masowe i sieciowe jak najbliżej użytkowników i urządzeń końcowych.

Dzięki ograniczeniu dystansu i czasu niezbędnego do wysłania danych do centralnych lokalizacji, można zwiększyć szybkość transportu informacji, zmniejszyć jego opóźnienia oraz poprawić wydajność urządzeń i aplikacji działających właśnie na krawędzi, w konkretnych miejscach – mówi Artur Czerwiński, dyrektor ds. technologii w Cisco.

Chociaż edge computing znajduje się obecnie na wczesnym etapie wdrażania, to rosnące znaczenie tego modelu jako elementu cyfrowej transformacji każe przypuszczać, że szybko znajdzie się w głównym nurcie. Według IDC do 2022 r. aż 40 proc. wdrożeń chmury w firmach będzie obejmować przetwarzanie brzegowe.

 

Brak tolerancji na opóźnienia

Krzysztof Krawczyk, IT Solutions Sales Manager Eastern Europe w Vertivie, zwraca uwagę, że obecnie także w codziennym życiu nie tolerujemy opóźnień. Gdy słuchamy muzyki lub oglądamy filmy, korzystając z platform streamingowych, oczekujemy ciągłości pracy, a nie „przerw na kawę”. Oznacza to, że przetwarzanie danych musi być zrealizowane jak najbliżej nas, aby opóźnienia były jak najmniejsze.

Pamiętam, jak podczas zagranicznej podróży służbowej próbowałem obejrzeć film z nieistniejącej obecnie platformy streamingowej. Połączenie było regularnie przerywane, bo usługa nie miała własnej infrastruktury w kraju, w którym chciałem z niej skorzystać. Szybko przełączyłem się na najpopularniejszą alternatywę – wspomina Krzysztof Krawczyk.

Wiele urządzeń końcowych potrzebuje infrastruktury znajdującej się blisko nich. Należą do nich chociażby czytniki kodów kreskowych i kasy samoobsługowe w sklepach wielkopowierzchniowych. Dobrze jest zarządzać informacją bliżej jej źródła, a tylko najistotniejsze dane przesyłać do miejsca, gdzie wymagane jest ich przetwarzanie oraz archiwizacja.

Nie bez znaczenia jest też szybsze działanie rozwiązania bazującego na architekturze edge computingu, gdy źródło danych znajduje się w zasięgu 100 merów, a nie 200 kilometrów. Edge computing umożliwia też lepsze zarządzanie bezpieczeństwem informacji – mówi Łukasz Borkowski, Technical Country Channel Sales BI & Infrastructure w Lenovo.

Z założenia edge computing ma być stosowany wszędzie tam, gdzie wymagany jest natychmiastowy czas reakcji i brak opóźnień w przesyle danych. W pierwszym rzędzie chodzi o sytuacje, w których szybkość transferu danych decyduje o bezpieczeństwie, a zatem w przypadku pojazdów autonomicznych, placówek ochrony zdrowia czy zakładów przemysłowych (realizujących wizję Przemysłu 4.0). Edge computing sprawdza się też w aplikacjach, które przesyłają ogromne ilości danych, czyli wymagają dużych przepustowości.

Krzysztof Krawczyk
IT Solutions Sales Manager Eastern Europe, Vertiv

W środowisku edge często mamy do czynienia z ograniczoną przestrzenią i w rezultacie z pojedynczą szafą rackową ze sprzętem IT. Oznacza to, że nie możemy polegać na centralnym systemie zasilania gwarantowanego lub klimatyzacji precyzyjnej przeznaczonej dla całego pomieszczenia. Zamiast tego musimy zapewnić system UPS i rozwiązanie chłodzące albo w samej szafie, albo tuż obok niej (klimatyzator rzędowy). Mała przestrzeń oznacza większe trudności z odprowadzeniem ciepła i trzeba szukać takich sposobów, które rozwiążą ten problem. Ułatwić zadanie może jednostka chłodząca sprzęt IT znajdująca się bezpośrednio w szafie rackowej.

Artur Czerwiński
dyrektor ds. technologii, Cisco

Ważne jest zrozumienie, czym jest edge computing, a czym tak zwany fog computing, i jak można przełożyć tę wiedzę na realizację konkretnych scenariuszy biznesowych. Edge computing to przetwarzanie danych na krawędzi sieci, w pobliżu źródła danych, bez konieczności przesyłania informacji do zdalnej chmury lub innych scentralizowanych systemów do przetwarzania informacji. Fog computing jest natomiast standardem określającym, jak powinno działać przetwarzanie na krawędzi i umożliwiającym tworzenie powtarzalnych struktur w ramach koncepcji edge computingu. Dzięki temu przedsiębiorstwa mogą relokować obliczenia ze scentralizowanych systemów lub chmur i uzyskiwać większą skalowalność i wydajność.

 

Zamiast chmury i razem z chmurą

Według Schneider Electric czynnikiem, który decyduje o potrzebie wykorzystania edge computingu zamiast chmury publicznej, bywa także prawo. Chodzi zwłaszcza o silnie regulowane branże (m.in. bankowość), w których dane często nie mogą być przechowywane poza granicami określonego państwa, chociażby w chmurze. W Europie zapotrzebowanie na edge computing może rosnąć także ze względu na RODO. Wymaganą kontrolę nad przetwarzaniem, przechowywaniem i przekazywaniem danych osobowych łatwiej zachować przy użyciu infrastruktury lokalnej, w tym brzegowej.

Trzeba przy tym podkreślić, że edge computing nie stanowi konkurencji dla cloud computingu, tylko uzupełnienie chmury, zasadniczo zwiększające efektywność całego, złożonego środowiska. Można się wręcz spodziewać, że edge computing stanie się atrakcyjny dla dostawców usług w chmurze, gdyż oferuje im możliwość lepszej dystrybucji pamięci masowej i mocy obliczeniowej, a w rezultacie obsługę usług wymagających małego opóźnienia, wyższą dostępność systemów oraz zmniejszenie obciążenia ich wielkich centrów danych. Przetwarzanie brzegowe zapewni obustronne korzyści dostawcom chmury i operatorom wdrażającym edge computing – ci drudzy stworzą platformy zdolne do świadczenia wielu usług na bazie infrastruktury brzegowej. Z kolei klienci końcowi dzięki integracji edge computingu i chmury zyskają wgląd w stan i miesce przechowywania wszystkich danych istotnych dla działania ich aplikacji i usług.

Korzyści dotyczą całego ekosystemu dostawców aplikacji i usług, operatorów sieci, przedsiębiorstw i klientów indywidualnych. Możliwe jest stworzenie modelu B2B, w którym operator tworzy ofertę usługową dla innych podmiotów. Może zatem opracować usługi dla dostawców chmury publicznej w oparciu o dzierżawę krawędzi zapewniającej niskie opóźnienia w sieci – tłumaczy Artur Czerwiński.

 

Zdaniem integratora

Jarosław Rowiński, kierownik Zespołu Usług i Rozwiązań Sieciowych, Atende

Edge computing jest zjawiskiem nowym, ponieważ pojawił się w wyniku rozwoju chmury publicznej. Wcześniej klienci skupiali swoje IT w centrach danych. Firmy mogły mieć jedno data center albo kilka, co zazwyczaj miało miejsce, gdy były działającymi globalnie korporacjami. Tam też były uruchamiane aplikacje. Jeśli teraz przedsiębiorstwo wybiera chmurę, to może się okazać, że aplikacja znajdzie się bardzo daleko od niego. Dla niektórych aplikacji nie ma to znaczenia, ale z tymi, które wymagają bardzo krótkiego czasu dostępu, będzie już problem. A zastosowań, w których liczy się każda milisekunda, będzie przybywać, chociażby z powszechnieniem się technologii 5G. Rozwiązaniem jest właśnie edge computing, czyli umieszczenie infrastruktury obsługującej aplikacje jak najbliżej użytkownika. Tego na pewno będzie potrzebować rozwijająca się branża samochodów autonomicznych, a z bliższych nam zastosowań – całe spektrum automatyki przemysłowej i Internetu rzeczy, projekty z obszaru inteligentnych budynków i miast. Także przetwarzanie mowy, środowiska Content Delivery Networks, nowe aplikacje medyczne i oczywiście gry komputerowe. Widzimy już pewne zainteresowanie klientów – co oczywiste – głównie tych używających i tworzących aplikacje wrażliwe na opóźnienia. Jeśli w tym momencie nie ma ich jeszcze dużo, to w ciągu kilku lat powinno się to zmienić. Na zmianę sposobu myślenia może nawet wpłynąć obecna sytuacja z koronawirusem, w której coraz więcej rzeczy dzieje się poza siedzibą firm. Ponieważ edge computing zakłada, że infrastruktura znajduje się blisko użytkownika i urządzeń końcowych, to będzie specjalnie projektowana pod kątem umieszczania jej w takich właśnie miejscach.

 

Wyzwań nie brakuje

Wygenerowanie wartości biznesowej na podstawie danych brzegowych wymaga umiejętności ich wykorzystywania, analizy i uzyskiwania wglądu bez względu na to, gdzie się znajdują. Ma to się przy tym odbywać szybko, ekonomicznie i bezpiecznie. Możliwość agregowania, analizowania i selekcjonowania danych w ramach edge computingu pomaga firmie szybciej się rozwijać, podejmować lepsze decyzje i – ostatecznie – zdobywać więcej klientów. Kluczem jest spójne podejście do wdrażania aplikacji działających na bazie zdalnej infrastruktury i konsekwentne zarządzanie danymi w całym obszarze ich powstawania.
Stanisław Mielnicki, Server Engineer w Dell Technologies, zwraca uwagę, że liderzy technologiczni starający się za pomocą edge computingu uzyskać przewagę rynkową, muszą dobrze wiedzieć, w jakim kierunku podążają. W realizacji założonych celów firmy napotykają bowiem na wiele ograniczeń, które mają wpływ na to, jakie rozwiązanie informatyczne okaże się w danym przypadku najbardziej odpowiednie.

Wyzwania, jakie infrastrukturze stawia edge computing, dotyczą kilku obszarów. Po pierwsze komunikacji, w kontekście faktu, że ze względu na lokalizację, takie parametry, jak przepustowość i jakość połączeń w sieci są ograniczone. Kolejna kwestia dotyczy środowiska, a więc miejsc wdrażania, które są otwarte, a tym samym podatne na działanie żywiołów, zagrożone pyłem i tym podobnymi szkodliwymi czynnikami. Ważną kwestią jest ponadto umiejscowienie sprzętu, który musi działać w ograniczonej przestrzeni, jak też jego moc, ze względu na nieoptymalne warunki dla zasilania i chłodzenia. Niełatwe jest zarządzanie takim projektem, gdyż wdrożenia są przeprowadzane z dala od wykwalifikowanego personelu IT. Wreszcie pozostaje sprawa bezpieczeństwa, która jest kłopotliwa, jako że dział IT musi kontrolować i monitorować bezpieczeństwo poza centrum danych.

Dostawcy realizujący ideę edge computingu starają się, by klienci byli w stanie pokonać te ograniczenia, korzystając z produktów zaprojektowanych specjalnie z myślą o krawędzi – mówi przedstawiciel Dell Technologies.

Wybrane korzyści z edge computingu

Małe opóźnienia

Ze swej natury infrastruktura edge znajduje się dużo bliżej urządzenia IoT niż szkielet sieci czy chmura. Oznacza to znacznie krótszą drogę danych w obie strony i wykorzystanie lokalnej mocy przetwarzania, dzięki czemu mogą być obsługiwane procesy wrażliwe na opóźnienia.

Wydajniejsze zarządzanie danymi

Przetwarzanie danych na brzegu ułatwia zarządzanie jakością danych – wydajniejsze staje się ich filtrowanie i ustalanie priorytetów. W rezultacie te dane, które muszą być przekazane do chmury w celu ich dalszego przetwarzania i analizy, są już oczyszczone.

Dostęp do analityki i sztucznej inteligencji

Można łączyć moc obliczeniową i zdolność do gromadzenia danych na brzegu sieci
w celu wdrażania analityki i elementów sztucznej inteligencji. Chodzi o te zastosowania, które wymagają bardzo krótkich czasów reakcji i przetwarzania danych w czasie rzeczywistym, więc przesyłanie ich do scentralizowanych systemów byłoby niemożliwe.

Skalowalność

Ponieważ model zakłada zdecentralizowane przetwarzanie, to mniejsze jest obciążenie sieci. Dlatego skalowanie wdrożeń IoT powinno mieć mniejszy na nią wpływ, szczególnie jeśli aplikacje i warstwa sterowania są umieszczone na brzegu razem z danymi.

Odporność na awarie

Edge computing zapewnia więcej dróg komunikacji niż model scentralizowany. Rozproszenie sprawia, że wzrasta odporność na awarie w przesyłaniu danych. Jeśli w jednym miejscu nastąpi awaria, wciąż istnieją inne zasoby, które zapewniają ciągłą pracę.

Dłuższy czas pracy urządzeń IoT na bateriach

Jeśli z powodu mniejszych opóźnień zmniejsza się wykorzystanie kanałów komunikacji, to zasilane bateriami urządzenia IoT będą w stanie dłużej pracować bez ich wymiany lub ponownego ładowania.

 

Infrastruktura dla edge computingu

Na rynku pojawiać się będzie coraz więcej urządzeń do przetwarzania brzegowego – produktów sieciowych, pamięciowych i obliczeniowych. Te wywodzące się z tradycyjnej infrastruktury dla centrum danych i chmury wymagają (podczas wdrożenia, integracji i utrzymania) podobnego wsparcia integratora i działu IT klienta. Dostawcy zaczynają także oferować infrastrukturę specjalnie zaprojektowaną i skonfigurowaną z myślą o edge computingu, w kompaktowych obudowach i z obsługą, która jest w dużej mierze zautomatyzowana. Powstają też procesory, które lepiej znoszą trudne warunki środowiskowe, w tym wysokie temperatury i wibracje.

Jak twierdzi Paweł Borkowski, rozwiązaniem, które ułatwi przetwarzanie danych we wdrożeniach edge computingu może być specjalnie pod tym kątem zaprojektowany serwer, którego właściwości zapewniają jego instalację poza typowym data center – w najróżniejszych miejscach: na suficie, ścianie czy nawet tylnej ściance telewizora. Urządzenie może mieć wbudowane funkcje komunikacyjne (karty WiFi i LTE) oraz pracować w trudnych warunkach – bez chłodzenia i w zapylonym środowisku. W jego niewielkiej obudowie da się zmieścić całkiem spore zasoby obliczeniowe i pamięciowe.

Z kolei Vertiv zwraca uwagę, że produkty edge obsługujące wdrożenia 5G są inne niż produkty wspierające ochronę zdrowia, które z kolei różnią się od tych dla handlu detalicznego, rozwiązań dla instytucji finansowych czy infrastruktury do zastosowań przemysłowych. Jednakże wszystkie nabierają krytycznego znaczenia, więc muszą sprostać takim samym wymaganiom w zakresie infrastruktury IT i wsparcia, jak tradycyjne centra danych. Różnica polega na tym, że są rozproszone i zazwyczaj nieobsługiwane przez lokalny personel IT.     Dlatego firmy wdrażają coraz bardziej inteligentne systemy oraz infrastrukturę umożliwiającą administratorom zdalny wgląd w urządzenia i procesy. Powstaje w ten sposób bardziej niezawodny i wydajny brzeg sieci o możliwościach autonaprawy, a więc wymagający mniej aktywnego zarządzania.

Zdaniem specjalistów Schneider Electric bardzo ważne jest łatwe wpasowanie takich produktów w istniejące instalacje. Optymalną propozycją są rozwiązania umożliwiające skalowalną, modularną instalację – także w pomieszczeniach, które nie były pomyślane jako serwerownie, np. w biurach czy halach produkcyjnych. Łatwość wkomponowania ich w już działającą architekturę sieciową, nawet przez osoby, które nie są specjalistami, należy do najczęstszych postulatów formułowanych przez klientów myślących o wdrożeniach edge computingu.

Rozwiązaniem, które od jakiegoś czasu dobrze wpisuje się w wymagania struktury przetwarzania brzegowego są miniaturowe centra danych – małe, kompaktowe szafy, które mieszczą w sobie kluczowe podzespoły i są możliwe do zamontowania nawet na ścianie. Co istotne, takie mikrocentra danych, mimo małych gabarytów, mają zaimplementowane pełne wyposażenie infrastrukturalne – zasilanie gwarantowane, monitoring i mechaniczne zabezpieczenie dostępu.