Edge computing otwiera wiele możliwości przed integratorami współpracującymi z wszelkiej maści dostawcami infrastruktury sprzętowej i programowej. Wcześniej przekonywano, że przyszłość należy do chmury publicznej i prędzej czy później na niej będzie bazować większość systemów informatycznych w przedsiębiorstwch. Teraz okazuje się, że klientom trudno jest całkowicie zrezygnować z własnej infrastruktury. By wszystko działało, jak należy, firmy będą potrzebować zasobów obliczeniowych i pamięciowych na brzegu swoich sieci. Na przykład w postaci mikrocentrów danych, skonteneryzowanych boksów, a także gotowych do uruchomienia, wypełnionych sprzętem szaf rackowych.

W najbliższej dekadzie mamy obserwować rozwój biznesu bazującego na integrowaniu i wdrażaniu tego typu rozwiązań, które zapewnią lokalne przetwarzanie i przechowywanie danych oraz zagwarantują minimalne opóźnienia w działaniu aplikacji Internetu rzeczy. Promotorzy edge computingu roztaczają wizję mikrocentrów danych w niemal każdym środowisku informatycznym – w nowym cyfrowym świecie mają one znaleźć zastosowanie w zakładach produkcyjnych, stać się elementem infrastruktury drogowej, znajdować się na wyposażeniu każdego biura.

Przykładowo mikrocentra danych mogą być wykorzystywane przez sklepy stacjonarne, które walcząc o klienta z serwisami e-commerce, stawiają na daleko idącą cyfryzację obsługi. Wdrażają więc rozwiązania Digital Signage, nowe formy płatności elektronicznych, wykorzystują rozszerzoną rzeczywistość (AR – Augmented Reality) i tworzą dla klientów np. wirtualne przymierzalnie. Jednocześnie starają się optymalizować swoje koszty poprzez cyfryzację łańcuchów dostaw. Jeśli dane generowane przez wprowadzane innowacje wędrowałyby setki czy tysiące kilometrów do chmury publicznej, to wynikające z tego opóźnienia mogłyby mieć bardzo negatywny wpływ na obsługę kupujących jak również wewnętrznych procesów w sklepach.

Roztaczając podobne wizje, dostawcy infrastruktury data center budują nową ofertę. Wśród producentów rozwiązań dla edge computingu i mikrocentrów danych znajdziemy m.in.: APC by Schneider Electric, Cisco Systems, Dell Technologies, Eatona, Huawei, HPE, Intela czy Vertiv. Co ciekawe, z ideą edge computingu pogodzili się także globalni dostawcy publicznego cloud computingu. AWS i Microsoft przygotowują już swoje rozwiązania do obsługi środowisk łączących chmurę z infrastrukturą na brzegu sieci.

 

Szybko i na miejscu

Klasyczna architektura cloud computingu stworzyła przez ostatnie lata nowe możliwości biznesowe związane m.in. z wykorzystaniem pamięci masowej w chmurze czy wielkich zbiorów danych. Jednakże, gdy pojawia się coraz więcej aplikacji i danych, które wymagają obsługi w czasie rzeczywistym, chmura publiczna okazuje się za wolna. Powiązana z Internetem rzeczy koncepcja edge computingu zakłada, że dane z czujników i innych połączonych urządzeń są zbierane i analizowane lokalnie, a chmura i Internet są wykorzystywane tylko w szczególnych sytuacjach.

 

W zdecentralizowanym modelu brzegowym integrowana jest sieć, warstwa obliczeniowa i pamięciowa oraz zarządzanie z urządzeniami IoT i bramami do chmury. W rezultacie zapewnia się odpowiedzi systemu w czasie rzeczywistym, efektywne zbieranie danych i bezproblemowe działanie zaawansowanych aplikacji. Promotorzy takiego podejścia twierdzą, że jest ono tańsze od tradycyjnych architektur. Ma być ono także motorem wdrażania nowych technologii łączności, takich jak komórkowa sieć 5G.

Dla integratorów możliwości biznesowe związane z edge computingiem są tym większe, że tradycyjna architektura daje mniej okazji do modernizacji infrastruktury. W przypadku centralnego przetwarzania użycie najnowszych technologii może nie być wymagane. Inaczej jest z wdrożeniami na brzegu sieci, które mogą dotyczyć setek najróżniejszych systemów, w tym związanych z Internetem rzeczy, sieciami programowo definiowanymi, ale także bezpieczeństwem, a nawet drukowaniem.

Brzeg sieci może znajdować się w hali produkcyjnej, sklepie lub szpitalnej  sali. Edge computing sprawdzi się w przemyśle wydobywczym – przy przewidywaniu awarii i katastrof. Analityka na brzegu sieci będzie mieć szczególne znaczenie w produkcji przemysłowej, bo maszyny muszą korzystać z danych przetwarzanych i analizowanych w ułamkach sekund, a każdy przestój wiąże się z dużymi stratami finansowymi. Wymiana i przetwarzanie danych z pominięciem „centrali” są istotne także w przypadku systemów zarządzania produkcją rolną, w których czujniki i urządzenia często nie są podłączone do chmury i komunikują się tylko ze sobą.

Edge computing spełnia oczekiwania dotyczące zmniejszenia opóźnień wynikających z transmisji danych na długich dystansach między lokalnym terminalem a centralnymi zasobami zlokalizowanymi w chmurze – wyjaśnia Cezary Gutowski, kierownik wsparcia sprzedaży w APC by Schneider Electric.

Zwraca przy tym uwagę, że aplikacje takie jak poczta elektroniczna, wyszukiwarki oraz archiwizowanie danych nie
są szczególnie wyczulone na opóźnienia, natomiast transmisja danych w takich branżach, jak medycyna, przemysł
a także zarządzanie inteligentnym budynkiem, musi odbywać się w sposób płynny i niezakłócony, a połączone aplikacje muszą komunikować się ze sobą błyskawicznie.

Zdaniem integratora

• Piotr Żygadło, dyrektor Departamentu Rozwiązań, Dimension Data

Jako integrator widzimy w obszarze edge computingu dwa nurty. Pierwszy dotyczy modelu przetwarzania danych bazującego na środowisku hiperkonwergentnym złożonym z kilku gęsto upakowanych serwerów, których zasoby obliczeniowe, pamięciowe i sieciowe są w pełni zwirtualizowane. Dzięki niemu pojęcie centrum przetwarzania danych nabiera kształtu kilkudziesięciu lokalizacji z niedużą infrastrukturą informatyczną, które za sprawą wirtualizacji tworzą jedno logiczne data center. Korzyści z takiego rozwiązania to: przetwarzanie jak najbliżej źródła danych i niższe wydatki na przepustowość łączy, prosta wymiana uszkodzonych elementów przez dołożenie kolejnego standardowego serwera, jak również często niższe nakłady inwestycyjne.

Drugi nurt w obszarze IoT polega na tym, że dane zbierane przez szereg czujników są przetwarzane już w pierwszym kolektorze danych. Często jest to prosta aplikacja, wręcz w pamięci routera brzegowego, która zebrane dane przetwarza i przekazuje na przykład na lokalny wyświetlacz. Przykładem mogą być czujniki zajętości miejsca parkowania na danym piętrze parkingu – wyświetlacz informuje o zajętości piętra bez komunikowania się z centralnym ośrodkiem przetwarzania danych. Podobnie jest z czujnikami zapylenia powietrza, które zasilają tablicę informacyjną lokalnymi danymi.

 

Centrum danych z pudełka

Według MarketsandMarkets światowy rynek edge computingu ma zwiększyć swoją wartość z 1,47 mld dol. w roku 2017 do 6,72 mld dol. w roku 2020. W tym okresie średnia roczna stopa wzrostu wspomnianej branży ma wynieść 35,4 proc. Analitycy przewidują, że nie zabraknie klientów, którzy zdecydują się na wdrożenie mikrocentrów danych. Umieszczone w szafach rackowych bądź kontenerach systemy zawierają wszystkie komponenty „tradycyjnego” centrum danych, w tym chłodzenie, połączenia sieciowe, zabezpieczenia fizyczne, przeciwpożarowe i przed zalaniem oraz zasilanie gwarantowane (UPS). Są modele do zastosowania wewnątrz pomieszczeń oraz na zewnątrz (w tym w niesprzyjających warunkach środowiskowych). Niektóre mogą być na kółkach, co ułatwia ich instalację. Biznes micro data center stwarza nowe możliwości rozwoju dla dostawców sprzętowej i programowej infrastruktury oraz integratorów. Ci ostatni mają sporo okazji do dołożenia wartości dodanej do takich „pudełkowych” rozwiązań.

Wdrożenie mikrocentrów danych obejmuje kilka etapów. Pierwszym z nich jest montaż. Łatwe w instalacji rozwiązania kontenerowe stosowane są wszędzie tam, gdzie nie ma możliwości postawienia niezależnego budynku ani wygospodarowania osobnego pomieszczenia na centrum danych. Kolejne istotne elementy wdrożenia to bieżący serwis oraz konserwacja. Należy pamiętać, że infrastruktura narażona jest na nieoczekiwane przestoje spowodowane zużyciem komponentów. Ochronić klienta przed tym może integrator oferujący usługi i unikalną wiedzę zdobytą podczas podobnych wdrożeń.

Centra danych to wciąż krytyczny element infrastruktury, dlatego wymagają bieżącego monitorowania, stałej opieki, a także znajomości potrzeb wynikających ze specyfiki klienta – podkreśla Cezary Gutowski.

 

Pomóc klientowi zobaczyć brzeg

Wprowadzając kolejne innowacyjne produkty dla brzegu sieci, dostawcy są świadomi roli, jaką będą we wdrożeniach odgrywać integratorzy. Ich zadaniem jest uświadomienie klientom możliwości edge computingu i sposobu wdrażania tego typu rowiązań. Klienci mogą przecież nie zdawać sobie sprawy, jak osiągać maksymalne korzyści z aplikacji uruchamianych na brzegu sieci. Tymczasem w przypadku coraz większej liczby usług edge computing staje się nie tylko kwestią wygody, ale koniecznością. We współpracy z klientem ważne będzie określenie, w jaki sposób na brzegu sieci ma być tworzona wartość wynikająca z właściwego użycia analityki, co będzie miało bezpośrednie przełożenie na wyniki biznesowe.

Dostawcy tworzą prekonfigurowane pakiety sprzętowe (takimi właśnie są mikrocentra danych), do których ich partnerzy mogą dokładać moc obliczeniową, pamięć masową i systemy służące do komunikacji, projektując kompletne, skrojone na potrzeby klienta rozwiązanie. Dodatkową szansą biznesową dla integratorów jest świadczenie zewnętrznych usług zarządzanych.