Brak tolerancji na opóźnienia

Krzysztof Krawczyk, IT Solutions Sales Manager Eastern Europe w Vertivie, zwraca uwagę, że obecnie także w codziennym życiu nie tolerujemy opóźnień. Gdy słuchamy muzyki lub oglądamy filmy, korzystając z platform streamingowych, oczekujemy ciągłości pracy, a nie „przerw na kawę”. Oznacza to, że przetwarzanie danych musi być zrealizowane jak najbliżej nas, aby opóźnienia były jak najmniejsze.

Pamiętam, jak podczas zagranicznej podróży służbowej próbowałem obejrzeć film z nieistniejącej obecnie platformy streamingowej. Połączenie było regularnie przerywane, bo usługa nie miała własnej infrastruktury w kraju, w którym chciałem z niej skorzystać. Szybko przełączyłem się na najpopularniejszą alternatywę – wspomina Krzysztof Krawczyk.

Wiele urządzeń końcowych potrzebuje infrastruktury znajdującej się blisko nich. Należą do nich chociażby czytniki kodów kreskowych i kasy samoobsługowe w sklepach wielkopowierzchniowych. Dobrze jest zarządzać informacją bliżej jej źródła, a tylko najistotniejsze dane przesyłać do miejsca, gdzie wymagane jest ich przetwarzanie oraz archiwizacja.

Nie bez znaczenia jest też szybsze działanie rozwiązania bazującego na architekturze edge computingu, gdy źródło danych znajduje się w zasięgu 100 merów, a nie 200 kilometrów. Edge computing umożliwia też lepsze zarządzanie bezpieczeństwem informacji – mówi Łukasz Borkowski, Technical Country Channel Sales BI & Infrastructure w Lenovo.

Z założenia edge computing ma być stosowany wszędzie tam, gdzie wymagany jest natychmiastowy czas reakcji i brak opóźnień w przesyle danych. W pierwszym rzędzie chodzi o sytuacje, w których szybkość transferu danych decyduje o bezpieczeństwie, a zatem w przypadku pojazdów autonomicznych, placówek ochrony zdrowia czy zakładów przemysłowych (realizujących wizję Przemysłu 4.0). Edge computing sprawdza się też w aplikacjach, które przesyłają ogromne ilości danych, czyli wymagają dużych przepustowości.

Krzysztof Krawczyk
IT Solutions Sales Manager Eastern Europe, Vertiv

W środowisku edge często mamy do czynienia z ograniczoną przestrzenią i w rezultacie z pojedynczą szafą rackową ze sprzętem IT. Oznacza to, że nie możemy polegać na centralnym systemie zasilania gwarantowanego lub klimatyzacji precyzyjnej przeznaczonej dla całego pomieszczenia. Zamiast tego musimy zapewnić system UPS i rozwiązanie chłodzące albo w samej szafie, albo tuż obok niej (klimatyzator rzędowy). Mała przestrzeń oznacza większe trudności z odprowadzeniem ciepła i trzeba szukać takich sposobów, które rozwiążą ten problem. Ułatwić zadanie może jednostka chłodząca sprzęt IT znajdująca się bezpośrednio w szafie rackowej.

Artur Czerwiński
dyrektor ds. technologii, Cisco

Ważne jest zrozumienie, czym jest edge computing, a czym tak zwany fog computing, i jak można przełożyć tę wiedzę na realizację konkretnych scenariuszy biznesowych. Edge computing to przetwarzanie danych na krawędzi sieci, w pobliżu źródła danych, bez konieczności przesyłania informacji do zdalnej chmury lub innych scentralizowanych systemów do przetwarzania informacji. Fog computing jest natomiast standardem określającym, jak powinno działać przetwarzanie na krawędzi i umożliwiającym tworzenie powtarzalnych struktur w ramach koncepcji edge computingu. Dzięki temu przedsiębiorstwa mogą relokować obliczenia ze scentralizowanych systemów lub chmur i uzyskiwać większą skalowalność i wydajność.