Firmowe sieci przeszły w ciągu ostatnich lat prawdziwą rewolucję: od kabli do komunikacji bezprzewodowej i od tradycyjnego sprzętu do sieci definiowanych programowo, w których funkcjonuje ogromna liczba mobilnych i inteligentnych urządzeń.
Cyfrowa transformacja i migracja aplikacji do chmury obliczeniowej sprawiły, że wydajność sieci nabrała dla biznesu nowego znaczenia. Nie do zaakceptowania stał się fakt, że użytkownicy nie mogą korzystać z aplikacji, ponieważ wydajność sieci jest zbyt niska. W związku z tym działy IT nie zarządzają już urządzeniami sieciowymi, ale skupiają się raczej na podnoszeniu jakości doświadczenia użytkownika i właśnie wydajności sieci.

Rosnąca złożoność środowisk i różnorodność wykorzystywanych w nich urządzeń, a także nowe architektury sprawiają jednak, że monitorowanie tej wydajności zaczęło stanowić dla administratorów IT poważne wyzwanie. Tym bardziej że infrastruktura i aplikacje generują ogromne ilości danych, które trzeba pozyskiwać i analizować. Na szczęście mniej więcej w tym samym czasie pojawiły się zupełnie nowe możliwości wykorzystania źródeł danych i zastosowania do nich analityki big data. Po dodaniu do nich algorytmów sztucznej inteligencji i uczenia maszynowego powstała nowa klasa systemów wykorzystywanych przez specjalistów od operacji IT.

Pojawienie się innowacyjnej technologii i nowych, istotnych z biznesowego punktu widzenia potrzeb sprawiło, że producenci rozwinęli względnie proste, punktowe narzędzia i zaczęli oferować wszechstronne, skomplikowane rozwiązania, które mogą być wykorzystywane do rozmaitych celów. W ten sposób powstał rynek platform NPMD (Network Performance Monitoring and Diagnostics), służących do monitorowania wydajności i analizy sieci. Już w 2016 r. analitycy Gartnera mówili o dynamicznym rozwoju tego typu oprogramowania i szacowali wartość jego sprzedaży w skali globalnej na 1,6 mld dol. W ubiegłym roku oceniali, że rynek urósł do poziomu 2,2 mld dol. i nadal będzie się dynamicznie rozwijać.

 

Zdaniem specjalisty

Jarosław Kupiec, Business Development Director, Alstor SDS

Polski rynek rozwiązań do monitorowania i analizy sieci nie rozwija się tak dynamicznie jak światowy. Dostawcy wprawdzie pocieszają się, że będzie lepiej, wskazując przykład Niemiec, gdzie w ciągu kilku ostatnich lat rynek bardzo urósł, ale na razie to wciąż jedynie nadzieje. Szczególnie rozwinięty jest rynek amerykański. Mam tu na myśli głównie segment rozwiązań obejmujący NPB, TAP-y, rejestratory pakietów. Rozwiązania do monitorowania sieci są potrzebne firmom o określonej skali, a tam jest takich najwięcej. W Polsce świadomość potrzeby ich wykorzystania istnieje głównie wśród operatorów telekomunikacyjnych i największych instytucji finansowych – te firmy mają już takie rozwiązania. Optymizmem może napawać fakt rosnącego zainteresowania tymi produktami, które okazują zarówno klienci końcowi, jak i integratorzy podczas różnego rodzaju konferencji oraz spotkań dystrybutorów z partnerami.

Michał Kulesza, Product Sales Manager, Aten

Wpływ na rozwój technologiczny mają trendy związane ze wzrostem ilości danych przesyłanych między urządzeniami zarządzanymi a zarządzającymi, w szczególności obrazu wysokiej rozdzielczości, a także popularyzacja pracy zdalnej i zdalnego zarządzania infrastrukturą, co często wynika nie tylko z wygody pracowników i administratorów, lecz także z polityki bezpieczeństwa firmy. Rynek w Polsce rozwija się bardzo dobrze w segmencie komercyjnym. Firmy dbają o infrastrukturę przede wszystkim ze względu na bezpieczeństwo. Placówki publiczne mają jeszcze trochę do nadrobienia. Ogólnie świadomość użytkowników znajduje się na coraz wyższym poziomie, ale administratorzy zatrudnieni w instytucjach publicznych, choć wiedzą, czego potrzebują, mają problem z przekonaniem do inwestycji kadry zarządzającej.
Dlatego staramy się ich w tym wspierać.

Karolina Kończal, zastępca dyrektora sprzedaży, MWT Solutions

Rozwój rynku komercyjnych rozwiązań do monitorowania infrastruktury IT następuje niestety w powolnym tempie. Nadal największym problemem jest stosunkowo niska świadomość użytkowników, co stanowi zagrożenie dla tych firm, które nie korzystają z  takich rozwiązań lub uzależniają się od narzędzi darmowych, nadal wiodących prym na rynku polskim. Niemniej w porównaniu z sytuacją sprzed kliku lat obserwujemy rosnące zainteresowanie płatnymi rozwiązaniami. Coraz więcej klientów dostrzega, że koszty systemów open source istnieją, tylko są ukryte. Niestety, nadal klienci w większości przypadków z góry zakładają, że nie stać ich na zakup rozwiązania komercyjnego, nie zdając sobie sprawy z tego, że utrzymanie zespołu obsługującego system open source jest kosztowniejsze niż zakup licencji.

Jaroslav Štusák, dyrektor sprzedaży regionu CEE, Flowmon Networks

Zaledwie 10 lat temu analiza działania sieci była prawie nieznaną koncepcją i konieczne było oswojenie z nią rynku. Dziś systemy do niej służące są używane przez krajowe agencje obrony, instytucje bankowe, firmy produkcyjne i podmioty z różnych segmentów. Istnieją trzy zasadnicze trendy, które mają obecnie wpływ na rozwój technik monitorowania sieci: wzrost zagrożeń cybernetycznych, wykorzystanie uczenia maszynowego i sztucznej inteligencji oraz migracja aplikacji do chmury. Cechą charakterystyczną rynku jest rosnący niedobór wykwalifikowanej kadry technicznej. Ta sytuacja powoduje, że CIO stawiają na rozwiązania maksymalnie zautomatyzowane, elastyczne i nieskomplikowane do wdrożenia i zarządzania.

 

Wsparcie maszynowe

Rynek narzędzi NPMD stanowi według analityków Gartnera część większego rynku rozwiązań do zarządzania siecią oraz monitorowania operacji IT. Składają się na niego zarówno oprogramowanie, jak i specjalistyczne urządzenia, w tym czujniki i przełączniki. Analizując ruch w sieci, dostarczają one administratorom informacji o wydajności aplikacji i infrastruktury. Przede wszystkim monitorują sieć, diagnozują problemy i generują alerty. Co istotne, dostarczają także danych o dostępności aplikacji i jakości usług świadczonych użytkownikom końcowym. To jednak nie wszystko. Dzięki funkcjom analitycznym i uczeniu maszynowemu zapewniają – bazujące na danych o wydajności w czasie rzeczywistym i danych historycznych – wskazówki ułatwiające optymalizację ruchu.

Jednym z kluczowych terminów odnoszących się do rozwiązań NPMD jest AI Ops, czyli zastosowanie uczenia maszynowego do operacji IT. Oczekuje się, że połączenie wielkich zbiorów danych i algorytmów sztucznej inteligencji będzie mieć ogromny wpływ na zwiększenie dostępności i wydajności całej infrastruktury IT, a także ułatwi korelowanie i analizowanie zdarzeń zachodzących w sieci.
Właśnie funkcje predykcyjne i mechanizmy automatyzacyjne bazujące na uczeniu maszynowym stanowią jedną z najistotniejszych korzyści wynikających z zastosowania narzędzi NPMD. Uwalniają bowiem administratorów od rutynowych, żmudnych i czasochłonnych czynności związanych z rozwiązywaniem problemów z urządzeniami i użytkownikami, a pozwalają skupić się na zadaniach o większej wartości biznesowej.

Kompleksowo zamiast punktowo

Rynek rozwiązań NPMD jest niezwykle złożony. To powoduje, że nawet specjalistyczne zespoły w obrębie działów IT często mają trudności ze zrozumieniem oferty dostępnej na rynku. Biorąc pod uwagę deklaracje producentów, składają się na nią dziesiątki, jeśli nie setki produktów. W rzeczywistości poszczególne rozwiązania znacznie się różnią między sobą pod względem obszaru, na którym się koncentrują, prezentowanego widoku środowiska oraz funkcji i możliwości: analizują ruch, logi, pakiety, parametry urządzeń. Złożoność tego typu produktów pogłębia mnogość ich potencjalnych zastosowań: monitoring operacji sieciowych i rozwiązywanie problemów, planowanie pojemności sieci, cyberbezpieczeństwo.

Analitycy zwracają uwagę, że przez to trudno jednoznacznie odpowiedzieć,
które narzędzia najlepiej nadają się w danym przypadku. Tak naprawdę od specyfiki firmy, konkretnych potrzeb w danym obszarze zależy, jakie rozwiązanie lub ich zestaw zapewni największe korzyści.

Często zależy to także od wyboru źródeł danych, które będą analizowane.
Jedno jednak jest jasne: przedsiębiorstwa nie chcą rozwiązań punktowych i wolą zintegrowane platformy, które zapewniają różnorodne funkcje. Potwierdza to badanie przeprowadzone przez analityków Enterprise Management Associates. Ankietowane przez EMA firmy wykorzystują przeciętnie od trzech do sześciu narzędzi do monitorowania wydajności sieci. Rodzi to oczywiście problem integrowania informacji i fragmentację zarządzania, co przekłada się na zmniejszenie efektywności podejmowanych inwestycji. I dlatego właśnie do 2021 r. – jak wynika z badania EMA – przedsiębiorstwa mają zwiększać swoje inwestycje w platformy NPMD.

 

We własnym tempie

Nie ma żadnych badań na ten temat, ale wydaje się, że rynek NPMD w Polsce rozwija się wolniej niż światowy. Potwierdzają to rozmowy z przedstawicielami dystrybutorów, z zazdrością patrzących na rynki zachodnie, na których dostawy pewnych typów produktów są realizowane w cyklach tygodniowych. Niektórzy mówią, że tam klienci rozwiązania NPMD po prostu kupują, a w Polsce trzeba je aktywnie sprzedawać. Wymaga to większego wysiłku, ale ma także swoje plusy. Polscy dystrybutorzy dysponują o wiele większą wiedzą techniczną w tym obszarze niż ich zagraniczni koledzy, dzięki czemu mogą świadczyć zaawansowane usługi. Ze względu na istotną różnicę w kosztach pracy te usługi kupują od nich czasem dystrybutorzy działający na rynkach zachodnich na potrzeby realizowanych przez siebie projektów.

Można wskazać przynajmniej kilka przyczyn wolniejszego rozwoju rodzimego rynku. Przede wszystkim inwestycje w narzędzia do monitorowania wydajności i analizy sieci mają uzasadnienie ekonomiczne dopiero przy pewnej skali infrastruktury. Pewien wpływ może mieć także fakt, że tempo migracji do chmury i hybrydyzacja środowisk także przebiegają w naszym kraju wolniej niż na Zachodzie. Dlatego na razie zaawansowane rozwiązania klasy NPMD można
spotkać raczej u operatorów telekomunikacyjnych i w największych bankach. Tak zwany rynek enterprise – z punktu widzenia dystrybutorów i integratorów – jeszcze się w naszym kraju nie rozwinął.

Trudności w finansowaniu inwestycji w NPMD w przedsiębiorstwach działających w Polsce sprawiają, że dużym zainteresowaniem cieszą się rozwiązania open source, takie jak np. Zabbix czy Nagios. Otwierają one pewne możliwości, ale zarazem wnoszą pewne ryzyko. Przede wszystkim ich użytkownicy nie mogą liczyć na natychmiastowe wsparcie techniczne producenta, który zatrudnia wykwalifikowanych specjalistów. Jednocześnie firmy uzależniają się od swoich pracowników, którzy odchodząc, zabierają wiedzę o obsłudze rozwiązania, najczęściej mocno oskryptowanego. Nowi ludzie potrzebują czasu na naukę, co powoduje problemy z ciągłością monitoringu i analizy.
Wszystko to sprawia, że dystrybutorzy liczą w pierwszej kolejności na większe zainteresowanie rozwiązaniami o ograniczonej funkcjonalności, za to atrakcyjniejszymi cenowo (na poziomie od kilkunastu tysięcy złotych) niż ofertą liderów raportów analitycznych.