Innowacje i innowacyjność to słowa, które w branży IT są wyjątkowo nadużywane. Bo przecież z samego faktu, że jakaś idea lub technologia jest nowa, nie wynika jeszcze, że to od razu przełomowa innowacja. Ten termin jest zarezerwowany dla rzeczywiście wyjątkowych rozwiązań. Przy czym nie wszystkie muszą się sprawdzić. Jeśli jednak są faktycznie innowacyjne, to nawet ich porażka będzie mieć trwały wpływ na rynek. Tak czy inaczej, żeby być skutecznym w biznesie, trzeba mieć intuicję w stawianiu na te nowości, które będą zbieżne z priorytetami klientów i znajdą się na ich liście zakupów. Wybierając je, należy ostrożnie podchodzić do rynkowych przewidywań producentów. Nierzadko są one bowiem wyrazem ich celów biznesowych, nie zaś próbą oceny rzeczywistych potrzeb klientów. Ci ostatni bardziej liczą się z prognozami niezależnych analityków.

W kwestii tego, o czym będzie się dużo mówiło w 2019 r., pewne rzeczy łatwo przewidzieć. W dużej mierze obszary innowacyjności pozostają te same od kilku lat. Przez najbliższych kilkanaście miesięcy będziemy nadal dużo słyszeć o cyfrowej transformacji, przetwarzaniu w chmurze, sztucznej inteligencji, bezpieczeństwie czy IoT.

Choć mało kto już wątpi, że chmura to przyszłość IT, w naszym kraju wciąż nie ma wielu odważnych przedsiębiorców, by sprawdzić to na własnej skórze. Sytuację może zmienić coraz bardziej konkretna wizja chmury hybrydowej. Warunki do tego stwarzają najwięksi dostawcy. Po dwóch latach zapowiedzi Microsoft wreszcie udostępnił Azure Stack – platformę IaaS dla chmury prywatnej, która może być łączona z publicznym Azure’em. Amazon Web Services, lider na rynku public cloud, poprzez partnerstwo technologiczne oferuje hybrydowe środowisko VMware on AWS.

Tworzenie hybrydowej chmury ma też ułatwiać współpraca AWS z Cisco. Z kolei Google Cloud Platform wchodzi w sojusze z VMware’em i Nutanixem. W przygotowaniu oferty chmury hybrydowej, skutecznym jej wdrażaniu i zarządzaniu tym skomplikowanym środowiskiem dużą rolę będą odgrywać integratorzy. Łączenie chmur powinno stać się dla nich nowym, zyskownym zajęciem.

 

Cyfrowa transformacja – znowu…

„Digital transformation” to pojęcie – podobnie jak „innowacyjność” – odmieniane w ostatnich latach przez wszystkie przypadki i pojawiające się przy każdej nadarzającej się okazji. Przedstawiane przy tym często jako panaceum na wszelkie problemy przedsiębiorstw. Obecnie, po skonfrontowaniu obietnic z rzeczywistością, do cyfrowej transformacji klienci podchodzą już dużo ostrożniej.

W prognozach na 2019 r. analitycy z Forrestera twierdzą, że w tym roku przedsiębiorstwa cyfrową transformację będą traktować zdecydowanie bardziej pragmatycznie. To dlatego, że sparzyły się na zapewnieniach dostawców, iż radykalnie zmieni ona ich modele biznesowe bez konsekwencji dla codziennych działań operacyjnych. W rezultacie zarządy będą się decydować na wdrażanie skromniejszych projektów. Zamiast całościowych działań o szerokim zasięgu skupią się na inwestycjach prowadzących do przyrostowych i koniecznych zmian w swoich operacjach. Będą dążyć do wymiernych efektów transformacji cyfrowej, chociażby takich jak zwiększenie rentowności dzięki automatyzacji.

Niektóre z tych przedsiębiorstw będą odnosić większe sukcesy w działaniach, inne zaś czeka porażka. Forrester przewiduje, że jedna czwarta firm całkowicie wstrzyma cyfrową transformację, co doprowadzi je do utraty udziałów w rynku. Z drugiej strony jedynie 15 proc. przedsiębiorstw „w pełni pomyślnie przejdzie transformację, wykorzystując zorientowany na klienta, zwinny model dostarczania produktu na rynek, wsparty nowoczesnym rozwojem i architekturą”.

Bez względu jednak na indywidualne rezultaty firm, z uwagi na związane bezpośrednio z transformacją cyfrową globalne nakłady inwestycyjne – szacowane w latach 2018–2021 na 5,9 bln dol. (dane IDC) – pozostanie ona głównym obszarem rozwoju biznesu.

 

Więcej przetwarzania brzegowego

W dużej mierze z myślą o Internecie rzeczy promuje się od pewnego czasu przechodzenie od scentralizowanej lokalnej i chmurowej architektury centrum danych do przetwarzania brzegowego. Znaczenie edge computingu ma rosnąć w związku z potrzebą generowania i wykorzystywania danych bez wprowadzania znaczących opóźnień. Tym bardziej że w firmach coraz więcej informacji przetwarza się w czasie rzeczywistym. Gdy rośnie ilość danych, wysyłanie wszystkich do centralnej serwerowni bądź chmury spowalnia działanie systemu. Krótko mówiąc, edge computing ma przyspieszyć podejmowanie decyzji, a jednocześnie ograniczać koszty związane z niepotrzebnym transferem danych w sieci.
Zdaniem analityków na inwestycje w infrastrukturę do
przetwarzania brzegowego ma decydować się coraz więcej branż, wśród nich: handel detaliczny, ochrona zdrowia, finanse i media użytkowe. Sektory gospodarki, które wykazują zapotrzebowanie na przetwarzanie, pamięć masową i obsługę sieciową, umiejscowione są jak najbliżej użytkownika końcowego.

Edge computing będzie potrzebny także w przypadku pojazdów autonomicznych. Jeśli bowiem w tej dziedzinie priorytetem ma być zapobieganie wypadkom i bezpieczeństwo, wymaga to wydajnego i jak najszybszego przetwarzania, a takie właśnie oferuje edge computing. Przekazywanie danych czasu rzeczywistego na brzeg sieci, a następnie do chmury i z powrotem do samochodu nie wchodzi w grę. Zamiast tego potrzebna będzie infrastruktura brzegowa, w której wielkie ilości danych będą natychmiast buforowane, przetwarzane i analizowane.

Bez względu na to, czy autonomiczne pojazdy wejdą do użytku, już teraz zastosowań dla edge computingu powinno przybywać. Postęp napędzać ma wykorzystanie sztucznej inteligencji, większych możliwości magazynowania i przetwarzania danych oraz łatwiejsze integrowanie funkcjonalności brzegu z chmurą, dzięki czemu nie trzeba będzie całej infrastruktury tworzyć od zera.

 

IoT – cała wartość danych

O potencjale Internetu rzeczy i inteligentnych urządzeń słyszymy od kilku lat, ale dotąd z jego wykorzystaniem nie było najlepiej. Według analityków może się to zmienić już w bieżącym roku. Przykładowo Gartner prognozuje, że w 2019 r. będzie na świecie funkcjonować już 14,2 mld połączonych ze sobą rzeczy, a do 2021 r. ma być ich 25 mld. Wszystkie będą generować dane, które mają być „paliwem” napędzającym IoT. Zdaniem analityków od zdolności firm czy instytucji do wykorzystania całego mnóstwa informacji będzie zależał ich długofalowy sukces. Pomocą ma być sztuczna inteligencja, która ułatwi przetwarzanie danych pozyskiwanych z urządzeń Internetu rzeczy, w tym wideo, statycznych obrazów, mowy, statystyk ruchu sieciowego oraz danych z czujników.

Nowe generacje sensorów zapewnią wykrywanie większej liczby różnego rodzaju zdarzeń, a ceny mają być bardziej przystępne. Dodatkowo czujniki mają być przystosowane do obsługi nowych aplikacji, a inteligentniejsze algorytmy umożliwią pozyskiwanie coraz bardziej wartościowych informacji.

Wiele firm, które decydują się na wdrażanie projektów IoT już teraz (lub w najbliższej przyszłości), chce handlować danymi zbieranymi przez ich produkty i usługi. Według analityków w ciągu pięciu najbliższych lat zakup i sprzedaż pozyskiwanych informacji ma stać się podstawą funkcjonowania dużej liczby systemów IoT. Analitycy twierdzą wręcz, że w wielu przypadkach wartość danych przerośnie wartość obecnych dochodów poszczególnych firm.

Tę wizję zaburza nieco analiza Gartnera, zgodnie z którą firmy z listy Fortune 2000 w ostatnim czasie nieco ograniczyły zakupy sprzętu i oprogramowania do IoT – ze względu na niedobór posiadanych kompetencji. Chociaż 25 proc. wspomnianych przedsiębiorstw uznaje Internet rzeczy za najważniejszą inicjatywę w swojej organizacji, to aż 90 proc. z nich napotyka przeszkody w skutecznym wdrażaniu IoT, ze względu na brak specjalistycznej wiedzy.

To jednak, co stanowi barierę dla klientów, może być szansą dla integratorów, którzy takie właśnie umiejętności będą w stanie zaoferować. Badania analityków dotyczące Internetu rzeczy wykazują, że bezpieczeństwo stanowi niezmiennie największe wyzwanie dla firm wdrażających tego rodzaju systemy. Wynika to często z braku kontroli nad źródłem i postacią oprogramowania oraz sprzętu wykorzystywanego w inicjatywach związanych z IoT. To kolejny obszar, w którym integratorzy mogą się wykazać.

 

Chmura publiczna – wszystko pozamiatane?

Zdecydowana większość globalnego rynku chmury jest podzielona pomiędzy czterech głównych światowych graczy: Google’a, Amazona, Alibabę i Microsoft. Według raportu Goldman Sachs w 2017 r. w ich posiadaniu było 54 proc. rynku, a w 2019 r. ten udział ma wzrosnąć aż do 84 proc. Oznacza to, że do pozostałych graczy będzie należało zaledwie 16 proc.

Jak twierdzą analitycy, chociaż „wielka globalna czwórka” systematycznie powiększa swój udział w rynku chmury, nadal pozostanie na nim miejsce dla mniejszych dostawców. Jednak pod warunkiem, że zaoferują oni niszowe lub bardziej specjalistyczne rozwiązania niż giganci.

Według danych Głównego Urzędu Statystycznego (udostępnionych jesienią 2018 r.) obecnie z płatnych usług chmury obliczeniowej korzysta w Polsce zaledwie 11,5 proc. przedsiębiorstw. Odsetek używających chmury jest skorelowany z wielkością firmy – w największym stopniu chmurę wykorzystują duże przedsiębiorstwa, zatrudniające przynajmniej 250 pracowników. Niespełna 12 proc. to wciąż niewiele, ale wykorzystanie chmury może tylko rosnąć, a wzrost ten zapewne wcześniej czy później wyraźnie przyspieszy.

Gartner przewiduje, że do 2025 r. aż 80 proc. przedsiębiorstw na świecie całkowicie zrezygnuje ze swoich lokalnych centrów danych, przenosząc obciążenia do chmury oraz korzystając z usług kolokacji i hostingu. Masowe wyłączanie tradycyjnych, firmowych data center zmusi integratorów do zmiany modelu biznesowego. Przy czym model „as a Service” wymaga nowego sposobu myślenia. Jeśli ktoś wcześniej wiązał swój biznes z dostarczaniem wyłącznie infrastruktury on-premise, wybierając dostawców przynoszących największe dochody, to teraz – jeżeli przewidywania się sprawdzą – coraz częściej będzie zmuszony podjąć ryzyko i działać po nowemu.

 

Firewall ostatniej instancji

Malware typu ransomware i cryptomining oraz trojany bankowe to trzy główne zagrożenia, jeśli chodzi o złośliwe oprogramowanie w rozpoczynającym się 2019 r. Co prawda, spadła liczba infekcji przy użyciu ransomware’u, ale złośliwe oprogramowanie tego typu trudniej jest zidentyfikować, trudniej również odzyskać dane bez płacenia okupu. Odpowiedzią na zagrożenie powinno być oferowanie inteligentnego backupu, firewalli nowej generacji, skutecznego oprogramowania antywirusowego i szkoleń.

W 2019 r. cyberprzestępcy jeszcze bardziej skupią się na najsłabszym ogniwie systemu IT, czyli użytkownikach końcowych. Przesunięcie wektora ataku z sieci na użytkownika powinno skłonić klientów do przemyślenia na nowo strategii bezpieczeństwa i w efekcie wzrostu przekonania, że kluczem jest świadomość pracowników.

Od lat najskuteczniejszą metodą ataku jest phishing, a więc wykorzystanie przez cyberprzestępców socjotechniki i zebranych wcześniej informacji o potencjalnej ofierze. Jeżeli potraktować pracownika jako ostatnią instancję firewalla, to musi on dysponować wiedzą na temat tego, jak unikać zagrożeń. W bieżącym roku będzie rosło znaczenie narzędzi szkoleniowych z zakresu bezpieczeństwa, których ideą działania jest symulowanie ataków. Systematyczne testowanie zachowania personelu w obliczu ataku prowadzi do wytrenowania właściwych reakcji i znacznego podniesienia poziomu bezpieczeństwa w firmie.

W kontroli dostępu coraz ważniejsze będzie – zdaniem ekspertów – uwierzytelnianie dwuskładnikowe, a nawet eliminowanie loginów i haseł. W przeszłości było zbyt wiele przypadków kradzieży danych uwierzytelniających, aby uważać login i hasło za skuteczną ochronę. Dlatego na znaczeniu zyskiwać będzie biometria i inne bezpieczne metody ochrony dostępu.

Wciąż w użyciu jest wiele aplikacji, które wymagają praw administratora, a sposób, w jaki są skonfigurowane, daje użytkownikowi dostęp do całej firmowej sieci. Kolejnym problemem okazują się prawa dostępu przydzielane zewnętrznym pracownikom, tym bardziej że – wobec braku własnych specjalistów IT – firmy korzystają z outsourcingu. W rezultacie w 2019 r. będzie coraz więcej okazji do sprzedaży rozwiązań do zarządzania dostępem uprzywilejowanym (Privileged Access Management – PAM).

 

O co chodzi z tym SD-WAN?

Dla przedsiębiorstw decydujących się na transformację cyfrową, korzystających z chmury i aplikacji generujących duże ilości danych, wydajna, niezawodna, bezpieczna i łatwa w obsłudze sieć staje się priorytetem. Wśród najgorętszych tematów na rynku sieciowym w bieżącym roku znajdzie się programowalna sieć rozległa (SD-WAN). Kolejni liczący się dostawcy starają się włączyć tego typu rozwiązania do swoich ofert, przejmując producentów specjalizujących się w jej dostarczaniu.

SD-WAN umożliwia administratorom IT wdrażanie sieci prywatnych w internecie przez oddzielenie warstwy oprogramowania od sprzętu. Definiowane programowo sieci rozległe mają zapewniać większą elastyczność i efektywność w łączeniu oddziałów firm rozrzuconych na dużym obszarze geograficznym i obsługujących rozproszone obciążenia, aplikacje do udostępniania wideo i systemy telefonii VoIP. SD-WAN, która przynosi rewolucję w sieciach rozległych, bazujących dotąd na MPLS i routerach, poprawia wydajność aplikacji i bezpieczeństwo, a jednocześnie obniża koszty transferu danych.

Kolejnym zjawiskiem, które można zaobserwować na rynku sieciowym, jest powiększanie się grupy producentów oferujących przełączniki sieciowe mogące obsługiwać systemy operacyjne niezależnych dostawców. Zauważalny w ostatnich latach rozwój technik wirtualizacji sieci, takich jak SDN (Software-Defined Networking) oraz NFV (Network Functions Virtualization), doprowadził do oddzielenia systemu operacyjnego, płaszczyzny sterowania i funkcji sieciowych od sprzętu. W rezultacie możliwe stało się uruchamianie na urządzeniach sieciowych niezależnego od nich oprogramowania.

W odpowiedzi na zapotrzebowanie ze strony operatorów centrów danych oraz dużych przedsiębiorstw producenci coraz częściej poszerzają ofertę o model Open Networking. Gdy centra danych w coraz większym stopniu stają się definiowane programowo, otwartość systemu zapewnia klientom większy wybór, elastyczność, automatyzację i skalowalność w obszarze infrastruktury sieciowej.

 

Nowi giganci zmieniają oblicze rynku

Nie ma dobrych wieści dla chcących konkurować z rynkowymi gigantami działającymi według nowych modeli biznesowych. Choć wciąż w branży IT będą pojawiać się startupy usiłujące wykorzystać kolejne trendy technologiczne, to zdaniem wielu analityków tacy potentaci, jak Apple, Microsoft, Amazon, Google i Facebook, będą konsekwentnie zwiększać dominację na wielu rynkach.

W opinii Gartnera w 2019 r. firmy te zanotują dwucyfrowe wskaźniki wzrostu, przyciągając coraz większą liczbę użytkowników na całym świecie. Analitycy przewidują też, że do 2022 r. powinny one uzyskać w swoich branżach średnio po 40 proc. udziałów w światowym rynku.

Jednak ich dominacja to problem nie tylko dla startupów, a przede wszystkim dla dotychczasowych liderów rynku. Jak zauważa Ettienne Reinecke, CTO w Dimension Data, takie koncerny jak Apple, Microsoft, Amazon, Google czy Facebook, nie kupują technologii od tradycyjnych dostawców sprzętu – HPE, Della, Cisco czy IBM-u – działających w modelu OEM. Zamiast tego pozyskują rozwiązania lub komponenty od dostawców działających w modelu ODM, pisząc swój własny kod i tworząc własne rozwiązania. Ogranicza to rynek, na którym operują producenci OEM. Jeśli dodać do tego nowe, oferowane na dużą skalę wzorce konsumowania IT – jak IaaS czy SaaS – to rynek tradycyjnych dostawców infrastruktury jeszcze bardziej się kurczy. Już teraz w niektórych obszarach producenci OEM konkurują o niespełna 40 proc. całego rynku. Dlatego w ciągu najbliższych 3–5 lat jego oblicze może się bardzo zmienić.

 

Blockchain – wiele hałasu o nic?

Nie jest jasne, ile naszej uwagi w rozpoczynającym się roku będzie przyciągać nowa technologia, która stoi za powstaniem kryptowalut. Z jednej strony istnieją raporty (np. Deloitte), które mówią, że przedsiębiorstwa zaczynają przechodzić od projektów proof of concept do fazy realnych aplikacji. Ich autorzy twierdzą, że w 2019 r. należy spodziewać się większego wykorzystania blockchaina do zwiększania możliwości istniejących systemów lub tworzenia zupełnie nowych modeli biznesowych.

Z drugie strony ten sam Deloitte przyznaje, że chociaż na świecie blockchain zbliża się do szczytu popularności, to powszechność tych rozwiązań w Europie Środkowo-Wschodniej wciąż jest niewielka. Ponad połowa liderów i menadżerów firm uważa, że zachwyt nad jego możliwościami jest przesadzony, a tylko jedna czwarta przyznaje, że poczyniła już w tym obszarze inwestycje.

Nie brakuje też ekspertów, którzy uważają, że wokół blockchaina powstało wiele hałasu, ale ten przekaz ma niewiele wspólnego z rzeczywistością. Choć przyznają, że rozproszony rejestr to wspaniała koncepcja, jednocześnie uważają, że dużo więcej pożytku niż szukanie zastosowań dla niego przyniosłoby skupienie się na rozwoju aplikacji z wykorzystaniem dojrzalszych technologii, takich jak IoT, uczenie maszynowe oraz platformy kontenerowe. Jakiś czas temu Steve Wozniak porównał obecną ekscytację blockchainem do tej, którą obserwował tuż przed pęknięciem bańki dotcomów…