Ten rok zdominują rozwiązania, które wyznaczały kierunki rozwoju branży już w latach ubiegłych. Choć nie od dziś jest o nich głośno, to dopiero teraz dojrzewają zarówno one, jak i polski rynek (który jest dość zachowawczy) do bardziej masowych wdrożeń. A przy tym bardziej przemyślanych, bo klienci coraz lepiej potrafią odróżnić marketingowe hasła od rzeczywistych korzyści zapewnianych przez promowane rozwiązania.

Dlatego rozpoczynający się rok powinien być punktem zwrotnym choćby dla cloud computingu. Jak wykazują badania, świadome wykorzystanie chmury publicznej przez polski biznes i instytucje w latach ubiegłych pozostawało na poziomie marnych kilku procent. W tej dziedzinie bardzo odstawaliśmy nie tylko od światowych liderów, ale także od sąsiadów w regionie.

Warto zwrócić uwagę na zwiększoną aktywność dostawców chmury publicznej na polskim rynku, coraz bardziej dojrzałą ofertę dla środowisk hybrydowych i – co ważne – dużo lepsze postrzeganie tego typu usług przez użytkowników. Te czynniki sprawiają, że w 12 nadchodzących miesiącach powinniśmy obserwować znaczny wzrost wykorzystania chmury publicznej. Tym bardziej że start następuje z wyjątkowo niskiego pułapu.

Z kolei cyfrowa transformacja przez ostatnie lata funkcjonowała trochę jako słowo wytrych, służąc do uruchamiania budżetów klientów. Dzięki niej mieli – jak obiecywał przekaz marketingowy –„uniknąć technologicznego zapóźnienia i wyróżnić się na tle konkurencji”. Przyszedł jednak czas na weryfikację obietnic i okazało się, że sprawy nie wyglądają za dobrze.

Badania wykazują, że do tej pory wdrażana cyfryzacja zwykle nie przekładała się na poprawę wskaźników finansowych w firmach, a inne korzyści z inwestycji w cyfrową transformację najczęściej pozostawały w sferze pobożnych życzeń. Pomimo tego dostawcy w nowym roku nie porzucą idei digital transformation. Będą jednak wraz z partnerami w sposób bardziej przystający do rzeczywistych potrzeb klientów przekonywać ich, że warto działać jako w pełni cyfrowe przedsiębiorstwo.

Zejść na ziemię muszą także w przypadku Internetu rzeczy. Przez lata o IoT słyszało się wiele, jednak wizja miliardów połączonych urządzeń nie sprawiła, że resellerzy i integratorzy masowo włączyli tego typu projekty do swojej oferty. Prócz smart meteringu prezentowano niewiele konkretnych przykładów wdrożonych i działających instalacji. Teraz powinno się to zmienić.

Na kolejnych kilku stronach prezentujemy krótki przegląd technologii, które w opinii ekspertów będą wyznaczać kierunki rozwoju rynku IT w nowym roku. Bez wątpienia część z nich szybko znajdzie wielbicieli, innymi zaś zajmą się wyłącznie pionierzy, występujący w roli testerów rzeczywistej wartości poszczególnych rozwiązań.

 

Chmura hybrydowa

Choć mało kto już wątpi, że chmura to przyszłość IT, w naszym kraju wciąż nie ma wielu odważnych, by sprawdzić to na własnej skórze. Sytuację może zmienić coraz bardziej konkretna wizja chmury hybrydowej. Warunki do tego stwarzają najwięksi dostawcy. Po dwóch latach zapowiedzi Microsoft wreszcie udostępnił Azure Stack – platformę IaaS dla chmury prywatnej, która może być łączona z publicznym Azure’em. Amazon Web Services, lider na rynku public cloud, poprzez partnerstwo technologiczne oferuje hybrydowe środowisko VMware on AWS. Tworzenie hybrydowej chmury ma też ułatwiać współpraca AWS z Cisco. Z kolei Google Cloud Platform wchodzi w sojusze z VMware’em i Nutanixem. W przygotowaniu oferty chmury hybrydowej, skutecznym jej wdrażaniu i zarządzaniu tym skomplikowanym środowiskiem dużą rolę będą odgrywać integratorzy. Łączenie chmur powinno stać się dla nich nowym, zyskownym zajęciem.

 

Sztuczna inteligencja

Dzięki chmurze sztuczna inteligencja (AI) oraz uczenie maszynowe (ML) mają szansę na szybszą popularyzację. Wśród dostawców publicznej chmury trwa wyścig, kto pierwszy stworzy platformę AI, którą klienci będą chętnie integrować z wykorzystywanymi w przedsiębiorstwach systemami i aplikacjami. Jeśli do tej pory komunikacja z komputerem polegała na wskazywaniu, klikaniu, dotykaniu ekranu i pisaniu na klawiaturze, to teraz coraz częściej będziemy się porozumiewać z maszyną za pomocą głosu. Sterowanie głosem i wirtualni asystenci mogą szybko zrewolucjonizować obsługę urządzeń w domu, biurze czy zakładzie produkcyjnym. Wirtualny asystent (a w zasadzie asystentka, bo Cortana, Google Assistant, Siri czy Alexa mówią żeńskimi głosami) może zasadniczo zmienić organizację i prowadzenie spotkań biznesowych. Już teraz potrafi wykonywać proste polecenia w rodzaju „wyślij tę prezentację do X”. Za chwilę będzie możliwa realizacja bardziej skomplikowanych zadań, jak np. podsumowanie najważniejszych tematów poruszonych na spotkaniu.

 

Walka z cyberzagrożeniami

W 2018 r. przeprowadzenie ataku z wykorzystaniem ransomware’u będzie coraz łatwiejsze. Szczególnie ze względu na rosnącą liczbę usług RaaS (Ransomware as a Service), za pomocą których cyberprzestępcy udostępniają zleceniodawcom swoje szkodliwe oprogramowanie, eliminując jednocześnie potrzebę posiadaniawiedzy i umiejętności programowania. Do obrony przed ransomware’em i innymi cyberzagrożeniami coraz częściej wykorzystywana będzie automatyzacja, uczenie maszynowe i sztuczna inteligencja. Celem jest skrócenie czasu niezbędnego do wykrycia pojawiających się zagrożeń i minimalizacja szkód wywołanych udanym atakiem. Cisco zwraca uwagę, że możliwa staje się już identyfikacja i blokowanie szkodliwego oprogramowania wykorzystującego ruch zaszyfrowany, i to bez naruszenia zasad prywatności. „Sukces” WannaCry pokazał, że branża IT, stosując nowe podejście do ochrony, nie może zapominać o podstawach – łataniu dziur w zabezpieczeniach, wprowadzaniu wieloskładnikowego uwierzytelniania, skutecznej segmentacji sieci i „last but not least” – o porządnym backupie.

 

Systemy hiperkonwergentne

To jeden z najszybciej rosnących segmentów rynku IT. Niemal każdy dostawca infrastruktury stara się wprowadzić do oferty systemy hiperkonwergentne. W rezultacie mnożą się podejścia do koncepcji HCI (Hyper-Converged Infrastructure). Wspólne jest to, że w jednym zwirtualizowanym rozwiązaniu łączy się ze sobą pamięć masową, moc obliczeniową i funkcje sieciowe. Jedną z zalet jest działanie w trybie plug and play. Potencjalnie łatwa jest też rozbudowa – gdy potrzeby rosną, można dokupić serwer x86 z dodatkową pamięcią masową, a po połączeniu z resztą hiperkonwergentnej infrastruktury oprogramowanie wirtualizujące zadba o load balancing powiększonego systemu. Systemy HCI były początkowo przeznaczone do obsługi infrastruktury wirtualnych pulpitów (VDI) oraz innych aplikacji o przewidywalnym zapotrzebowaniu na zasoby. Z czasem ze specjalizowanych rozwiązań dla VDI zmieniły się w skalowalne platformy, które mogą obsługiwać bazy danych (zwłaszcza in-memory), aplikacje komercyjne, rozwiązania do pracy grupowej, serwery plików i druku itp.

 

Platformy IoT

W 2018 r. powinniśmy zobaczyć więcej dowodów na to, że Internet rzeczy nie jest tylko przyszłościową wizją wielu miliardów połączonych z siecią urządzeń, ale nadaje się do wdrażania tu i teraz. Dostawcy – poprzez przejęcia, tworzenie nowych platform i działania w kanale sprzedaży – dostosowują swoje strategie do oferowania rozwiązań IoT. Pod koniec ub.r. Dell Technologies stworzył nowy dział produktów do Internetu rzeczy, na których rozwój ma w ciągu trzech lat przeznaczyć 1 mld dol. Także Intel promuje swoją nową platformę IoT, stworzoną z myślą głównie o zastosowaniach w retailu. Lepsze zarządzanie i kontrolę nad połączonymi systemami przemysłowymi (w tym IoT) ma zapewnić partnerom platforma HPE, łącząca światy IT i OT. W 2018 r. bardzo energicznie na tym rynku będzie działać Cisco, w obydwu obszarach – sprzętowym i oprogramowania. Swoją ofertę przygotowują także dostawcy chmury publicznej. Ponieważ bezpieczeństwo IoT wzbudza coraz więcej obaw, zabezpieczanie systemów z wieloma połączonymi z siecią „rzeczami” staje się szansą na biznes.

 

Edge computing albo mgła

W klasycznym modelu Internetu rzeczy wszystkie dane rejestrowane przez czujniki są przesyłane do chmury i tam analizowane. Wiąże się to z opóźnieniami, których w wielu zastosowaniach (zwłaszcza przemysłowych) być nie powinno. Dlatego tam, gdzie dane muszą być analizowane natychmiast, wprowadza się koncepcję edge computing albo mgły (fog), uniezależniającej instalację IoT od chmury i Internetu. W takim modelu moc obliczeniowa, pamięć masowa oraz połączenia sieciowe znajdują się na brzegu sieci, gdzie zbierane przez sensory informacje są procesowane. Węzły edge computing mogą analizować większość informacji i przesyłać do dalszej analizy tylko to, co wymaga przetworzenia i przechowania w chmurze. W koncepcję edge computingu wpisuje się oferta mikrocentrów danych, czyli niewielkich boksów modułowych, gotowych do uruchomienia systemu IT na brzegu sieci. W obudowie szafy bądź kontenera zapewniona jest klimatyzacja, dystrybucja zasilania i sieci, a także rozwiązania składające się na bezpieczeństwo fizyczne małego data center.

 

SDN na łączach

Od dłuższego czasu to oprogramowanie decyduje o innowacyjności branży sieciowej, w coraz większym zakresie realizującej wizję sieci definiowanych programowo. Liderzy rynku SDN co roku podwajają wyniki sprzedaży rozwiązań, które mają uczynić sieci bardziej elastycznymi i tańszymi. Klienci chcą, by programowalność dawała im większą kontrolę nad dostępem do sieci, umożliwiała mikrosegmentację i szybkie wdrażanie bazujących na oprogramowaniu rozwiązań, związanych np. z bezpieczeństwem czy transmisją wideo. SD-WAN zaspokaja potrzebę lepszej obsługi chmury i środowisk hybrydowych, coraz częściej wykorzystywanych przez przedsiębiorstwa. Technologia definiowanej programowo sieci WAN umożliwia zautomatyzowane zarządzanie oraz precyzyjne dostosowywanie sieci do specyfiki aplikacji i obsługi ruchu. Programowalna sieć rozległa w czasie rzeczywistym reaguje na zmieniające się obciążenia i warunki, przez co staje się bardziej efektywna kosztowo.

 

Oprogramowanie rządzi

Gdy powstają nowe usługi chmurowe, platformy programistyczne i mechanizmy współpracy, rośnie grupa różnego typu aplikacji. Zachodzą szybkie zmiany, a eksperci powtarzają, że większość aplikacji, jakie w najbliższych latach będą wykorzystywane w przedsiębiorstwach, wciąż jeszcze nie powstała. Nadchodzi fala oprogramowania, które będzie mieć natywnie wbudowane funkcje chmurowe oraz umożliwi programistom szybkie tworzenie aktualizacji i wprowadzanie nowych wersji do produkcji. Tym samym dostawcy usług będą mieć okazję wspomóc swoich klientów, rozwijając i zarządzając produktami typu Software as a Service, które będą tworzone zgodnie z indywidualnymi potrzebami. Jak ważne stają się aplikacje, pokazuje strategia gigantów w dziedzinie infrastruktury sprzętowej. Od pewnego czasu HPE, Dell czy Cisco wydają bardzo dużo, by wzmocnić swoją ofertę bazującą na oprogramowaniu i usługach. Także partnerzy, którzy postawią na dostarczanie przede wszystkim aplikacji, a nie infrastruktury, będą mogli liczyć na większe zyski.

 

Nośniki pamięci

Każdego kolejnego roku obserwujemy, jak układy flash zdobywają nową część rynku pamięci masowych. Rok 2018 nie będzie jeszcze tym, w którym SSD prześcigną dyski HDD pod względem wielkości sprzedaży. Fabryki produkujące układy NAND nie dałyby rady. Już teraz nie nadążają za potrzebami, co ma wpływ na cenę. A ta wciąż znacznie różni się od kosztu zakupu dysku twardego. Jednak zdaniem analityków trudności zaopatrzeniowe mają w 2018 r. zostać przezwyciężone, więc ceny powinny spaść. Więcej producentów będzie montować SSD w swoim sprzęcie, przede wszystkim w komputerach PC, ale też macierzach all-flash (oferuje je już każdy liczący się dostawca pamięci masowych). Akceptacja dla SSD w przedsiębiorstwach będzie się zwiększać, na co wpływ będzie miał wyraźny wzrost pojemności i bezproblemowa obsługa flash w środowiskach wirtualnych. Jeszcze przez kilka lat tańszy i pojemniejszy HDD będzie liderem rynku, by ostatecznie stać się urządzeniem niszowym. W głównym nurcie pozostaną SSD i… wiekowe taśmy, które najlepiej sprawdzają się w archiwizacji.