Systemy autonomiczne

Chociaż większość dzisiejszych rozwiązań autonomicznych funkcjonuje w kontrolowanych środowiskach, takich jak kopalnie czy magazyny, ostatecznie trafią one do otwartych przestrzeni publicznych. Obdarzone inteligencją „rzeczy” autonomiczne będą współpracować z sobą na zasadach roju, czego przykładem był rój dronów wykorzystywanych podczas Zimowych Igrzysk Olimpijskich 2018.

Gartner zachęca do poszukiwania sposobów na wykorzystanie bazujących na sztucznej inteligencji funkcji autonomicznych w praktycznie każdym urządzeniu fizycznym w firmie lub w środowisku klienta. Dostawcy IT mogą tworzyć scenariusze i mapy interakcji klientów, by identyfikować istotne wartości biznesowe. Przedsiębiorstwa mogą wykorzystywać inteligentne rzeczy na równi z tradycyjnymi zadaniami manualnymi i półautomatycznymi. Przykłady użycia mogą obejmować autonomiczną wysyłkę i zaawansowane rolnictwo, gdzie do autonomicznego prowadzenia gospodarstw będą tworzone algorytmy dla robotów.

Systemy autonomiczne bardzo szybko się rozwijają, po części dlatego, że dysponują wspólnymi możliwościami technicznymi. Po przezwyciężeniu wyzwań związanych z rozwojem innowacji w obszarze jednego systemu autonomicznego można ją zastosować do rzeczy autonomicznych innego rodzaju.

Bezpieczeństwo bazujące na AI

Wymieniona wcześniej dziewiątka ewoluujących technologii, która według Gartnera zmieni krajobraz IT, doprowadzi też do powstania nowych luk w zabezpieczeniach i potencjalnych miejsc ataku. Zespoły ds. bezpieczeństwa będą musiały stawić czoła nowym wyzwaniom i ocenić, w jaki sposób sztuczna inteligencja wpływa na cyberochronę. Gartner zakłada, że są trzy kluczowe obszary, które należy zbadać pod kątem wpływu sztucznej inteligencji na bezpieczeństwo: ochrona systemów bazujących na sztucznej inteligencji, wykorzystanie sztucznej inteligencji do zwiększenia bezpieczeństwa oraz spodziewane złośliwe użycie sztucznej inteligencji przez atakujących.

Do 2022 r. 30 proc. wszystkich cyberataków na sztuczną inteligencję będzie polegać na zatruwaniu danych treningowych, kradzieży modelu AI lub wykorzystaniu wrogiej AI do ataku na systemy napędzane sztuczną inteligencją. Zatrucie danych treningowych polega na tym, że hakerzy doprowadzają do awarii bądź błędnego działania systemu sztucznej inteligencji przez dostarczenie mu nieprawidłowych danych.

Kolejne obawy związane z bezpieczeństwem i AI wzbudza to, że atakujący zaczynają korzystać z uczenia maszynowego (ML) i innych technik sztucznej inteligencji, by wzmocnić siłę swoich ataków. Gartner twierdzi, że każda innowacja w ML może być i będzie wykorzystywana w niebezpieczny sposób. Dlatego firmy będą musiały przewidywać, w jaki sposób hakerzy mogą zaatakować rozwiązania bezpieczeństwa oparte na ML w fazach treningu i predykcji.