Uczestnicy Akademii IT mogli wybierać pomiędzy szesnastoma szkoleniami, podczas których swoją wiedzą i doświadczeniem dzielili się specjaliści Dell EMC, VMware, Hitachi Vantara, IBM, Veeam, Microsoft, AWS, Cisco i SonicWall. Swoje rozwiązania wysokiej dostępności dla centrów danych przedstawiło także Fujitsu, nowa marka w ofercie dystrybutora. Zdaniem Mariusza Ziółkowskiego, country managera Tech Daty w Polsce, wzajemne relacje między producentami, dystrybutorem i partnerami są kluczowe we współpracy przy projektach wdrożeniowych, szczególnie w obszarach, których znaczenie mocno rośnie – jak np. Big Data czy bezpieczeństwo. Podczas spotkania wszystkie strony miały sposobność ocenić, w jakim zakresie mogą na siebie wzajemnie liczyć i jakimi kompetencjami się wspierać. 

Data discovery: co jest ważne   

Podczas Akademii IT podjęto próbę odpowiedzi na pytanie: co obecnie stymuluje potrzeby przedsiębiorstw w zakresie rozwiązań oraz usług IT? Wygląda na to, że m.in. wielkie porządki w dziedzinie zabezpieczeń wymuszone przez prawo, ale i –  miejmy nadzieję – zdrowy rozsądek zarządzających organizacjami. Jak wynika z prezentacji w bloku tematycznym Security, organizacje wciąż mają bardzo dużo do zrobienia na przykład w kwestii ochrony danych osobowych, a firmy IT, przy odpowiednim podejściu i przeszkoleniu, mogą być im pomocne w uporządkowaniu tego obszaru. 

W trakcie szkolenia zorganizowanego przez IBM zwrócono uwagę słuchaczy, że nieporządek w przedsiębiorstwach wywołują między innymi dwa procesy: dynamika i entropia danych. Dynamika wiąże się np. z tworzeniem na życzenie pracowników baz adresatów, które potem wykorzystuje się planowanych działaniach, np. mailingach. Problem w tym, że osoby, dla których utworzono takie bazy nierzadko przenoszą je na prywatne urządzenia lub przesyłają na prywatną pocztę – chociażby po to, aby dokończyć swoją pracę w warunkach domowych. Łatwość, z jaką mogą dokonać „wyniesienia”, stanowi ciągle problem niejednej organizacji. 

Z drugiej strony administratorzy IT nie zawsze w pełni identyfikują miejsca w firmowej sieci, w których znajdują się różne kategorie danych. Zjawisko entropii danych (również osobowych) mogą wywołać chociażby nie do końca sprawne narzędzia informatyczne służące do ich lokalizowania. Podczas sesji padł bardzo wymowny przykład: firma, która po długich namowach pozwoliła specjalistom IBM-a przeskanować swoją sieć, dowiedziała się, że dane osobowe nie są umiejscowione w ośmiu miejscach – jak sądziła – ale w ponad stu. Powodem pozostawania ich w różnych lokalizacjach w sieci był błąd technologiczny w implementacji i konfiguracji baz, o którym administratorzy zwyczajnie nie wiedzieli. To dlatego proces data discovery powinien być ciągły, przekonywano słuchaczy, a firmy IT, szczególnie w czasach RODO, mają szansę przekonać o tym klientów dużo skuteczniej niż kiedyś wdrażając im odpowiednie narzędzia albo oferując usługi. 

„Pokaż mi, jak to działa”

Pomoże im w tym pewien „drobiazg”, wynikający z nowego prawa. Obecnie podczas audytu związanego z ochroną danych osobowych przedsiębiorstwa muszą wykazać w praktyce, że wszystkie stosowane przez nich zabezpieczenia przed wyciekiem rzeczywiście działają. Wykazać – na przykład przez symulację ataku zewnętrznego bądź wewnętrznych działań naruszających politykę bezpieczeństwa. Firmy często nie są przygotowane do tego czysto praktycznego elementu kontroli, co otwiera integratorom pole do działania. W tym kontekście IBM przedstawił rozwiązanie Resilient, które automatyzuje procesy obsługi incydentów czy nieuprawnionego dostępu. Właśnie automatyzacja działań stricte informatycznych, związanych z bezpieczeństwem, wydaje się być remedium na planowane działania, ale też ludzką niefrasobliwość m. in. w niewłaściwym postępowaniu z danymi osobowymi. 

Kontrola sieci bez VLAN 

Termin automatyzacja przewijał się w panelu Security nie tylko podczas sesji IBM-a. To także cecha scentralizowanego rozwiązania służącego do ochrony sieci oferowanego przez Cisco. Mowa o Identity Services Engine. Dzięki integracji warstwy software’owej z sieciową ma ono zapewniać bezpieczny, kontrolowany dostęp rożnych urządzeń do firmowej sieci bez użycia VLAN i list ACL. Choć te dwa ostatnie sposoby są jak najbardziej aktualne, to realia w jakich funkcjonują współczesne przedsiębiorstwa mogą zmuszać je do szukania innych rozwiązań. 

Jak przypomniał prowadzący sesję Rafał Owczarek, Cyber Security Specialist w Cisco, większość dużych organizacji ma kłopoty z kontrolą tego, jakie urządzenia pracują aktualnie w ich sieci – chociażby ze względu na ich liczbę. Działy bezpieczeństwa w dodatku są bombardowane ogromną liczbą alertów związanych z zagrożeniami (przy wielu różnych urządzeniach wzrasta ryzyko pobrania przez któreś złośliwego pliku). Zwiększa się więc potrzeba coraz szybszego reagowania na tego typu zagrożenia i natychmiastowego wręcz wyizolowania w sieci zainfekowanego sprzętu, a także pełnej informacji o tym, jakie punkty końcowe działają w sieci wraz z uwidocznieniem kontekstu – czyli wszystkiego, co jest powiązane z danym zasobem w firmie. 

Rafał Owczarek zwrócił m.in. uwagę na drukarki, wśród których szczególnie podstawowe modele nie są wyposażone w funkcje autentykacji. Może to stanowić spory problem, bo to właśnie ich  porty chętnie wykorzystują cyberprzestępcy, aby sprawdzić, do jakich innych systemów podatnych na ataki mogą się dostać. Zresztą, korzystają z tego również audytorzy sprawdzający odporność sieci na działania hakerów. 

Data Center: SSD bez stereotypów

Jacek Siekiński, Senior System Engineer Dell EMC, radził z integratorom jak rozprawić się ze stereotypami dotyczącymi dysków SSD, które funkcjonują wśród klientów biznesowych. Mowa o wysokiej cenie napędów i ich słynnej szybkości. Specjalista odwołał się w tym celu do swoich doświadczeń z konkretnych wdrożeń macierzy all flash XtremO. Według niego postrzeganie rozwiązań SSD wyłącznie w kontekście ceny i szybkości, a w oderwaniu od innych parametrów, nie zawsze przynosi dobre rezultaty w praktyce. Szczególnie, gdy mowa o IOPS, warto pamiętać o tym, że od tego parametru klienci biznesowi z przyzwyczajenia oczekują dużo więcej niż wskazywałyby na to ich realne potrzeby. 

Generalnie to, czy macierz all flash spełni oczekiwania odbiorcy biznesowego, zależy od prawidłowego zbadania środowiska, w którym ma działać. Podczas rozmowy z odbiorcą, który według wszelkiego prawdopodobieństwa podniesie temat wydajności, warto uświadomić mu, że liczy się nie tylko liczba operacji na sekundę, ale również czas odpowiedzi. W każdym razie ważne jest, aby  macierz te dwa parametry miała stałe. 
Pracę macierzy all flash w danym środowisku warto rozpatrywać także w kontekście uruchamianych na niej serwisów (procesów deduplikacji,  kompresji, szyfrowania, snapshotów). Mają one wpływ na to, z jaką wydajnością ostatecznie rozwiązanie all flash będzie pracować u klienta. Jacek Siekiński zwrócił także uwagę na duże zapotrzebowanie ze strony klientów na wykonywanie kopii danych produkcyjnych. Z reguły bywa to kłopotliwe, ponieważ klasyczne snapshoty wpływają na wydajność macierzy. Jednak jeśli funkcja ich sporządzania jest zaimplementowana w macierzy, takich kopii można robić dużo więcej i pracują one z taką samą wydajnością jak system produkcyjny. 

Połów w jeziorze danych

Dane są cennym zasobem firm, jednak wciąż niewiele organizacji potrafi je wykorzystać w takim zakresie, w jakim umożliwiają to nowoczesne narzędzia analityczne. Według raportu dotyczącego poziomu stosowania analizy w polskich przedsiębiorstwach, którego treść udostępniono uczestnikom Akademii IT, najczęściej stosowanym narzędziem do analizy danych jest MS Excel (37 proc. firm). Natomiast plany w rozwoju narzędzi informatycznych do szeroko pojętej analizy danych posiada co czwarty przedsiębiorca w Polsce. Przeszkodą zwykle jest cena zakupu i wdrożenia.  

Podczas prezentacji AWS podkreślano znaczenie data lakes dla współczesnej analityki danych, których w przedsiębiorstwach ciągle przybywa. W „jeziorze”, inaczej niż w przypadku tradycyjnych hurtowni (data warehouse), dane mogą pochodzić z różnych źródeł, umieszczane tam za pomocą różnych usług i różnych narzędzi. Samo ich wprowadzenie do data lakes jest dużo wygodniejsze i charakteryzuje się swobodą w porównaniu z systemowym zapełnianiem data wearhouse’u. AWS w tym kontekście przedstawił swoje usługi chmurowe związane z analityką tych zasobów. 
Temat analityki podjęło także Hitachi Vantara, w sesji, która była próbą odpowiedzi na pytanie: dlaczego tak wiele pilotów Big Data nie jest wdrażanych na produkcji? Uczestnicy Akademii IT zapoznali się także z możliwościami platformy analitycznej w chmurze IBM Watson oraz systemem Power BI Microsoftu.