Zbudowanie działającej sieci komputerowej w małej czy średniej firmie nie stanowi obecnie poważnego wyzwania. Większość budynków dysponuje infrastrukturą okablowania strukturalnego, a moc bezprzewodowych punktów dostępowych jest na tyle duża, że bez trudu obejmują one zasięgiem obszar całego biura. Ale, jak zwykle, diabeł tkwi w szczegółach.

Coraz częściej, głównie w średnich przedsiębiorstwach, widać rosnące zapotrzebowanie na rozbudowę szkieletu sieci Ethernet do 10 Gb/s. Powodem jest rosnąca ilość przesyłanych danych, na co wpływ ma kilka czynników. Jednym z podstawowych jest zwiększająca się liczba podłączanych do sieci urządzeń, szczególnie jeśli administrator pozwala pracownikom na korzystanie z Internetu za pośrednictwem prywatnego sprzętu. Ruch w sieci zwiększają też maszyny wirtualne oraz działania prowadzone w celu zapewnienia zgodności z prawem lub wewnętrznymi regulacjami (głównie backupy i archiwizacja danych z urządzeń końcowych). Na ten trend zareagowali chyba wszyscy główni dostawcy, wprowadzając do oferty uproszczone wersje przełączników 10 GbE, znacznie tańsze od modeli przeznaczonych do dużych centrów danych.

Jednak dla niektórych klientów budowa pełnej sieci Ethernet 10 Gb/s może okazać się zbyt kosztowna ze względu na wymóg stosowania wysokiej jakości miedzianego okablowania strukturalnego lub połączeń światłowodowych. Z myślą o nich został opracowany standard NBase-T, który zapewnia dwukierunkową transmisję na odległość 100 m z prędkością 2,5 oraz 5 Gb/s za pomocą okablowania kategorii 5e i 6. Rozwiązanie jest kompatybilne ze standardami PoE, PoE+ i Cisco UPoE . Niestety, na razie niewielu dostawców oferuje produkty zgodne z NBase-T. Wśród najbardziej znanych można wymienić Cisco, należącą do HPE Arubę oraz Netgeara.

W przypadku sieci bezprzewodowych problemem nie jest już objęcie obiektu zasięgiem sygnału radiowego. Ze względu na różnorodność sprzedawanych punktów dostępowych oraz anten do nich to nietrudne zadanie. Wyzwaniem natomiast pozostaje kwestia pojemności sieci i pod tym kątem warto weryfikować posiadane przez klientów rozwiązania. Ma to szczególne znaczenie w placówkach użyteczności publicznej, gdzie przewija się bardzo wiele osób z urządzeniami działającymi w różnych standardach. Czekając w kolejce, oglądają np. filmy w serwisach streamingowych, więc w sieci odbywa się ciągły transfer danych. Z kolei w hotelach od dłuższego czasu trzeba zakładać, że na jednego gościa będzie przypadało więcej niż jedno urządzenie. Szansę na zarobek powinien stworzyć integratorom także rosnący rynek rozwiązań Internetu rzeczy, które w znacznej większości do globalnej sieci będą podłączone przez telefonię komórkową albo sieć Wi-Fi.

 

Wi-Fi ma przyszłość

Za tworzenie nowych standardów Wi-Fi oraz certyfikację zgodnych z nimi urządzeń odpowiada organizacja Wi-Fi Alliance – zrzeszenie producentów rozwiązań bezprzewodowych. Plany ich dalszego rozwoju obecnie sięgają 2021 r.

Według Kevina Robinsona, wiceprezesa Wi-Fi Alliance ds. marketingu, do końca 2017 r. na świecie będzie działało ponad 9 mld urządzeń zgodnych ze standardem Wi-Fi, z czego 3 mld zostanie sprzedanych w tym roku. Wśród głównych celów wyznaczonych producentom jest zwiększenie wydajności modułów komunikacyjnych, co ma szczególne znaczenie w kontekście spodziewanego szybkiego wzrostu popularności rozwiązań rozszerzonej i wirtualnej rzeczywistości oraz Internetu rzeczy. Wydajność środowiska sieciowego podniosą też „samozarządzające się sieci” (Self-Organizing Networks), dzięki czemu mniej doświadczeni użytkownicy nie będą musieli ingerować w ustawienia konfiguracyjne.

 

Sebastian
Channel Account Executive, Sophos

Urządzenia UTM to dla małych i średnich przedsiębiorstw idealne rozwiązanie ze względu na przystępną cenę, kompleksowe podejście typu „wszystko w jednym” oraz bezproblemową instalację i zarządzanie.

Zanim klient podejmie decyzję o zakupie, warto przedstawić mu funkcje tego systemu w maszynie wirtualnej. Zresztą w tej postaci część UTM-ów może pracować także na stałe. Warto też pomyśleć o integracji UTM z rozwiązaniami do ochrony stacji roboczych, szyfrowaniem czy ochroną urządzeń mobilnych. Ze względu na obecny poziom skomplikowania ataków dopiero taki zestaw narzędzi zapewnia mniejszym przedsiębiorstwom ochronę na wielu płaszczyznach oraz ułatwia stworzenie polityki bezpieczeństwa i jej przestrzeganie.

 

Według Wi-Fi Alliance bieżący rok ma być okresem bardzo szybkiego zyskiwania popularności przez rozwiązania gigabitowej sieci bezprzewodowej – WiGig (standard 802.11ac). Organizacja przyznaje coraz więcej certyfikatów „Wi-Fi Certified WiGig”, dzięki czemu już wkrótce przełom związany z sieciami Wi-Fi (uzyskanie podobnej wydajności jak w sieciach przewodowych) stanie się faktem. Czekają na to nie tylko prywatni konsumenci, ale też takie branże jak edukacja, ochrona zdrowia, operatorzy dużych obiektów publicznych, np. dworców czy stadionów i in.

Ale gigabitowa bezprzewodowa łączność to tylko jeden przystanek w tej podróży w przyszłość. Wi-Fi Alliance opracowało już założenia standardu wykorzystującego do transmisji nie tylko częstotliwości 2,4 oraz 5 GHz, ale także 60 GHz, co – według przedstawicieli organizacji – umożliwi przesyłanie danych z prędkością… 100 Gb/s (standard 802.11ay, spełniający założenia przedstawione w tej deklaracji, ma być ogłoszony w listopadzie 2019 r.). Prawdopodobnie w wielu zastosowaniach będzie to gwóźdź do trumny dla sieci przewodowych.

 

Bezpieczeństwo – wszystko w jednym

W firmowym środowisku IT ochrona sieci i przesyłanych przez nią danych jest równie ważna jak skuteczne zabezpieczenie urządzeń końcowych. Sytuację niestety utrudnia fakt, że ze względu na obecny poziom skomplikowania ataków przestały wystarczać do ochrony zwykłe antywirusy i firewalle wbudowane w routery wykorzystywane w małych firmach. Oprogramowanie antymalware jest skuteczne głównie w wykrywaniu znanych już narzędzi ataku, a filozofia działania firewalli polega na filtrowaniu ruchu internetowego zgodnie ze zdefiniowanymi regułami. Niestety, cyberprzestępcy nauczyli się tak tworzyć złośliwy kod, aby przepuszczała go większość prostych firewalli. W efekcie konieczna stała się zmiana strategii wykrywania anomalii w firmowej sieci.

Na rynku są różne narzędzia do analizy ruchu sieciowego, również behawioralnej. Wykrywają nietypowe zjawiska, które wymagają analizy. Na przykład jeżeli przez firmowy router dziennie przesyłanychjest średnio kilka gigabajtów danych, a nagle ich liczba rośnie kilkakrotnie, z pewnością jest to zjawisko niepokojące. Narzędzia tego typu po wykryciu zaatakowanego komputera błyskawicznie izolują go od sieci, co pozwala spokojnie wyeliminować problem.

W firmach z sektora MŚP, które nie zatrudniają ekspertów ds. cyfrowego bezpieczeństwa, głównym elementem chroniącym sieć przed atakami z zewnątrz powinien być UTM. Urządzenia takie do niedawna kojarzone były głównie z rynkiem odbiorców średniej wielkości, chociaż od kilku lat ich producenci zaspokajają potrzeby także najmniejszych użytkowników (nawet domowych). Do oferty większości głównych dostawców aktywnego osprzętu sieciowego i ochronnego trafiły „mikroUTM-y” (mikro zarówno pod względem skalowalności, jak i wielkości sprzętu), które funkcjonalnością niewiele lub wcale nie odbiegają od swoich dużych odpowiedników.

Urządzenia te mają, obok funkcji ochronnych, wbudowany router, przełącznik sieciowy, a niektóre modele także moduł bezprzewodowy lub kontroler punktów dostępowych sieci Wi-Fi. Ich wykorzystanie eliminuje często spotykane luki w systemie bezpieczeństwa (np. w przedsiębiorstwach, w których pracodawca nie udostępnia sieci bezprzewodowej, a pracownicy podłączają do portu Ethernet swój router Wi-Fi, aby korzystać z firmowego Internetu za pomocą smartfonu lub tabletu). Małe firmy interesują się tego typu sprzętem także dlatego, że pracuje zupełnie bezgłośnie, co ma znaczenie w sytuacji, gdy przedsiębiorstwo nie dysponuje oddzielnym pomieszczeniem przeznaczonym na sprzęt IT.

Krzysztof Krawczyk
IT Solutions Sales Manager Eastern Europe, Vertiv

W firmach, które nie zatrudniają personelu IT, konieczność dojazdu w celu przeprowadzenia prac serwisowych wiąże się głównie ze stratą cennego czasu inżyniera. Dlatego warto zapewnić sobie możliwość uzyskania dostępu do konsoli drogą alternatywną. Szybką analizę ostatnich zdarzeń przed awarią urządzenia, czy np. przeprowadzenie aktualizacji jego firmware’u zapewniają serwery konsoli połączone z Internetem dzięki wbudowanemu modemowi 4G/LTE. Generują powiadomienia o awarii i automatycznie podejmują działania ratunkowe. Nawet gdy konieczna okaże się wymiana urządzenia, dzięki przeprowadzonej wcześniej analizie można zawczasu zabrać nowe i skopiować na nie ustawienia konfiguracyjne z poprzedniego.

 

Za miniaturowy UTM trzeba zapłacić kilka tysięcy złotych. Koszt jest wystarczająco niski, aby inwestycja zwróciła się po pierwszym zablokowanym ataku, w wyniku którego zagrożone byłyby firmowe dane lub mogła ucierpieć reputacja przedsiębiorstwa. Obsługa małych UTM-ów jest dość prosta – bazuje na graficznym interfejsie, a proces konfiguracji odbywa się z wykorzystaniem kreatorów.

 

Na usługach można zarobić

Wśród firm MŚP bardzo szybko rośnie zainteresowanie profesjonalnymi usługami świadczonymi przez firmy obsługujące je kompleksowo w zakresie IT. W tym modelu przedsiębiorcy szukają usług gwarantujących poprawną pracę infrastruktury serwerowej i sieciowej oraz bezpieczeństwo danych. Dla klientów to korzystne finansowo rozwiązanie, bowiem nie muszą zatrudniać ekspertów w poszczególnych dziedzinach związanych z IT (czego zresztą wielu z nich nigdy nie robiło, świadomie lub nieświadomie wystawiając się na ryzyko utraty danych lub dostępu do nich).

Integrator działający w charakterze Managed Service Providera może zarabiać na świadczeniu zdalnych usług związanych z zarządzaniem siecią i jej zabezpieczaniem. Mogą być realizowane w dwóch modelach – rozszerzonym i uproszczonym. W tym pierwszym, niewątpliwie bardziej czasochłonnym, konieczne jest przeprowadzenie instalacji rozwiązania i jego uruchomienie, następnie administrowanie nim i powiadamianie użytkownika oraz dostawcy usługi o awarii lub wystąpieniu określonego zdarzenia. Istnieje natomiast wiele narzędzi, które część z tych zadań upraszczają albo umożliwiają ich zdalne wykonywanie.

Warto, by reseller miał do dyspozycji, obok rozwiązań do zarządzania infrastrukturą sieciową, oprogramowanie umożliwiające zdalny dostęp do pulpitów użytkowników komputerów. Funkcja ta jest dziś wbudowana w większość systemów operacyjnych, ale zaleca się korzystanie z dodatkowych narzędzi ułatwiających to zadanie i gwarantujących poufność przesyłanych danych. Niekwestionowanym liderem tego rynku jest TeamViewer – oprogramowanie bezpłatne do osobistego użytku, ale płatne (i to niemało) do użytku komercyjnego. Rafał Goszyk, dyrektor polskiego oddziału Prianto (dystrybutora TeamViewera w Polsce), przestrzega, że dostawca usługi śledzi sposób wykorzystania darmowych kont i blokuje je, gdy wykryje, że zostały użyte do celów komercyjnych. Wskazuje też, że skuteczność tej analizy jest dość duża, co prowadzi do zwiększenia zainteresowania zakupem licencji na te usługi ze strony partnerów.

– Sprzedaż cały czas rośnie, i to mimo faktu, że duża część klientów kupuje licencje bezpośrednio na stronie usługodawcy. Jest coraz więcej partnerów współpracujących z nami, którzy odsprzedają licencje lub samodzielnie korzystają z nich do świadczenia usług – podsumowuje Rafał Goszyk.

Wśród konkurencji TeamViewera można wymienić takie rozwiązania jak: Bomgar, Citrix GoToAssist, ConnectWise Control i LogMeIn.

Bezprzewodowa wizja lokalna

Jedną z najważniejszych czynności podczas planowania rozmieszczenia punktów dostępowych sieci Wi-Fi w obiekcie jest wizja lokalna połączona z analizą sposobu korzystania z sieci przez użytkowników. To od nich będzie zależało, w których miejscach należy zapewnić zasięg sygnału radiowego i jaka potrzebna będzie pojemność punktów dostępowych. Operacja ta nazywa się Wi-Fi Site Survey, a w Internecie można znaleźć szczegółowe opisy jej przeprowadzania oraz wytyczne pozwalające uniknąć typowych błędów.

Istnieją trzy typy analiz propagacji sygnału radiowego sieci Wi-Fi. Podczas analizy pasywnej dokonuje się tylko nasłuchu, czy w danym miejscu obecny jest sygnał sieci, oraz ocenia jego moc. W trakcie analizy aktywnej, dzięki interakcji między klientem a punktem dostępowym, można zbadać rzeczywiste parametry transmisji danych. Natomiast analiza predyktywna przeprowadzana jest w obiektach, gdzie nie ma jeszcze sieci bezprzewodowej – rozmieszczenie punktów dostępowych planowane jest na podstawie szacunków.