Dla tradycyjnego integratora, który wdraża sieci komputerowe, wejście do świata monitoringu wizyjnego może wydawać się trudne. Kwestie optyki, oświetlenia, doboru kamer, właściwego pokrycia nadzorowanego obszaru itp. bywają skomplikowane. Dlatego dla osób, które nie miały dotychczas do czynienia z dozorem wizyjnym, dobrze znane IT pozostaje czymś w rodzaju strefy komfortu. Jednak wyjście z niej okazuje się najczęściej stosunkowo łatwe. Chociażby z tego względu, że rozwiązania monitoringu wizyjnego są wyposażane w intuicyjne narzędzia ułatwiające dobór kamer i akcesoriów do potrzeb klienta. Późniejsza konfiguracja sprzętu też nie powinna sprawiać kłopotów, bo jest podłączany do sieci IP i zabezpieczany tak, jak pozostałe funkcjonujące w niej urządzenia. Zresztą zwykle do prawidłowego działania wystarczają ustawienia fabryczne. Dlatego to raczej klasyczni instalatorzy rozwiązań do ochrony, którzy wyrośli na wdrażaniu systemów analogowych, mogą mieć większe problemy z wejściem w świat sieci IP.

Najważniejsze jest właściwe określenie potrzeb klienta. Nie chodzi więc o automatyczne oferowanie zestawu kamer. Trzeba dostrzec, jaki klient ma problem, i ustalić, czego potrzebuje, aby go rozwiązać. Może się okazać, że bardziej niż wiele kamer przydałby się płot i lepsze procedury organizacyjne – uważa Bogumił Szymanek, Inside Sales Account Manager Poland and Baltics w Axis Communications.

O słuszności takiego podejścia niech świadczy historia integratora, do którego klient zgłosił się z prośbą o zamontowanie 200 kamer do monitoringu wizyjnego po kradzieży mienia o znacznej wartości w dużym obiekcie. Do tej pory było tam niewiele kamer, więc zdesperowany klient uznał, że trzeba ich użyć jak najwięcej. Integrator po przybyciu na miejsce spotkał się z zarządem, któremu zdołał wytłumaczyć, że aby podnieść poziom bezpieczeństwa, nie trzeba montować setek nowych sensorów, dostarczających informacje, nad którymi trudno będzie zapanować. W omawianym przypadku podczas audytu stwierdzono, że od 200 kamer bardziej potrzebne jest podwyższenie w pewnych miejscach ogrodzenia, dodanie oświetlenia oraz zwiększenie kontroli wjazdu i wyjazdu. W ten sposób lepsza ochrona została zapewniona znacznie niższym kosztem.

Bywa, że w chwili wdrażania rozwiązań do ochrony fizycznej nie pamięta się o tym, że one same też muszą być bezpieczne. Jeśli funkcjonują w sieci IP, siłą rzeczy narażone są na cyberataki. Dlatego powinny spełniać określone standardy bezpieczeństwa, np. dokonywać szyfrowania transmisji danych i wymagać stosowania haseł. Kluczowe jest wprowadzenie odpowiednich procedur w zarządzaniu dostępem do tych rozwiązań.

 

Kamery mocne jak komputery

W starszych, analogowych systemach monitoringu wizyjnego kamera miała jedynie dostarczać obraz. Obecnie inteligentne rozwiązania wideo, połączone z siecią IP, dzięki dużej mocy obliczeniowej i nowoczesnemu oprogramowaniu mają znacznie więcej funkcji. Jeszcze lepsze efekty przyniesie ich integracja z innymi elementami kontroli dostępu. Możliwości człowieka są bowiem ograniczone: trudno śledzić obraz jednocześnie z wielu kamer i wyłowić wszystkie ważne zdarzenia. Dlatego coraz większy nacisk kładzie się na analitykę obrazu. Dzięki automatyzacji wykrywania incydentów zapewnia się odciążenie operatora monitoringu, do którego należy ostateczna weryfikacja zdarzeń wskazanych przez urządzenia.

Przed laty bardzo promowano analitykę, ale z powodu ograniczonych możliwości okazała się niewypałem, co zraziło użytkowników systemów monitoringu. Rynek jednak ochłonął, skorzystał z lekcji i dziś obserwujemy drugie podejście do analityki, które w niczym nie ma przypominać dawnego startu – mówi Bogumił Szymanek.

Coraz częściej wykorzystuje się algorytmy uczenia maszynowego – to właśnie one odmieniły analitykę. Potrafią być bardzo niezawodne, nie generując zbyt wielu fałszywych alarmów. Znacznie większe jest też pole manewru, jeśli chodzi o stronę sprzętową. Stosowanie analityki wiąże się bowiem z koniecznością użycia dużej mocy obliczeniowej. Jeśli kamery będą nią dysponować, wiele zadań zostanie wykonanych już w urządzeniu. Zyskiem są nie tylko oszczędności na infrastrukturze serwerowej i sieciowej, ale przede wszystkim możliwość szybszego reagowania. Nie musi być wtedy wysyłany do sieci cały strumień obrazu, by serwer go przetwarzał, a oprogramowanie analityczne wyciągało z dostarczanych danych wnioski.

Dostępne są już zaawansowane rozwiązania, które są wyposażone w coraz lepiej działające mechanizmy wykrywania zdarzeń, np. pozostawienia w niewłaściwym miejscu jakichś przedmiotów, poruszania się po obiekcie nieuprawnionych ludzi itp. Można także znaleźć moduły monitoringu, które rozpoznają specyficzne dźwięki, np. tłukących się szyb, strzałów z broni palnej. Ze względu na swoją specyfikę są stosowane przede wszystkim w przestrzeni publicznej – na lotniskach, dworcach kolejowych itp. Z kolei w mieście kamery z analityką mogą wszczynać alarmy np. w związku takimi zdarzeniami, jak kolizje pojazdów, jazda pod prąd, wypadnięcie jakiegoś obiektu z pojazdu. Operator ma wtedy szansę szybko zareagować: zatrzymać lub przekierować ruch oraz wezwać służby ratownicze.

 

Zdaniem integratora

Bartłomiej Sosenko, inżynier R&D, AutoID

Choć zastosowanie biometrii nie jest zapisane wprost w przepisach, jej użycie może wynikać z konieczności stosowania w systemach wymagających zwiększonego bezpieczeństwa co najmniej dwóch niezależnych metod uwierzytelniania. Nie ma reguł, jaką metodę biometryczną w kontroli dostępu dostępu (z użyciem palca, twarzy, dłoni itp.) wybierze klient. Nie zależy to od branży ani rodzaju firmy, tylko wyłącznie od indywidualnego podejścia do takiej autoryzacji. Jak też od konkretnych potrzeb, które w dodatku mogą ujawniać się dopiero z czasem. Przykładowo, są przedsiębiorstwa, które mają duży problem z nagminnym przekazywaniem sobie przez pracowników kart dostępu. Gdy zastosuje się odcisk palca, takie nadużycia znikają. Biometria sprawdzi się również w środowiskach, w których nie ma bezpośredniej kontroli nad pracownikiem – rozproszonych, obejmujących duży obszar. Będzie go jednoznacznie weryfikować.

 

Odcisk palca ułatwia życie

W obiektach o dużym znaczeniu, takich jak serwerownie, wskazane jest wykorzystanie wieloskładnikowej autoryzacji. Logowanie odbywa się wtedy przy użyciu dwóch elementów, np. karty i kodu PIN, karty i odcisku palca, a w przypadku bardziej zaawansowanych systemów – także systemu rozpoznawania twarzy.

Zastosowanie w tym wypadku metod biometrycznych ułatwia życie, ale w Polsce różnie bywa z akceptacją przez klientów tego rodzaju rozwiązań. Bartłomiej Sosenko, inżynier R&D w AutoID, przyznaje, że obawy wiążą się m.in. z RODO, bo dane biometryczne to dane osobowe, podlegające szczególnej ochronie, a klienci starają się obecnie posiadać jak najmniej takich informacji. Ponieważ jednak prawo zezwala na użycie biometrii do kontroli dostępu fizycznego, większym problemem wydaje się bariera mentalna. Przedsiębiorcy reagują niechęcią szczególnie na autoryzowanie za pomocą odcisku palca.

Opór może wynikać z nieznajomości techniki. Tymczasem rozwiązania wykorzystujące odcisk palca nie przechowują ich wzorców w takiej postaci, która mogłaby być wykorzystana do identyfikacji użytkownika poza systemem – zapewnia Bartłomiej Sosenko.

Twierdzi też, że systemy wykorzystujące odciski palców są proste w instalacji i bardzo skuteczne. Bardziej niż rozwiązania rozpoznające twarz, których używanie może sprawiać kłopoty z powodu różnego jej oświetlenia o różnych porach dnia i nocy. Wymagane jest wtedy użycie kilku kamer, w tym działającej w podczerwieni. Z kolei biometria oka wymaga zastosowania kamer o bardzo zaawansowanej optyce, a jej wykorzystanie utrudnia fakt, że wiele osób często mruży oczy. Z drugiej strony nie brakuje informacji o przypadkach przełamania zabezpieczeń wykorzystujących odcisk palca. Należy zatem korzystać z mechanizmów zapobiegających wykorzystaniu kopii (np. silikonowej), a nawet uciętego palca (sic!).

W zakresie kontroli dostępu trzeba się spodziewać wykorzystywania coraz większej liczby urządzeń końcowych, punktów dostępu i ilości danych, które muszą być analizowane. Będzie zatem rosła sprzedaż komponentów systemów ochronnych: czytników kart i biometrycznych, zamków elektronicznych, kontrolerów oraz oprogramowania do nich. W cenie będą usługi instalowania i utrzymywania tych systemów, a z czasem powinien się rozpowszechnić model ACaaS (Access Control as a Service), czyli usługi świadczone za pośrednictwem chmury obliczeniowej.

 

Telefon jako karta dostępu?

Sporo mówi się ostatnio o wykorzystaniu w charakterze kart dostępu smartfonów należących do pracowników firm. Zwolennicy takiego rozwiązania argumentują, że smartfon ma się zawsze przy sobie, a o karcie można zapomnieć. Innym argumentem jest fakt, że dzięki temu ogranicza się liczbę wykorzystywanych urządzeń. Choć w teorii to bardzo ciekawa koncepcja, w praktyce funkcjonuje na razie bardziej w sferze marketingu i wizji przyszłości niż realnych wdrożeń. Sprawę komplikuje chociażby to, że w jednej firmie pracownicy wykorzystują różne modele smartfonów różnych marek. Zresztą sami producenci tych urządzeń utrudniają sprawę, nie implementując sprzętowych rozwiązań służących do jednakowych zastosowań.
– Są problemy z jednoznacznym i bezpiecznym identyfikowaniem użytkownika przez system kontroli dostępu wyłącznie za pomocą NFC czy Bluetooth w telefonie. Konieczne jest zatem instalowanie dodatkowych aplikacji na urządzeniach, którymi trzeba zarządzać, a system, który ma być prostszy, staje się bardzo skomplikowany – mówi Bartłomiej Sosenko, inżynier R&D z AutoID.

 

Zasilanie to podstawa ochrony

O zabezpieczaniu się przed niewłaściwym działaniem sieci elektrycznej, wynikającymi z tego nieoczekiwanymi przestojami i utratą cennych danych w wyniku awarii, trzeba klientom niezmiennie przypominać. Dobre praktyki wskazują, że warto stosować systemy zasilania gwarantowanego (UPS), których zadaniem jest nie tylko ochrona przed awariami sieci zasilania (w praktyce są stosunkowo rzadkie), ale także zabezpieczenie przed wszelkimi pojawiającymi się w niej zakłóceniami.

Przedsiębiorstwa, które chcą rozbudowywać i zmodernizować infrastrukturę zasilania gwarantowanego i klimatyzacji, mają obecnie duży wybór rozwiązań zaprojektowanych z myślą o jak najbardziej ekonomicznej eksploatacji i jak największej wydajności. Przemyślany dobór takich systemów przynosi przedsiębiorstwom oszczędności, gwarantuje bowiem większą efektywność energetyczną infrastruktury IT.

Tę efektywność można osiągnąć też innymi środkami, np. pilnując, by stosowane w przedsiębiorstwie UPS-y nie miały za dużych mocy (przeszacowywanie potrzeb skutkuje wyższymi rachunkami za prąd). Etap wyboru rozwiązania przez klienta jest dla resellera okazją do dyskusji o przyszłych potrzebach firmy i stanowi podstawę najbardziej zrównoważonego podejścia do zasilania. Takiego, które umożliwi rozbudowę systemu, by sprostał zmieniającym się potrzebom.

Ułatwiają to modułowe zasilacze UPS. Na rynku można zaobserwować nasilający się trend odchodzenia od stosowania dużych UPS-ów na korzyść konstrukcji skalowalnych. Umożliwiają one wybór dokładnie takiej mocy, jaka jest wymagana na danym etapie inwestycji, i stopniowe zwiększanie jej, zgodnie z zapotrzebowaniem. W rezultacie modułowość okazuje się być bardziej elastycznym i efektywnym sposobem zarządzania energią.

Potrzeby klientów w zakresie zasilania gwarantowanego będą rosły wraz z postępującą transformacją cyfrową i coraz większym przyrostem danych. Dla integratora oznacza to możliwość modernizowania systemów UPS – dodawania kolejnych modułów i wymiany starszego sprzętu, niedostosowanego do większych obciążeń. Ale nawet w przypadku, gdy rozbudowa nie jest konieczna, pozostaje obsługa związana z cyklem życia rozwiązań zasilających. Systemy UPS wymagają wymiany baterii, które z czasem ulegają degradacji. Klientom najczęściej trzeba o tym przypominać, co zresztą staje się okazją rozmowy o potrzebach i dalszym rozwoju ich środowiska informatycznego.

W projektowaniu centrów danych postępuje ewolucja w kierunku zwiększania pojemności zasobów, a jednocześnie zmniejszania zajętej przestrzeni. Rośnie tym samym ilość energii, którą trzeba dostarczyć na jednostkę powierzchni. Sprzęt IT o wysokiej gęstości to większe wymagania wobec infrastruktury fizycznej. Jego nieprzemyślana rozbudowa może prowadzić do nieoczekiwanych problemów z zasilaniem i chłodzeniem – do przegrzewania się, przeciążeń i utraty redundancji. By temu zaradzić, stosuje się klimatyzację precyzyjną i odpowiednie techniki instalacji, np. chłodzenie rzędowe (systemy dostarczające chłodne powietrze są znacznie bliżej serwerów, co zwiększa efektywność energetyczną infrastruktury) oraz chłodzenie cieczą. Ostatnia z wymienionych metod jest coraz częściej stosowana, a dostawcy mówią o znacznie niższych kosztach niż w przypadku tradycyjnej klimatyzacji.

Jak zwiększyć dochód i konkurencyjność

Przedsiębiorcy rozbudowujący serwerownie potrzebują też infrastruktury fizycznej, kontroli dostępu i monitoringu wizyjnego. Dlatego integrator, który do tej pory koncentrował się na sprzedaży oraz wdrażaniu serwerów, pamięci masowych i rozwiązań sieciowych, powinien rozważyć dołączenie tych elementów do swojej oferty.

Mając w portfolio nie tylko sprzęt wykorzystywany przez firmy do prowadzenia biznesu, ale także urządzenia zabezpieczające infrastrukturę fizyczną, integrator zwiększa swoją wiarygodność w oczach klienta poszukującego całościowego rozwiązania. Może go w ten sposób niejako uzależnić od siebie, bo klient, który dostanie wszystko, nie będzie szukał dostawcy pozostałych komponentów. A zawsze istnieje zagrożenie, że firma, której reseller wiele razy dostarczał już serwery, nie skorzysta z jego oferty, tylko wybierze tego, kto zapewni jej także zasilanie.

 

Co więcej, znając potrzeby klienta dotyczące sprzętu aktywnego, integrator, który nauczy się sprzedawać także urządzenia do zasilania i chłodzenia, będzie potrafił najlepiej dobrać UPS-y i klimatyzację precyzyjną do potrzeb klienta. Ponieważ dobrze zna jego firmę od strony informatycznej, to jest w stanie dokładnie wyznaczyć właściwą moc zasilania czy chłodzenia i zaplanować dalszy rozwój infrastruktury.

Zdaniem specjalisty

Bogumił Szymanek
Inside Sales Account Manager Poland and Baltics, Axis Communications

Bezpieczeństwo fizyczne, w tym rozwiązania dozoru wizyjnego i kontroli dostępu, to obecnie systemy bazujące na protokole IP, w których każdy element może tworzyć potencjalną lukę w zabezpieczeniach. Dlatego warto wybierać rozwiązania, które zaprojektowano z myślą o cyberbezpieczeństwie. Na rynku monitoringu wizyjnego można zaobserwować coraz większy nacisk na zdobywanie wiedzy w zakresie ochrony informacji i bezpiecznego jej przetwarzania. System dozoru wizyjnego to także baza danych, co trzeba mieć na uwadze pod kątem zgodności z RODO. Z tego powodu należy danymi z monitoringu odpowiednio zarządzać, zabezpieczyć dostęp do nich hasłami i wykorzystywać szyfrowanie.

Sławomir Franczak
kierownik ds. rozwoju biznesu UPS, Legrand

W ostatnim czasie można zaobserwować trend polegający na wykorzystaniu w infrastrukturze rozwiązań umożliwiających jej rozbudowę, a przy tym gwarantujących ciągłość działania. W rezultacie bardzo popularne są UPS-y modułowe – zapewniające zarówno wysoki poziom bezpieczeństwa i niezawodności, jak i dające możliwość rozbudowy w przyszłości. Wielu inwestorów zaczyna interesować się nowymi rozwiązaniami. Coraz częściej klient wie, że UPS to nie tylko źródło zasilania, ale także zabezpieczenie najważniejszych zasobów firmy, najczęściej o wielokrotnie większej wartości niż sam zasilacz. W Polsce nadal najczęściej kupuje się UPS-y za gotówkę, podczas gdy w innych krajach coraz większym zainteresowaniem cieszy się leasing.