W zasadzie wszystkie statystyki i analizy ukazują dobitnie, że dla mniejszych przedsiębiorstw, a szczególnie tych dopiero startujących, nie ma większego sensu kupowanie serwerów, pamięci masowych i samodzielne budowanie całej infrastruktury. Jedną z głównych zalet środowiska chmurowego jest elastyczny, abonamentowy model rozliczania, ale nie chodzi tylko o koszty. Chmura pozwala poradzić sobie z wieloma wyzwaniami organizacyjnymi, np. z brakiem zespołu IT lub bezpiecznego pomieszczenia dla infrastruktury.

Nie zmienia to faktu, że w wielu firmach korzystanie wyłącznie z infrastruktury chmurowej jest niemożliwe lub niewskazane. Najczęściej z trzech powodów. Po pierwsze, ze względu na regulacje prawne. Po drugie, przeszkodę stanowi zbyt duża ilość potrzebnych (natychmiast) danych, które w modelu usługowym trzeba byłoby przesyłać non stop przez Internet. Po trzecie, z powodu niechęci zarządu, co sprowadza się do słynnego już stwierdzenia prezesa: „serwer jest najbezpieczniejszy, gdy stoi pod moim biurkiem”. To oznacza, że biznes związany ze sprzedażą stacji roboczych, serwerów i pamięci masowych nadal będzie się nieźle kręcił.

Na rynku tego typu rozwiązań zaszły ostatnio dość znaczące zmiany. Po podziale HP na dwie części oraz połączeniu Della z EMC działa tylko czterech liczących się producentów: Dell EMC, Fujitsu, Huawei i Lenovo, oferujących komputery, serwery, pamięci masowe i rozwiązania backupowe. Ich przedstawiciele zgodnie podkreślają, że klienci są coraz bardziej zainteresowani budowaniem swojego środowiska IT z komponentów od jednego producenta. W ten sposób nie tylko zapewniają sobie kompatybilność rozwiązań, ale też stawiają się w uprzywilejowanej pozycji negocjacyjnej.

 

W poszukiwaniu niszy

Niezależnie jednak od aktualnych trendów zakupowych resellerzy oferujący mniejsze rozwiązania IT od lat mają do czynienia z erozją marż. Dlatego konieczne stało się znalezienie niszy – możliwości zaoferowania wartości dodanej albo poszukiwania rozwiązań, dzięki którym reseller wyróżni się ofertą wśród konkurencji. Zawsze musi przy tym pamiętać, że sprzedaż produktu to tylko pierwszy krok w całym cyklu jego użytkowania. Klientowi warto uświadamiać, że niewielka oszczędność na tym etapie może skutkować ponoszeniem wysokich kosztów utrzymania systemu. Mogą one być związane z bieżącą eksploatacją (opłatami za energię, kosztami materiałów eksploatacyjnych, części zamiennych), ale też z rozwiązywaniem różnych błahych problemów, które napotykają użytkownicy. Dlatego reseller powinien zadbać o umowę z klientem, która będzie niejako kontynuacją kontraktu sprzedaży. Ważne, żeby zagwarantował sobie przejęcie od klienta odpowiedzialności za niektóre obszary związane z IT, a dzięki temu zapewnił sobie dodatkowe zyski.

 

Przemysław Mazurkiewicz
EMEA EAST System Engineering  Director, Commvault

W związku z tym, że coraz więcej dziedzin obejmują restrykcje prawne dotyczące zarządzania danymi i ich ochrony (na przykład w obszarze RODO), zmienili się nasi rozmówcy po stronie klientów. Do tradycyjnych administratorów dołączyły osoby odpowiedzialne za bezpieczeństwo informacji, prawnicy oraz szefowie finansowi. Pokazujemy im, że profesjonalne rozwiązania do zarządzania danymi mogą im pomóc w cyfrowej transformacji i są przydatne nie tylko, gdy zachodzi konieczność ich odzyskania po awarii, ale także chociażby do szybkiego przeszukiwania przepastnego archiwum. Bardzo często w rozmowach pojawia się chmura, przedsiębiorstwa są bowiem zainteresowane ochroną danych w tym modelu, choć wciąż mają wątpliwości. Dlatego aktywnie współpracujemy z partnerami nad tym, aby starali się tworzyć dla swoich klientów niszowe, specyficzne usługi backupowe albo archiwizacyjne, bazujące na chmurze i przystosowane do indywidualnych potrzeb użytkowników.

 

Bardzo ciekawie rozwija się oferta mikrokomputerów, które można stosować zamiast tradycyjnych rozwiązań, np. w systemach cyfrowej wizualizacji marketingowej (Digital Signage) lub monitoringu wideo. Producenci wprowadzają do oferty miniaturowe stacje robocze, które można przypiąć do obudowy monitora, lub zyskujące popularność komputery typu Stick PC z portem HDMI, podłączane bezpośrednio np. do telewizora, monitora lub projektora. Co prawda rozwiązania te nie zapewniają mocy obliczeniowej wystarczającej do wykonywania skomplikowanych zadań, ale są w zupełności wystarczające do wyświetlania zdjęć i filmów reklamowych w dużej rozdzielczości.

Do małych i średnich firm wkracza także wirtualizacja, mimo że środowiska IT nie są tam szczególnie rozbudowane. Aktualnie najczęściej przyjmuje postać wirtualnych serwerów, chociaż czasem analizowane są też możliwości wdrażania wirtualnych desktopów (tam gdzie ważna jest poufność przetwarzanych informacji i pełna kontrola nad stacjami roboczymi) lub innych nietypowych rozwiązań.

Wirtualizacją klienci interesują się z różnych powodów. Często chodzi o kontynuację użytkowania starszych systemów operacyjnych lub aplikacji, których nie można zaktualizować. Według opublikowanych przez Net Applications w maju 2017 r. statystyk niewspierany od 2014 r. Windows XP nadal zajmuje trzecie miejsce na liście najpopularniejszych systemów operacyjnych (z Windows 7 korzysta 48,5 proc. użytkowników komputerów, Windows 10 – 26,28 proc., Windows XP – 7,04 proc.). Ryzyko związane z przenoszeniem aplikacji do nowego środowiska jest tak duże, że często klienci chcą – przynajmniej przez pewien czas – korzystać ze starego systemu, ale już na nowym sprzęcie. Zdarza się to wyjątkowo często właśnie w przypadku mniejszych przedsiębiorstw.

 

Serwery: konwergencja za rogiem

Od pewnego czasu dostawcy rozwiązań typu software-defined podkreślają zmieniającą się rolę serwerów, pamięci masowych i sieci. Ich zdaniem zostaną one zdegradowane do pozycji zwykłego, powszechnie dostępnego towaru, a „inteligencja” ma być obecna właśnie w niezależnym oprogramowaniu zarządzającym całym środowiskiem IT. Producenci serwerów starają się wykazać innowacyjnością, aby temu przeciwdziałać, i zwiększyć liczbę dziedzin, w których wspomniane urządzenia mogą znaleźć zastosowanie.

W przypadku biznesowych zastosowań komputerów przestała mieć znaczenie ich konfiguracja. Współcześnie moc obliczeniowa jest w zupełności wystarczająca do pracy, a jedyny parametr, na który warto zwracać uwagę, to ilość pamięci RAM. Standardem dziś jest 8 GB, ale niewielkim kosztem można rozbudować ją do 16 GB. Większa pamięć nie będzie miała żadnego wpływu na wydajność, jeśli na komputerze nie są uruchamiane wirtualne maszyny, wymagające aplikacje multimedialne lub gry. Podobnie jest w przypadku kart sieciowych – w większości urządzeń instalowane są już gigabitowe karty sieci przewodowej oraz moduły Wi-Fi zgodne ze standardem 802.11ac.

 

Dariusz
szef kanału partnerskiego Dell EMC w Polsce

W mniejszych miejscowościach jest wielu partnerów, którzy – by kompleksowo obsługiwać swoich klientów – muszą mieć szerokie portfolio produktów, składające się m.in. z komputerów, akcesoriów, serwerów, pamięci masowych i oprogramowania. Ich oferowanie i wdrażanie na zadowalającym klienta poziomie wymaga wiedzy, a drogą do jej zdobycia jest uczestnictwo w szkoleniach. W wielu przypadkach mniejsi partnerzy korzystają z pomocy producenta lub dystrybutora. Widzimy, że w wielu takich firmach szybko wyłania się dziedzina, w której ich inżynierowie chcieliby się wyspecjalizować. To dobry znak, bo dzięki temu są w stanie nie tylko lepiej obsłużyć klienta, ale także w przypadku trudniejszych projektów wchodzić w konsorcja z innymi partnerami i komercjalizować zdobytą wiedzę.

 

Dlatego stale rośnie popularność rozwiązań konwergentnych. Klienci zwracają uwagę na możliwość ich elastycznej rozbudowy dzięki modularnej konstrukcji, także z wykorzystaniem już wcześniej posiadanego sprzętu. Coraz bardziej nielubiane są systemy zamknięte, w przypadku których klient skazany jest na wytyczoną precyzyjnie przez producenta ścieżkę rozwoju.

Konstrukcja serwerów konwergentnych wywodzi się z infrastruktury kasetowej. Charakteryzują się one m.in. tym, że trzy główne elementy urządzenia – moc obliczeniowa (procesor i pamięć), karta sieciowa oraz pamięć masowa (dyski twarde lub SSD) – są oddzielone od siebie i mają postać instalowanych w obudowie modułów, które nie są w żaden sposób na stałe przypisane do siebie. Zarządzanie stworzoną z nich infrastrukturą odbywa się za pomocą dołączonego oprogramowania. Główną zaletą modularnych serwerów jest zmiana sposobu inwestowania w infrastrukturę centrum danych. W przypadku serwerów kasetowych duży koszt stanowił zakup obudowy, więc inwestowanie w tego typu sprzęt miało sens dopiero wtedy, gdy taka obudowa była wypełniona minimum w 50–60 proc. Tymczasem obudowa do systemów konwergentnych jest znacznie tańsza i optymalnie wykorzystywana.

Polskie firmy na razie dość ostrożnie podchodzą do inwestowania w tego rodzaju systemy. Posiadana przez nie infrastruktura serwerów kasetowych nie jest jeszcze w pełni wykorzystana, a poza tym nadal najpopularniejsze są rozwiązania, których koncepcja ma kilkanaście lat – zwykłe serwery o wysokości 1U (tzw. pizza box) instalowane w szafach informatycznych.

Zagrożone pamięci masowe?

Być może branżę IT wkrótce czeka jeszcze jedna rewolucja. Większość małych i średnich firm nie potrzebuje dużej pojemności dyskowej, bo – jeśli nie przetwarzają danych multimedialnych – praktycznie w każdym przypadku na wszystkie ich dane wystarczyłby jeden dysk o pojemności kilku terabajtów. Dlaczego zatem nawet tak małe przedsiębiorstwa kupowały macierze dyskowe? Po prostu do poprawnego funkcjonowania baz danych potrzebowały wydajności systemu pamięci masowych rzędu minimum kilku lub kilkunastu tysięcy operacji wejścia-wyjścia na sekundę (IOPS). Tymczasem najszybsze twarde dyski zapewniają tylko kilkaset IOPS, co rodziło potrzebę zagregowania kilkunastu lub kilkudziesięciu takich nośników w macierzy dyskowej lub nabycia macierzy z kilkoma dyskami SSD, które jednak zapewniały mniejszą niż HDD pojemność za znacznie wyższą cenę. Sytuacja ulega jednak wyraźnej zmianie.

Do oferty producentów serwerów trafiają właśnie dyski z kośćmi pamięci TLC oraz interfejsem NVMe, dzięki któremu można podłączać pamięć flash bezpośrednio do magistrali serwera przez interfejs PCI Express. W ten sposób wyeliminowano ograniczenia wydajnościowe interfejsu SAS. Zbudowane tą metodą najbardziej pojemne dyski SSD mają maksymalnie 15 TB, a każdy z nich zapewnia kilka lub kilkanaście tysięcy IOPS. Wystarczy podłączyć je bezpośrednio do kontrolera dysków w serwerze, aby uzyskać pojemność i wydajność stosowanych jeszcze parę lat temu macierzy all-flash, które kosztowały dziesiątki, a czasem setki tysięcy dolarów.

 

Na tym jednak nie koniec. Obok dysków NVMe rozwiązaniem następnej generacji mają być tzw. trwałe pamięci (persistent memory) NVDIMM, które wyglądem przypominają zwykłe DIMM-y, ale utrzymują zapisane w nich dane po odłączeniu zasilania (w modułach pamięci zainstalowane są kości DRAM i flash). W zakresie wydajności wypełnią one lukę między szybkością zapisu danych w zwykłych pamięciach a tą zapewnianą przez dyski SSD. Wprowadzenie do systemów IT tego typu rozwiązania przynosi wiele korzyści. Podstawową jest wydajność – to w pamięci NVDIMM będą przechowywane najczęściej odczytywane informacje, plik wymiany danych (który obecnie na ogół ląduje na dysku SSD lub HDD) oraz np. rekordy baz danych wymagające szybkiego przetworzenia.

 

Backup wciąż w modzie

Stworzenie poprawnie działającego systemu backupu, mimo że wiedza użytkowników o konieczności zabezpieczania danych jest coraz większa, nadal przysparza problemów w wielu firmach. I rzadko pomaga argument, że przy pierwszej większej awarii straty biznesowe i wizerunkowe bywają znacznie większe niż koszt zainstalowania skutecznego systemu, który im przeciwdziała. Tymczasem dziś jasno widać, że inteligentne kopie danych należy wykonywać z co najmniej dwóch bardzo ważnych przyczyn: ransomware i RODO.

W przypadku ransomware’u sprawa jest oczywista – backup to najlepsza i najszybsza metoda zapewniająca odzyskanie danych, jeśli zawiodą systemy ochronne w przedsiębiorstwie. Konieczne jest jednak zadbanie o to, aby w przypadku zaszyfrowania danych ich kopia nie została nadpisana. Dlatego przynajmniej jedna kopia danych powinna być przechowywania na nośniku odłączonym od systemu produkcyjnego.

W małych i średnich przedsiębiorstwach zdecydowanie łatwiej zaprojektować i zbudować system backupu niż w większych. Wiąże się to przede wszystkim z niewielką jak na dzisiejsze czasy ilością danych, które trzeba zabezpieczyć. Do stworzenia takiego środowiska można wykorzystać serwer NAS z dyskami połączonymi w strukturę RAID i dołączonym zewnętrznym twardym dyskiem o dużej pojemności na dodatkową kopię najważniejszych danych. Na taki serwer powinny być wykonywane kopie plików z komputerów użytkowników. Warto także rozważyć zainstalowanie zapasowego serwera NAS w celu wykonywania na niego replikacji danych. Na obu powinien być uruchomiony mechanizm wykonywania migawkowych kopii danych, który umożliwia odzyskanie plików w przypadku ich zaszyfrowania.

Natomiast wprowadzenie nowego rozporządzenia o ochronie danych osobowych spowodowało konieczność innego spojrzenia na zabezpieczanie danych. W przypadku bowiem, gdy właściciel danych zażąda ich usunięcia z firmowych nośników, należy usunąć je także z kopii backupowych. Tak, aby np. w przypadku konieczności odzyskania danych z kopii nie doszło do ich ponownego przetwarzania. To wyklucza m.in. możliwość przechowywania tzw. długoterminowych backupów lub traktowania kopii backupowych jako archiwum. Konieczne staje się wprowadzenie do środowiska IT inteligentnego narzędzia archiwizacyjnego, które nie tylko będzie wykonywało kopię plików czy bazy danych, ale także będzie w stanie dokonać ich analizy. Producenci oprogramowania do backupu i archiwizacji obecnie pracują nad wprowadzeniem do oferty jego nowych wersji, które będą gwarantowały zgodność z wymaganiami stawianymi przez RODO.