Resellerzy, którzy chcą odnieść sukces na rynku MSP, muszą wiedzieć, jak myślą i reagują ich klienci, jakich produktów potrzebują oraz jak wygląda architektura systemów IT w ich firmach. Najlepiej jeśli mają wyznaczonych przedstawicieli odpowiedzialnych za współpracę z sektorem MSP. Podnoszące kwalifikacje resellerów programy partnerskie dostawców skupiają się obecnie na większym angażowaniu partnerów we współpracę z klientem końcowym.

 

Z małymi nie jest łatwo

Dobra wiadomość jest taka, że małych i średnich firm jest najwięcej. Nawet gdy któraś upadnie, w jej miejsce powstają dwie nowe. Zła wiadomość natomiast jest taka, że nie są to najłatwiejsi klienci.

Najmniejsze firmy rzadko zatrudniają osoby odpowiedzialne za obsługę systemu informatycznego. Ich decyzje zakupowe najczęściej mają charakter ad hoc i są reakcją tylko na bieżące potrzeby. Informacje związane z IT i ewentualnymi zakupami osoby prowadzące mały biznes zdobywają najczęściej przez wyszukiwarki internetowe i wymianę poglądów na forach.

Ponieważ długoterminowe inwestycje w najmniejszych firmach w zasadzie nie są dokonywane, nie ma mowy o proaktywnym planowaniu. Wszystko odbywa się na zasadzie reakcji na takie zdarzenia jak awaria, wyczerpanie zasobów czy zdezaktualizowanie się oprogramowania. Dlatego bardzo ważną rolą resellera jest bezpośrednie dotarcie do tego rodzaju klientów. Powinien aktywnie wpływać na ich decyzje dotyczące zakupu produktów IT, dostarczając informacje i przedstawiając sugestie, na jakie rozwiązania firma ma stawiać, by inwestycje były dobrze chronione w dłuższym czasie.

Współpraca nawiązana z małą firmą może zaowocować poważnymi zyskami dopiero w przyszłości, bo jeśli owa firma odniesie sukces, to kilka komputerów i jedna drukarka okażą się niewystarczającym zapleczem IT. Podstawowe usługi udostępniania plików na jednym serwerze mogły wystarczać, gdy zespół liczył dziesięć osób, ale stają się zupełnie niewydolne, gdy zatrudnienie w przedsiębiorstwie wzrasta do stu osób. Wraz z rozwojem potrzeby informatyczne gwałtownie się zmieniają, a infrastruktura informatyczna musi się rozrastać. O to, by nie odbywało się to chaotycznie, powinien zadbać reseller, odpowiednio kierując rozwojem firmowego IT. Powinien wskazać rozwiązania, które łatwo „rosną” wraz z biznesem i bez problemów są dostosowywane do zwiększonego zatrudnienia (a bywa, że i do jego czasowej redukcji), do większej mobilności i zdalnej pracy.

 

 

Serwery – wydajność przede wszystkim

Najmniejsze firmy nie korzystają z zaawansowanych rozwiązań informatycznych. Wykorzystują serwery tylko do podstawowych zadań, takich jak współużytkowanie plików, drukarek i poczty elektronicznej. Jednak wobec lawinowo rosnącej masy danych – tworzonych zarówno przez firmy, jak i napływających z otoczenia biznesowego – potrzeby przedsiębiorstw związane z mocą obliczeniową i zasobami do składowania informacji szybko rosną.

Dla najmniejszych firm oczywistym wyborem są serwery wolno stojące. Ich sprzedaż nie maleje, bo tego rodzaju sprzęt kusi klientów atrakcyjnymi cenami zbliżonymi do cen komputerów stacjonarnych. Argumentem za wymianą dotychczas stosowanego w roli serwera komputera PC (z systemem tej samej klasy) na serwer z prawdziwego zdarzenia może być też interesująca oferta systemów operacyjnych dla małej firmy, np. Windows Server 2012 Foundation (edycja dla małych przedsiębiorstw z maksymalnie 15 użytkownikami, działająca na serwerach jednoprocesorowych).

Większe firmy z sektora MSP, mające już wdrożoną infrastrukturę informatyczną, w miarę rozwoju wprowadzają ją na coraz wyższy poziom technologiczny. Najczęściej polega to na konsolidowaniu zasobów – serwerów i pamięci masowych – z wykorzystaniem wirtualizacji. Konsolidacja oznacza ograniczanie liczby używanych serwerów fizycznych, jednak by zakończyła się sukcesem, przeznaczone do wirtualizowania serwery muszą być odpowiednio wydajne. Dlatego zastąpienie wielu starych serwerów mniejszą liczbą urządzeń oznacza konieczność zakupu nowych, mocnych maszyn.

Nowe urządzania oferują znacznie większą wydajność przy mniejszym poborze energii. Pokazanie tych wymiernych oszczędności powinno pomóc w przekonaniu klientów do wymiany dotychczasowych rozwiązań na bazujące na bardziej zaawansowanych technologiach. Wśród większych firm rośnie popularność urządzeń modułowych (serwery, macierz dyskowa i urządzenia sieciowe w jednej obudowie) o dużej gęstości obliczeniowej. Największy jest popyt na serwery do instalacji w szafie, wzrasta zainteresowanie rozwiązaniami kasetowymi (blade). Ułatwiają one zarządzanie, umożliwiają przekształcenie istniejącej infrastruktury w prywatną chmurę, a przede wszystkim mogą „rosnąć” razem z firmą.

Duża wydajność serwerów jest dziś tak ważna, bo małe i średnie firmy coraz częściej wykorzystują je do zaawansowanych rozwiązań biznesowych, uruchamiając aplikacje, takie jak CRM, ERP, oraz do analizy biznesowej. W takich firmach wirtualizacja jest codziennością, więc reseller specjalizujący się w optymalizacji i wirtualizacji środowiska IT zyskuje przewagę na rynku i może liczyć na większe niż wcześniej zyski.

Wiedza informatyczna klientów z małych i średnich firm wzrasta, ale nadal kierują się oni przede wszystkim ceną i szukają rozwiązań tanich. Reseller musi umieć wytłumaczyć, że „tanie” wcale nie odnosi się ceny na półce. Efektywność energetyczna, duża wydajność i łatwa rozbudowa (przekładająca się na skalowalność), a przy tym wysoka dostępność, to cechy, które zapewnią szybszy zwrot z inwestycji, a w dłuższym czasie – spore oszczędności.

Marcin Bogusz

pełnomocnik zarządu Action ds. zaawansowanych technologii

W roku 2014 oraz kolejnych latach bardzo istotne dla producentów będą formy sprzedaży i modele użytkowania serwerów. Wyraźną tendencją na rynku jest odchodzenie od serwerów ustawionych w firmie i przechowywanie danych w profesjonalnych centrach danych. Firmy coraz częściej wolą płacić za używanie serwera zaawansowanego technologicznie, gdzie kupują jego moc obliczeniową z dobrym łączem, backupem, zasilaniem awaryjnym, bez konieczności inwestycji we własne rozwiązanie. Dzięki temu modelowi rośnie popularność dwu- i czteroprocesorowych serwerów, którym możemy zlecić wiele zadań.

 

 

– Dzisiejszy serwer może zastąpić co najmniej osiem maszyn sprzed kilku lat, co redukuje farmę serwerów do ok. 15 proc. – szacuje Marcin Bogusz, pełnomocnik zarządu Action ds. zaawansowanych technologii. – Nowa maszyna pobiera też ok. 40 proc. energii zużywanej przez kilkuletniego poprzednika, w związku z czym wymiana zasobów powoduje redukcję kosztów energii o ok. 90 proc. Okazuje się, że zakup, który na początku wydaje się być tylko kosztem, szybko zwraca się w postaci znacznie obniżonych rachunków za energię, przekształcając się w doskonałą inwestycję. Proces wirtualizacji znakomicie ułatwi migrację ze starego środowiska na nowe. Osiem starych serwerów, pracujących z różnymi aplikacjami, szybko przenosimy na osiem maszyn wirtualnych, pracujących już tylko na jednym, nowym serwerze.

 

Gdzie przechować te wszystkie dane?

Gdy ilość danych błyskawicznie rośnie, najprostszym rozwiązaniem w małej firmie może się wydawać dodanie kolejnych dysków do serwera. Bywa, że bieżące problemy z przestrzenią dyskową są tymczasowo rozwiązywane za pomocą dysków zewnętrznych USB, a nawet pendrive’ów. Na szczęście nawet w najmniejszych firmach rośnie świadomość, że takie rozwiązania nie są ani bezpieczne, ani niezawodne. Także wiedza o tym, że przechowywanie danych na serwerach aplikacyjnych bądź domenowych w żadnym razie nie jest dobrym pomysłem. Dlatego wiele nawet zupełnie małych firm (do dziesięciu pracowników) kupuje pamięć masową, w postaci wolno stojącego serwera NAS, lub rozważa jej nabycie.

Rozwiązania NAS znajdują zastosowanie zarówno w małych, jak i w średnich przedsiębiorstwach, a ich popularność nieustannie rośnie. Obecnie można zaobserwować trend wyposażania tych serwerów w coraz bardziej zaawansowane funkcje, dotąd dostępne wyłącznie w macierzach dyskowych klasy enterprise.Droższe rozwiązania NAS zapewniają deduplikację danych lub możliwość tworzenia kopii migawkowych (snapshot). Potrafią przy replikacji danych w czasie rzeczywistym dokonywać ich kompresji. Bezpieczeństwo i wysoką dostępność gwarantują zapasowe kontrolery i funkcje łączenia urządzeń w aktywne klastry. Ponieważ dla klientów tak ważna staje się wirtualizacja, serwery NAS współpracują z najpopularniejszymi platformami wirtualizacyjnymi od firm Microsoft, VMware czy Citrix.

Pamięci NAS w wydaniu stelażowym mogą oferować naprawdę wielką pojemność – 12 lub 16 kieszeni wypełnionych dyskami 4 lub 6 TB. Pracują w wielu trybach RAID, a dyski mogą być wymieniane podczas pracy, bez wyłączania macierzy. Bardzo często dostawcy NAS dołączają też do swoich produktów bezpłatną przestrzeń w chmurze, którą za dopłatą można rozbudowywać zarówno w zakresie rozmiaru, jak i funkcjonalności.

W najbliższym czasie coraz większym zainteresowaniem będą się cieszyć macierze hybrydowe, które można wyposażać równocześnie w szybkie dyski SSD (flash) i zwykłe dyski magnetyczne SATA i SAS. Ponieważ ceny SSD spadają, hybrydy stają się dostępne także dla MSP. Po ich zastosowaniu wrasta produktywność firm, bo szybki dostęp do kluczowych danych odbywa się bezpośrednio z dysków SSD. Coraz większa jest także oferta macierzy typu all-flash (w ogóle bez twardych dysków). Jeśli ceny SSD bardzo się obniżą, to tego typu pamięci powinny stać się przebojem rynkowym, gdyż zapewniają bez porównania wyższą przepustowość niż tradycyjne macierze. Warto mieć także na uwadze ich kilkakrotnie niższe niż w przypadku dysków zużycie energii elektrycznej, co powinno dać wymierne oszczędności.

 
Bez sieci nic nie zadziała

Zakup serwerów i macierzy dyskowych w małej i średniej firmie musi poprzedzać zainwestowanie w niezawodną sieć komputerową. Klienci zaczynają zdawać sobie sprawę, jak ważna jest ona dla ciągłości funkcjonowania ich biznesu. Ponieważ nie kupuje się jej „na chwilę”, to będą do nich przemawiać te oferty, które pozbawią ich obaw o działanie systemu. Gdy wymieniają stary sprzęt i okablowanie na nowe, chcą, by sieć była odporna na awarie oraz zabezpieczona na poziomie gwarancyjnym i wsparcia technicznego.

Wiele mniejszych firm wciąż ma sieć zbudowaną z przełączników z trudem radzących sobie z aktualnymi wymaganiami, nie mówiąc o przyszłych. Podczas jej modernizowania należy pamiętać, by zapewniała transmisję na poziomie odpowiadającym przyszłym potrzebom. Przepustowość powinna być na tyle duża, aby przenosić bez opóźnień wszystkie dzisiejsze i planowane dopiero usługi, także te bardzo obciążające pasmo, a związane z backupem czy ruchem multimedialnym. Równie ważna jest jakość transmisji, bowiem wnoszone przez sieć opóźnienie powinno być nieistotne dla użytkowanego oprogramowania oraz stałe w czasie (mały jitter), a poziom gubienia pakietów powinien być na tyle niski, aby aplikacje (zwłaszcza te multimedialne, wykorzystujące usługę UDP), sobie z tym poradziły. Ze względu na niewielkie różnice w cenie szybsze interfejsy powinny być brane pod uwagę praktycznie w każdym przypadku przy wyborze urządzeń sieciowych.

Oczywiście w małej lub średniej sieci wiele funkcji wymaganych w dużych sieciach nie będzie miało aż takiego znaczenia. Ważne jednak, by użyte technologie zapewniały ciągłość działania, a wbudowane zabezpieczenia współpracowały z innymi elementami systemu bezpieczeństwa. Warto rozważyć wdrożenie infrastruktury zgodnej ze standardem Power-over-Ethernet, dzięki której za pośrednictwem 4-parowej skrętki do urządzeń będzie dostarczane – oprócz danych – także zasilanie. Znakomicie ułatwi to podłączanie do firmowej infrastruktury telefonów IP, punktów dostępowych sieci Wi-Fi, kamer monitoringu wideo itp.

Przyzwyczailiśmy się już do koegzystencji sieci przewodowych z bezprzewodowymi. Możemy spodziewać się dalszej integracji sieci kablowych i bezprzewodowych, a w takim zunifikowanym środowisku cały czas będzie się zwiększało zapotrzebowanie na interfejsy przewodowe (dla wszelkiego rodzaju urządzeń stacjonarnych i automatyki budynkowej) i na coraz szersze pasmo w sieci bezprzewodowej, w której pracować będą głównie mobilne urządzenia klienckie. Na rynku widać wzrost zainteresowania sieciami bezprzewodowymi, i to zarówno w firmach prywatnych, jak i w instytucjach z sektora publicznego. Najczęściej są to instalacje na niewielką skalę (np. udostępnienie Internetu gościom na recepcji), ale nie brakuje też bardziej złożonych wdrożeń. W przypadku małych firm potrzeby w zakresie zaawansowanych sieci Wi-Fi są niewielkie. Kiedy jednak mamy do czynienia z większą firmą, warto rozważyć opcję zarządzanej sieci, w konfiguracji z kontrolerem dającym szereg dodatkowych funkcji.

Mirosław Chełmecki

dyrektor działu serwerów i pamięci masowych, Veracomp

Wirtualizacja serwerów już od dłuższego czasu jest w kręgu zainteresowania małych i średnich firm. Coraz częściej interesują się one również budowaniem wirtualnych środowisk systemów pamięci masowych. Modernizując posiadane zasoby, są zainteresowane zakupami nowych urządzeń np. macierzy dyskowych. Dążą do optymalizacji posiadanej infrastruktury i zwiększenia bezpieczeństwa, ale chcą też możliwości szybkiego przywracania środowiska wirtualnego do pracy w przypadku awarii. Zainteresowanie oprogramowaniem, które zapewnia taką funkcjonalność jest coraz większe.

 

 

W sieciach bezprzewodowych w bieżącym roku perspektywicznym rozwiązaniem będą systemy działające w standardzie 802.11ac. – przewiduje Roman Sadowski, Senior Marketing Manager, Alcatel-Lucent. – Można się jednak spodziewać, że ta technika będzie częściej wybierana (przynajmniej na początku) w przypadku nowych instalacji, gdy firma z góry zakłada intensywne wykorzystanie Wi-Fi – nie tylko do zapewnienia dostępu do sieci, ale także do transmisji danych z wymagających aplikacji.

Rozwiązania bezprzewodowe również przenoszą się w chmurę, bo coraz popularniejsza staje się architektura, w której kontroler sieci nie jest urządzeniem rezydującym u klienta, lecz jedynie wirtualnym bytem zarządzanym przez usługodawcę. W efekcie klient ma mniej sprzętu, który może się popsuć, i możliwość skorzystania z dodatkowych usług zarządzania systemem bez lokalnie zatrudnionego administratora. Gwarancja bezpieczeństwa i ciągłości działania infrastruktury – to dodatkowe zalety takiego rozwiązania.

– Chmurowe zarządzanie sprawdza się idealnie w przypadku firm, w których przewija się wielu klientów, np. w kawiarniach, restauracjach, hotelach – mówi Michał Jarski, Regional Director Eastern Europe w Ruckus Wireless. – Tam dostawianie jakichkolwiek dodatkowych urządzeń budzi opór. Z kolei resellerowi jest dużo wygodniej, prościej i taniej zwyczajnie przyjść, zainstalować punkt dostępowy, zarejestrować go w kontrolerze chmurowym i szybko rozpocząć świadczenie usługi.

 

Zasilanie musi być gwarantowane

W Polsce najwięcej inwestują w systemy UPS przede wszystkim duzi klienci z branży telekomunikacyjnej, banki, centra danych (w tym firmy oferujące usługi hostingowe) oraz sektor publiczny. Dostawcy potwierdzają jednak wyraźny wzrost sprzedaży rozwiązań do zasilania awaryjnego w sektorze małych i średnich przedsiębiorstw.

Sprzedaż urządzeń o mocy do kilku kVA komplikuje import tanich urządzeń z Chin i Tajwanu. Ponieważ rynek MSP jest bardzo wrażliwy na cenę, trudniej sprzedawać droższe, bardziej zaawansowane urządzenia. Skuteczne może być więc wykazanie, że stosowanie najnowszych technologii, rozwiązań o wysokiej jakości i niezawodności, a jednocześnie niższych kosztach użytkowania i utrzymania, jest w końcowym efekcie opłacalne. Dodatkowym argumentem jest ochrona dzięki gwarantowanemu serwisowi.

Większe firmy z sektora MSP, których działalność w dużym stopniu zależy od sieci i aplikacji typu ERP, są świadome ceny każdej godziny przestoju. Dlatego coraz częściej wybierają droższe zasilacze UPS typu on-line, zamiast najpopularniejszych (i tańszych) rozwiązań o topologii line interactive. Wobec rosnącej mobilności pracy na znaczeniu zyskuje wbudowana w systemy zasilania „inteligencja” – funkcje zdalnego monitorowania, możliwość otrzymywania dziennych raportów o stanie naładowania, pomiarów wilgotności i temperatury, alarmów w razie pożaru, zdalnego wyłączania się czy powiadamiania o krytycznych zdarzeniach przez e-mail lub SMS.

Dariusz Koseski

wiceprezes zarządu Schneider Electric ITB Business

Należy pamiętać nie tylko o bezpieczeństwie w ujęciu stricte informatycznym, ale również sprzętowym. Z tego względu bardzo ważne jest zasilanie gwarantowane, które pozwoli uchronić nie tylko centra IT, ale także całe systemy przed nieprzewidzianymi sytuacjami mającymi wpływ na dostawę energii. Jeśli chodzi o resellerów, to możemy spodziewać się zmian i nowych trendów. Będą oni podążać bardziej w stronę kompleksowych usług, serwisu czy doradztwa. Malejące z roku na rok marże na sprzedaży produktów sprawiają, że kluczem do sukcesu stanie się wartość dodana.

 

Wojciech Piórko

Product Sales Director Emerson Network Power

W branży zasilania klienci nie patrzą już tylko na koszt zakupu, zwracają uwagę na całkowity koszt posiadania, czyli także koszt użytkowania. Na rynku resellerów VAR przewagę zdobędą dostawcy, którzy posiadają szerokie portfolio energooszczędnych produktów popartych lokalnymi referencjami oraz doświadczony zespół wykwalifikowanych techników serwisu. Chodzi tu zwłaszcza o ekspertów, którzy – dzięki wieloletniej obecnościw branży – potrafią indywidualnie podchodzić do każdego klienta, stosując zakres wsparcia odpowiedni do wielkości rozwiązania.

Co dalej, resellerze?

Przed nami duże zmiany w zasadach dostarczania IT i świadczenia usług informatycznych. Najwięcej mówi się teraz o cloud computingu i modelu usługowym, ale ruchy na rynku pokazują, że zanim nastąpi powszechna migracja do chmury, na sprzedaży fizycznego sprzętu firmom z sektora MSP wciąż będzie można zarabiać.

Ilustruje to przypadek działu serwerów x86, którego pozbywa się IBM. Big Blue doszedł do wniosku, że nie warto sprzedawać już niskobudżetowych serwerów, które stały się rozwiązaniem na tyle powszechnym, że nie przynoszą firmie wystarczających zysków. Producent chce się teraz skupić na sprzedaży hostowanych usług w swojej chmurze. Jego dział serwerów x86 za 2,3 mld dol. przejmuje chiński koncern Lenovo, który widzi w nim wielką szansę dla firmy i jej partnerów na powiększenie udziałów w rynku. Przedstawiciele Lenovo twierdzą, że wciąż jest duża potrzeba uruchamiania serwerów w firmach do obsługi aplikacji back office i w najbliższym czasie nic nie jest w stanie tego zmienić. Liczą tym samym na wzrost sprzedaży serwerów wolno stojących i stelażowych.

Bez względu jednak na to, jakie są perspektywy krótkoterminowe, to zarówno klienci, jak i resellerzy zawczasu powinni przygotować się na chmurę. Upowszechnienie się cloud computingu będzie oznaczać, że najmniejsze firmy w ogóle nie będą miały własnych fizycznych serwerów i pamięci masowych (zwłaszcza te rozpoczynające działalność). Gdy technologia chmury obliczeniowej przestanie być trendem, a stanie się codziennością, rachunek ekonomiczny przemówi za takimi „bezserwerowymi” firmami.

Co do większych firm, to wirtualizacja i chmura bardzo ograniczą liczbę serwerów stacjonarnych w ich systemach informatycznych. Na miejscu zostaną takie, na których będą działać starsze, ale wciąż potrzebne do funkcjonowania firmy systemy. Także sieci komputerowe staną się mniej widoczne, gdy infrastruktura w dużej części przeniesie się poza firmę klienta i wzrośnie znaczenie zdalnego zarządzania systemem informatycznym. Mając to na uwadze, integratorzy powinni rozważyć model, w którym obok tradycyjnej sprzedaży pudełek z wartością dodaną będą oferować moc obliczeniową, zasoby i zarządzane usługi IT w chmurach prywatnych (z samodzielnie stworzonej infrastruktury bądź jako brokerzy dużych dostawców).