Gdy pojawiła się koncepcja programowalnej infrastruktury, zapowiadająca nową erę w centrum danych, mogło się wydawać, że sprawy potoczą się w błyskawicznym tempie. Jednak klienci, choć od początku wykazywali spore zainteresowanie nowym podejściem technologicznym, nie byli pewni bezpośrednich korzyści biznesowych i obawiali się zupełnie nowego sposobu wdrażania. Także integratorzy nie przejawiali wielkiego zapału do sprzedaży innego modelu infrastruktury. Niewątpliwy wpływ na konserwatywne nastawienie użytkowników końcowych i resellerów mieli potentaci rynkowi dostarczający tradycyjną infrastrukturę, którzy w nowej koncepcji widzieli zagrożenie dla swoich interesów.

Wraz z Software Defined pojawiły się też obawy ze strony administratorów IT u klientów, związane z tym, że automatyzacja może ograniczać zapotrzebowanie na informatyków w firmach. Te zarzuty są przez integratorów odpierane.

Dzisiaj na rynku brakuje inżynierów, a będzie brakować ich jeszcze bardziej. Automatyzacja nie odwróci tego trendu, a informatycy powinni zaznajamiać się z nowymi narzędziami bez względu, czy będzie to SDN, czy inne rozwiązanie – twierdzi Marcel Guzenda, Business Solutions Architect w Sevenecie.

Dziś wciąż trudno mówić o przełomie. O ile jednak SDN (Software Defined Networking), a także SDS (Software Defined Storage) czy całościowa koncepcja SDDC (Software Defined Data Center) nie zyskały jeszcze powszechnego uznania w przedsiębiorstwach, o tyle nowe technologie przyczyniły się do zmiany ukierunkowania branży IT – ze sprzętu na oprogramowanie. Warto dodać, że dwa lata temu Gartner radził, by przedsiębiorstwa koncentrowały się nie na wyborze i zakupie konkretnych rozwiązań SDN, ale na celach do osiągnięcia takich jak: zwiększona automatyzacja, większa elastyczność, niższe koszty i mniejsze uzależnienie od jednego dostawcy. I właśnie to integratorzy, którzy chcą oferować omawiane technologie, powinni mieć na uwadze.

SDN – czyja wizja zwycięży?

Koncepcja SDN zapowiadała początek nowej ery w rozwoju sieci, z programowym, scentralizowanym kontrolerem oddzielonym od warstwy sprzętowej, protokołem sterowania OpenFlow, interfejsami API i niedrogimi urządzeniami sieciowymi. Rzeczywistość okazała się jednak bardziej skomplikowana, i to w momencie, gdy do akcji wkroczyli rynkowi potentaci branży IT.

Obecnie liderami rynku, walczącymi o pierwsze miejsce w sprzedaży SDN, są Cisco i VMware. Liczy się także Arista oraz dostawcy rozwiązań typu white box, a pierwszą piątkę zamyka Huawei.

SDN w wydaniu Cisco to oferta „sieci intuicyjnych” (Intent-Based Networking) z programową platformą Cisco DNA i narzędziem do centralnego zarządzania Cisco DNA Center. Jak twierdzi producent, dzięki tej platformie każde urządzenie sieciowe – przewodowe, bezprzewodowe lub szerokopasmowe – staje się częścią ujednoliconej architektury sieciowej (unified fabric), a działy IT w przedsiębiorstwach mogą łatwiej, bardziej ekonomicznie i skutecznie kontrolować infrastrukturę sieciową. Cisco zwraca uwagę na otwartość DNA Center, co ma ułatwiać klientom i partnerom firmy rozwijanie ekosystemu aplikacji.

 

Jak tłumaczy Marcel Guzenda z Sevenetu, jednego z parterów Cisco, zapotrzebowanie na programowalną infrastrukturę pojawiło się najpierw w centrach danych, co wynikało z konieczności automatyzacji, orkiestracji i szybszego tworzenia środowisk dla aplikacji, ale obecnie można mówić o Software Defined Everything. Wcześniej konfigurowanie serwerów, pamięci masowych, sieci i wirtualizacji to był długi proces. Obecnie trzeba wprowadzać zmiany z dnia na dzień, jeśli zażyczy sobie tego klient biznesowy.

Wyobraźmy sobie, że w sieci dużej korporacji czy banku trzeba dodać 100 nowych przełączników. Jeśli są one podłączane do SDN, to w systemie nadajemy im role, a wówczas automatycznie spłyną do nich konfiguracje, polityki i wszystko to, co wcześniej zdefiniowaliśmy. Co ważne, dochodzi do zniwelowania różnic pomiędzy połączeniami kablowymi a bezprzewodowymi – przede wszystkim na poziomie zabezpieczeń – mówi Marcel Guzenda.

Klienci uzyskują dostęp do możliwości oprogramowania Cisco DNA w ramach subskrypcji, gdy kupią sprzęt tego producenta z nowej serii przełączników Catalyst 9000. Takie podejście do SDN, jedynie na własnej platformie sprzętowej, jest przedmiotem krytyki ze strony rywali Cisco. Przede wszystkim VMware’a, który podkreśla, że jego oprogramowanie do wirtualizacji i programowania sieci – NSX – można uruchamiać na dowolnym sprzęcie.

Istotą działania sieci w modelu Software Defined jest wykorzystywane oprogramowanie, więc technologia ta jest niezależna od sprzętu. Jeśli mamy definiowaną programowo sieć, związaną z układami ASIC, to znacznie trudniej ją wdrożyć i zoperacjonalizować. Okazuje się też znacznie droższa, ponieważ trzeba kupić odpowiednie przełączniki – mówi w wywiadzie dla amerykańskiego CRN-a Tom Gillis, wiceprezes i szef działu Networking and Security w VMware.

Wdrażający SDN amerykańscy partnerzy Cisco zwracają jednak uwagę na duży zwrot z inwestycji, jaki uzyskują klienci, którzy dotąd sporo zainwestowali w opartą na układach ASIC architekturę sieciową Cisco. Do tego dochodzą tysiące wysoko wykwalifikowanych architektów sieciowych, zarówno w kanale sprzedaży, jak i po stronie klientów, mogących być ekspertami we wprowadzaniu bezpiecznej automatyzacji sieci. Bez porównania więcej integratorów dysponuje certyfikowanymi i przeszkolonymi inżynierami Cisco. Tych, którzy mają specjalistów od NSX-a, jest bardzo mało.

 

 

Trzy razy SDN

Cisco Intent-Based Networking

Cisco dużo inwestuje we własną platformę sieci intuicyjnej, która ma przewidywać zdarzenia, blokować zagrożenia bezpieczeństwa oraz stale się rozwijać i uczyć. Wraz z nią wprowadza do podstawowego portfolio sieciowego model oparty na subskrypcji i tworzy bardziej otwartą, programowo definiowaną architekturę. Producent udostępnia DNA Center – platformę kontroli i zarządzania dla sieci intuicyjnej, która umożliwia partnerom opracowywanie niestandardowych aplikacji i oferowanie klientom większego wyboru rozwiązań SDN. Firmy uzyskują dostęp do możliwości oprogramowania DNA w ramach subskrypcji, gdy kupią sprzęt z nowej serii przełączników Catalyst 9000.

VMware NSX Cloud

Nowa platforma NSX Cloud to część nowej strategii VMware’a. Rozwiązanie zapewnia spójne środowisko sieciowe i bezpieczeństwo aplikacjom działającym zarówno w prywatnych, bazujących na sprzęcie VMware centrach danych, jak i natywnie w chmurach publicznych (oferując funkcjonalności dla Microsoft Azure i AWS). Zadaniem NSX Cloud jest rozwiązanie problemów, które wynikają z wykorzystywania wielu chmur publicznych, takich jak niespójne reguły polityki, konieczność ręcznego ich tworzenia dla każdej chmury z osobna i używania specyficznych narzędzi w różnych chmurach publicznych.

Dell EMC Open Networking

Inicjatywę Open Networking producent rozpoczął w 2014 r. Ma ona być sposobem na propagowanie idei oddzielenia sieciowego sprzętu przełączającego od oprogramowania. Dell EMC stworzył Open Network Install Environment wraz z firmą Cumulus Networks, a następnie nawiązał współpracę z większą liczbą partnerów dostarczających sieciowy system operacyjny, w tym Big Switch Networks, IP Infusion i Pluribus Networks. Nie tak dawno udostępnił też własny system (OS10), który dezagreguje oprogramowanie sieciowe, oferując większy wybór sposobów jego wykorzystania. W obszarze SDN firma współpracuje także z Microsoftem.

Trzy razy SDS

DataCore SANsymphony

DataCore to producent, który nigdy nie posiadał własnej platformy sprzętowej i z ofertą SANsymphony jest jednym z pionierów w branży programowo definiowanej pamięci masowej. Rozwiązanie zapewnia typowy zestaw usług klasy enterprise świadczonych przez pamięć masową, która może się składać z wielu urządzeń rozproszonych w różnych lokalizacjach. SANsymphony umożliwia łączenie ich pojemności (wirtualizację) i zarządzanie nimi w sposób centralny i jednolity. Zapewnia także wysoką dostępność, asynchroniczną replikację przy odtwarzaniu po awarii oraz ciągłą ochronę danych.

NetApp Ontap Select

Rozwiązanie jest programowo definiowaną wersją platformy NetApp Ontap. Ontap Select można wdrażać na standardowym sprzęcie, przekształcając posiadane zasoby pamięciowe serwerów w platformę o funkcjonalności podobnej do tej, jaką zapewniają specjalistyczne macierze NetApp Ontap. Integruje się ona z oprogramowaniem do zarządzania w chmurze, takim jak OpenStack i VMware vSphere, i może być przeznaczona do wielu zastosowań – od rozwoju oprogramowania i testowania aplikacji po budowę centrum danych bazującego na pojedynczym serwerze.

VMware vSAN

VMware vSAN udostępnia programowo definiowaną technologię pamięci masowej przeznaczoną dla zwirtualizowanych i chmurowych środowisk VMware. Tworzy w nich pojedynczą pulę pamięci współużytkowaną przez wszystkie hosty w klastrze vSAN. Chociaż vSAN może być zakupiony jako samodzielne rozwiązanie, zwykle jest sprzedawany przez dostawców OEM w ramach gotowych sprzętowych platform Ready Nodes, jako komponent odpowiadający za pamięć masową w infrastrukturze hiperkonwergentnej Dell EMC VxRail lub jako część platformy programowo definiowanego centrum danych VMware.

 

 

Software Defined ma swoje wymagania

Za to, co proponują zarówno Cisco, jak i VMware, trzeba sporo zapłacić. Obietnicą tanich sieci SDN kuszą producenci rozwiązań typu white box – przełączników bazujących na standardowych platformach sprzętowych, na których można wdrażać systemy operacyjne od niezależnych dostawców. I jak wykazują badania analityków rynkowych, taka oferta znajduje nabywców. Jednak dla klientów chcących wykorzystać w firmowych środowiskach produkcyjnych SDN jeszcze ważniejszą kwestię od samego rozwiązania stanowi wsparcie techniczne, o które w przypadku white box może być trudno.

Marcel Guzenda podkreśla, że w środowisku enterprise nie ma miejsca na eksperymenty. W przypadku wdrożenia SDN, gdy jest to np. platforma Cisco, producent bierze odpowiedzialność za ewentualne problemy i pomaga w ich rozwiązaniu.

Gdy natomiast poszczególne elementy składamy z rozwiązań różnych dostawców, zaczyna się przerzucanie odpowiedzialności, mogą być kłopoty na przykład z walidacją – zauważa przedstawiciel integratora.

Połączyć z jednej strony ekonomiczność rozwiązania, z drugiej kwestie wsparcia, a z trzeciej możliwość instalowania jednego systemu operacyjnego dla SDN, wybranego spośród wielu różnych – próbuje Dell EMC. Tom Burns, wiceprezes i szef działu Networking and Solutions w tej firmie, zwraca uwagę, że tradycyjnie wdrażana sieć wymaga firmowych architektur, narzędzi do zarządzania, systemów operacyjnych i specjalizowanych układów scalonych (ASIC). W przypadku oferty Open Networking wykorzystuje się natomiast standardową architekturę i narzędzia do orkiestracji, opcjonalne kontrolery SDN/NVO, dowolny sieciowy system operacyjny oraz zgodny z otwartymi standardami sprzęt.

Przy takim podejściu SDN zapewnia wybór platform programowych, co ma umożliwiać wdrożenia bardziej zgodne z konkretnymi potrzebami. Jeden system może być najbardziej odpowiedni dla centrum danych, inny dla sieci kampusowych, a jeszcze inny ułatwi osiągnięcie największej wydajności sieci.

Według Arkadiusza Możdżenia, CTO i członka zarządu ds. rozwoju w S4E, oferta Dell EMC zyskuje uznanie mniejszych operatorów, którzy chcą otrzymać z jednej strony tanie rozwiązanie, z drugiej – wydajne. Zależy im na tym, by koszty utrzymania sieci w kolejnych latach były jak najniższe. Kupują więc sprzęt ze wsparciem i dokładają do tego wybrany sieciowy system operacyjny, którym potem zajmują się sami. Dlatego uwolnienie sprzętu od oprogramowania wymaga od klientów (albo integratorów, którzy będą chcieli świadczyć usługi zarządzania siecią) większych kwalifikacji.

Klienci decydujący się na takie rozwiązanie mają swoich inżynierów, którzy potrafią później dostrajać tworzone w modelu SDN środowisko sieciowe. Tak jest w przypadku mniejszych ISP, kupujących dużo sprzętu i chcących robić to jak najtaniej – mówi CTO S4E.

 

 

Zdaniem integratora

Maciej Kałużyński, prezes zarządu One System

Obecnie największe zainteresowanie naszą ofertą programowo definiowanego centrum danych i sieci wykazują międzynarodowe korporacje, w których decyzje o wyborze rozwiązania podejmowane są przez zagraniczne działy IT. Wśród małych i średnich firm widać zainteresowanie tematem, ale na razie nie przekłada się ono na liczbę finalnych transakcji. Rozwiązania Software Defined, które nie wymagają zakupu zaawansowanego sprzętu i mogą być instalowane na łatwo dostępnych komponentach – zarówno znanych producentów, jak i tańszych dostawców – z założenia powinny być atrakcyjniejsze cenowo od rozwiązań tradycyjnych. Tymczasem w praktyce wielokrotnie przekonaliśmy się, że koszty licencji na przykład na Software Defined Storage przekraczają koszty zakupu klasycznej macierzy dyskowej. Właśnie w tym upatrujemy przyczyny wciąż niewielkiego zainteresowania tą technologią wśród małych i średnich przedsiębiorstw. Rozwiązania Software Defined to niewątpliwie bardzo interesujący kierunek, któremu wnikliwie się przyglądamy, ale obecnie traktujemy go raczej w kategoriach alternatywy dla tradycyjnej oferty niż jako pierwszy rekomendowany wybór.

Marcel Guzenda, Business Solutions Architect, Sevenet

Jest zainteresowanie SDN wśród klientów i mamy już za sobą pierwszą implementację w branży finansowej. Prowadzimy też sporo projektów na poziomie PoC, które mogą się zmienić we wdrożenia. Są dzisiaj trzy drogi do nowej technologii. Po pierwsze, jeśli kończy się cykl życia posiadanej infrastruktury, to zastąpią ją urządzenia sieciowe nowej generacji, które umożliwią budowanie środowiska w inny sposób. Wiele firm, wymieniając infrastrukturę, decyduje się na razie uruchomić ją w sposób tradycyjny, ale w przyszłości może zrobić to po nowemu. Drugie podejście to uruchomienie już dziś części funkcjonalności Software Defined – na przykład siecią zarządza kontroler, ale funkcje bezpieczeństwa są realizowane w sposób tradycyjny. Wreszcie trzeci wariant, dotyczący zupełnie nowych projektów, a nie migracji – to stuprocentowe wejście w SDN.

 

 

Kompetencje są istotne także z tego powodu, że SDN pod wieloma względami różni się od podejścia tradycyjnego. Mamy w tym przypadku do czynienia z nowymi protokołami oraz innymi spojrzeniami na architekturę sieci. Potrzeba wiedzy na poziomie inżynierskim, ale też umiejętności wytłumaczenia klientowi nowych rzeczy i pokazania z jednej strony korzyści na poziomie biznesowym, a z drugiej ograniczeń. Jeśli chodzi o wdrożenie, to dużo łatwej jest w przypadku projektu tworzonego od zera (green field).

Wyzwaniem pozostaje migracja posiadanej sieci z dotychczasowymi regułami polityki, listami dostępu itp. – wszystko trzeba ustawiać na nowo. Ale później, gdy mamy już za sobą wdrożenie, w codziennej administracji zyskujemy dużą oszczędność pracy i czasu – wyjaśnia Marcel Guzenda.

SDS – elastyczniej, ale czy taniej?

Macierz dyskowa to w sumie mniej lub bardziej standardowy serwer ze zintegrowanym systemem operacyjnym, skonfigurowanym specjalnie do świadczenia usług przechowywania i udostępniania danych. Obecnie można zrezygnować z takiej specjalizowanej platformy sprzętowej i zdać się na oprogramowanie, które w formie programowo definiowanej pamięci masowej (SDS – Software-Defined Storage) będzie można uruchomić na powszechnie dostępnych i kompatybilnych z nim serwerach. W rezultacie uzyskuje się funkcjonalność podobną do tej, jaką zapewnia specjalistyczna platforma sprzętowa. Po stronie plusów należy wymienić większą elastyczność i niższą cenę (choć nie jest to takie pewne), natomiast po stronie wad – konieczność integracji i potencjalnie gorszą optymalizację sprzętową.

Jak zauważa Sławomir Karpiński, prezes Connect Distribution, rozwiązanie wcale nie jest nowe. Zaczęło po prostu funkcjonować pod inną nazwą. Przykładowo oferowane przez warszawskiego dystrybutora oprogramowanie DataCore znajduje się na rynku od 15 lat. Wcześniej było sprzedawane jako wirtualizator pamięci masowej, a dopiero od kilku lat, gdy specjaliści od marketingu spopularyzowali pojęcie Software Defined Storage, Storage, oferowane jest w tej kategorii.

Bez względu na terminologię chodzi o oprogramowanie, którego zadaniem jest przedefiniowanie zwykłego serwera z dyskami w celu uzyskania elastycznego, konfigurowalnego, wysokofunkcjonalnego urządzenia pamięci masowej – wyjaśnia Sławomir Karpiński.

Czy rzeczywiście SDS to rozwiązanie przyszłościowe, elastyczne i tańsze? W teorii tak być powinno. Przyszłościowe dlatego, że według założeń za wydajność i skalowalność rozwiązania odpowiada oprogramowanie, które decyduje o jego parametrach. Można w nim błyskawicznie wprowadzać nowe algorytmy i technologie, takie jak modne dziś uczenie maszynowe oraz elementy sztucznej inteligencji.

 

Powinno być także tańsze (choć z tym obecnie bywa różnie), bo platforma sprzętowa, która ma znacznie większe bariery rozwoju – z uwagi na fizyczne i technologiczne ograniczenia – jest w przypadku SDS mniej istotna. Oprogramowanie zwykle wymaga, aby były spełnione pewne warunki dotyczące architektury, natomiast kwestia tego, kto jest producentem danego komponentu, schodzi na dalszy plan.

A jeżeli dopuszczamy sprzęt różnych producentów, to zwiększa się konkurencja. Co za tym idzie spadają ceny komponentów, a w konsekwencji całego rozwiązania – podkreśla Sławomir Karpiński.

Tradycyjne rozwiązania z zakresu pamięci masowej mają architekturę, której geneza sięga lat 70. Od tego czasu zwiększyła się pojemność i szybkość dysków, pojawiły się dyski flash, przyspieszyły procesory, ale w większości macierzy stosuje się wciąż tę samą architekturę bazującą na dwóch kontrolerach, pamięci cache oraz wykorzystujących strukturę RAID zabezpieczeniach przed utratą danych  wskutek awarii. Dodatkowo macierze różnych producentów niechętnie się ze sobą komunikują, tworząc system silosowy, który z natury rzeczy jest drogi w zakupie, nie wspominając o braku elastyczności. Dlatego w porównaniu z tradycyjnym podejściem SDS daje nadzieję na niższe koszty, większą elastyczność, skalowalność, a przed wszystkim otwartość na przyszłe innowacje.

 

Zdaniem dystrybutora

Sławomir Karpiński, prezes zarządu Connect Distribution

Klienci i integratorzy zainteresowani nowatorskimi rozwiązaniami, do jakich zalicza się SDS, są w zdecydowanej mniejszości. Mam jednak wrażenie, że w obu grupach jest coraz większa otwartość na takie tematy. Standardem wciąż pozostaje podejście oportunistyczne, w którym preferuje się zakup tradycyjnej macierzy jako bezpiecznej, obarczonej mniejszym ryzykiem od rozwiązań innowacyjnych, ale mniej popularnych. Wynika to też z polityki marketingowej wiodących dostawców, którzy chcą promować swoje tradycyjne produkty tak długo, jak rynek będzie w stanie je zaakceptować. Zwłaszcza gdy dany dostawca nie ma w swojej ofercie SDS albo rozwiązania tradycyjne generują wyższą marżę.

Arkadiusz Możdżeń, CTO i członek zarządu ds. rozwoju S4E

Firmy interesują się programowalnymi sieciami, kiedy na przykład chcą ograniczyć koszty połączeń, które wcześniej wykorzystywały MPLS. Dzięki programowalności SD-WAN jesteśmy w stanie zapewnić podobne parametry komunikacji (niezawodność, opóźnienia itp.) przy wykorzystaniu internetu. I to się udaje. Z kolei w przypadku SDS atrakcyjna dla użytkowników końcowych jest możliwość stworzenia takiego środowiska pamięci masowej, w którym da się podłączać platformy sprzętowe od różnych producentów i wszystkim centralnie zarządzać. Nie można jednak mówić jeszcze o wyraźnym dążeniu partnerów i ich klientów do wdrażania rozwiązań, które działają w zupełnie nowy sposób. Jeśli tradycyjny model działa, sporo się w niego do tej pory zainwestowało (chociażby w certyfikaty) i wszyscy na nim zarabiają, to nikt szczególnie nie pali się do zmiany.