Zanim podejmiemy próbę odpowiedzi na tytułowe pytanie, wypadałoby je doprecyzować, bo lokalne centrum danych także może być – i często jest – chmurą, tyle że prywatną. Dlatego trzeba raczej zapytać, w jakich sytuacjach klient decyduje się na własną infrastrukturę, a kiedy myśli o korzystaniu z zasobów operatorów chmury publicznej? Oferta tych ostatnich stale się poszerza i klienci chętniej z niej korzystają. To, czy wybierają publiczny cloud computing, czy wolą polegać na własnym data center, zależy od wielkości firmy i tego, jakie ma ona potrzeby.

Chmura to model biznesowy. Sposób przetwarzania danych jest inny niż do tej pory, bazuje na automatyzacji. Korzyści finansowe (czy to w postaci obniżenia kosztów, czy zwiększonej efektywności firmy) są głównym celem budowy rozwiązań cloud computingu – zarówno chmury prywatnej, jak i publicznej. Założenie jest takie, że ma być taniej i szybciej, jeśli chodzi o wdrażanie infrastruktury i dostarczanie usług.

– Choć pierwsze efekty pojawiają się niemal natychmiast po wdrożeniu, ze względu na czas i koszty budowy chmury prywatnej lub hybrydowej, typowy ROI zamyka się w okresie 2–3 lat – szacuje Filip Kata, inżynier systemowy w Dell EMC.

Trudno zaprzeczyć, że wielką zaletą chmury publicznej jest niska bariera wejścia. Firmom, które dzisiaj są startupami i mają jeszcze niewielkie potrzeby w obszarze IT, cloud computing daje niezwykłą możliwość rozpoczęcia świadczenia usług niemal od zaraz. Postawienie kilku maszyn wirtualnych, na których zostanie uruchomione rozwiązanie dla klientów – czy to będzie oprogramowanie w modelu SaaS, czy aplikacja realizująca jakieś konkretne zadanie – jest bardzo proste i nie wymaga dużego nakładu finansowego. Gdy jednak przekracza się pewien próg krytyczny i potrzeba wiele maszyn wirtualnych, to opłata za usługę staje się znaczącym kosztem.

– Mieliśmy do czynienia z klientem z branży oprogramowania, który swoją działalność rozpoczynał, korzystając z usług dostawcy chmury publicznej i kilku maszyn wirtualnych. Dzisiaj tych maszyn ma ponad tysiąc i z powodu kosztów myśli o stworzeniu takiego rozwiązania, które pozwoli mu na zastosowanie modelu hybrydowego. Będzie nadal korzystał z niewątpliwych zalet chmury publicznej, ale obniży koszty poprzez realizowanie części zadań u siebie – tłumaczy Grzegorz Dobrowolski, odpowiedzialny za rozwój oraz sprzedaż rozwiązań data center i wirtualizację w polskim oddziale Cisco Systems.

 

Chmura nie zawsze tańsza

Oferując niską barierę wejścia, operator chmury publicznej tworzy ją bowiem na zasadach nadsubskrypcji. Może zaproponować niską cenę, bo sprzedaje wielu klientom tę samą, współdzieloną infrastrukturę, zakładając, że nie wszyscy będą z niej korzystać jednocześnie. Gdy jednak klientowi zależy na infrastrukturze na wyłączność, która będzie zapewniać mu 100 proc. mocy obliczeniowej w trybie 24/7, to będzie zmuszony zapłacić cenę premium, bo dostawca nie będzie mógł części swoich zasobów oferować komuś innemu. Dlatego kalkulacje mogą pokazać, że uruchamianie wszystkich aplikacji w chmurze publicznej wcale nie będzie tańsze niż posiadanie własnej infrastruktury do ich obsługi.

– Jeśli chmura ma osiągać wydajność całego systemu lokalnego, to koszty mogą być porównywalne. Dlatego inwestycja w chmurę w niektórych przypadkach przynosi iluzoryczne oszczędności – potwierdza Dominik Żochowski, prezes firmy intergratorskiej Engave.

Chmura pozwoli ograniczyć koszty, pod warunkiem że zostanie właściwie zastosowana. Jeśli przykładowo zostanie użyta do disaster recovery, to korzyści będą natychmiastowe przy małych nakładach finansowych.

 

Nie wszystko da się przenieść do chmury

Wybór – chmura publiczna czy własna infrastruktura – zależy od stanu posiadania klienta. O ile łatwe może być skorzystanie z chmury przez firmy dopiero rozpoczynające swoją działalność, o tyle w przypadku starszych przedsiębiorstw sprawa się komplikuje. Jeśli do tej pory miały one swoje data center i szereg uruchomionych w nim aplikacji, to chmura może oznaczać problem z migracją wykorzystywanych rozwiązań.

Zdaniem producentów

• Grzegorz Dobrowolski, odpowiedzialny za rozwój oraz sprzedaż rozwiązań data center oraz wirtualizację w polskim oddziale Cisco Systems

Bazując na doświadczeniach firm już korzystających z chmury publicznej, warto klientowi od samego początku proponować model hybrydowy. I to taki, który – w oparciu o dostępne na rynku narzędzia – będzie mu zapewniał łatwość migrowania aplikacji i danych pomiędzy infrastrukturą wybranego operatora a własnym data center, ale także pomiędzy różnymi publicznymi chmurami. To ważne, ponieważ związanie się na dobre i złe tylko z jednym dostawcą cloud computingu może prowadzić do uzależnienia się od jego usług i warunków (np. SLA) oraz w znacznym stopniu ograniczać wybór w przyszłości. Jeśli operator będzie zdawał sobie sprawę z możliwości przeniesienia się klienta do innej chmury, to będzie bardziej skłonny do negocjacji.

• Filip Kata, inżynier systemowy w Dell EMC

W typowej dużej firmie wciąż 80–90 proc. wykorzystywanych aplikacji to produkty starego typu i nie ma projektów, które zakładają całkowite zamknięcie centrum danych i przeniesienie całości zasobów do chmury publicznej. Dlatego większość dużych firm w Polsce jest w tej chwili na etapie budowy chmur prywatnych, zarówno w oparciu o istniejące zasoby (tzw. brownfield), jak i od zera (greenfield). Jedynie najbardziej zaawansowane technologicznie firmy, które już mają ten etap za sobą, rozszerzają swoje działania na chmurę publiczną. Oczywiście inaczej wygląda sytuacja w przedsiębiorstwach, które nie mają własnego data center, np. w małych firmach czy startupach – te najchętniej od razu korzystają z chmury publicznej.

 

Trzeba bowiem pamiętać, że podstawowym narzędziem pracy współczesnych przedsiębiorstw są aplikacje – obsługujące procesy wewnętrzne, sprzedaż, działania marketingowe itp. Filip Kata z Dell EMC zwraca uwagę, że aplikacje chmurowe pisane są w zupełnie inny sposób niż tradycyjne – mają całkowicie odmienną architekturę, inaczej przechowują dane i wykorzystują zasoby. Nie da się w prosty sposób przenieść do chmury dużej aplikacji biznesowej, np. centralnego systemu bankowego czy hurtowni danych – trzeba je napisać w znacznej części (albo w całości) od nowa.

Klienci mają wciąż wiele starszego oprogramowania, trudnego do zwirtualizowania i wymagającego bardzo specyficznego środowiska, którego odtworzenie w chmurze może nie być możliwe. Mniejszym problemem są nowsze aplikacje, projektowane z myślą o wykorzystaniu cloud computingu, niezależne od obsługującej je infrastruktury.

Zdaniem integratorów

• Paweł Masłowski, Business Line Manager – Data Centre Solutions w Dimension Data Polska

Odpowiedź na pytanie „centrum danych – w chmurze czy lokalnie?” zależy od typu przetwarzania danych, jaki stosuje ich właściciel. Mogą to być statyczne zbiory danych ustrukturyzowanych lub bardzo dynamicznie zmieniające się i o różnej wielkości. Konieczne jest też ustalenie, w jaki sposób klient odwołuje się do swoich informacji. Czy zmienia ich położenie często, a może sięga tylko po część zbioru? Oczywiste jest, że gdy będzie chciał przechowywać w chmurze „gorące” dane transakcyjne, może napotkać problem z szybkością dostępu do nich, ponieważ czas odpowiedzi takiego rozwiązania będzie dalece dłuższy, niż gdyby dane przechowywał lokalnie. Inaczej ma się sytuacja w przypadku np. wykonywania backupów. Ta część pracy administracyjnej coraz częściej jest przenoszona do chmury, gdyż nie jest wymagany bardzo krótki czas odpowiedzi.

Polskie firmy integratorskie stoją przed jeszcze trudniejszymi dylematami niż ich klienci. Zwyciężą te, które technologie chmurowe adaptują nie w teorii i na papierze (prezentacjach), ale mają doświadczenie projektowe. Tacy integratorzy już teraz potrafią rozwijać swój biznes nie na „dostawie usług chmurowych”, ale na integracji aktualnie działającego środowiska klienta z usługami chmurowymi, które ten chce wykorzystać.

• Dominik Żochowski, prezes Engave

Sprawdzonym i dzisiaj stosunkowo ekonomicznym rozwiązaniem jest lokalne centrum danych. W dalszym ciągu pozostaje najbezpieczniejszym sposobem przetwarzania informacji, ponieważ zapewnia stałe połączenie użytkowników ze środowiskiem pracy. Chmura ma ten słaby punkt, że komunikacja z nią odbywa się za pomocą łącza internetowego, którego przerwanie całkowicie uniemożliwia pracę. Dla przedsiębiorstw i instytucji sytuacja taka może oznaczać wymierne straty. Lokalne centrum danych ma natomiast tę zaletę, że zawsze mamy do niego dostęp. Decydując się na chmurę publiczną, nie zawsze wiemy, gdzie nasze dane są przechowywane, w jaki sposób są zabezpieczane oraz pod jakie prawo podlegają.

Choć publiczny cloud bywa postrzegany jako rozwiązanie tańsze od lokalnego centrum danych, nie musi być to prawdą. Pamiętajmy, że chmura to nie tylko miejsce do przetwarzania danych – to także licencje, które potrafią bardzo podwyższyć koszty takiej usługi. Wcale nie musi być rozwiązaniem korzystniejszym, jeżeli chcielibyśmy do niego przenieść całe środowisko produkcyjne. Natomiast zdecydowanie rozsądne i ekonomicznie uzasadnione jest wykorzystanie chmury do disaster recovery.

• Krzysztof Tyl, dyrektor centrum kompetencyjnego Business Continuity & Data Security w Qumak

Część dużych przedsiębiorstw oraz instytucji pracuje nad konsolidacją zasobów i buduje własne chmury prywatne. Takie projekty mają na celu automatyzację i rozliczalność zasobów IT w formie świadczonych usług: IaaS, PaaS, SaaS. Chmury publiczne natomiast są brane pod uwagę przez średnie i mniejsze firmy. Tego typu rozwiązania zapewniają bowiem infrastrukturę IT bez konieczności początkowego inwestowania kapitału. Dobrym przykładem wykorzystania chmury publicznej jest zbudowanie ośrodka zapasowego (disaster recovery) w chmurze, co nie wymaga budowania drugiej serwerowni oraz infrastruktury IT.

W projektach migracji do chmury publicznej lub budowy w niej ośrodka zapasowego należy zwrócić uwagę na cyberbezpieczeństwo środowiska, poufność i dostępność przetwarzanych danych oraz uwzględnić plan wyjścia z chmury lub zmiany dostawcy. Te aspekty muszą mieć odzwierciedlenie w umowie podpisanej z dostawcą usługi chmury publicznej. Dlatego przy tego typu projektach sprawdzi się doświadczony integrator, który poprowadzi je kompleksowo.

 

Co z dochodami integratorów?

Co chmura publiczna oznacza dla integratorów, którzy przez całe lata dostarczali klientom sprzęt serwerowy, pamięciowy czy sieciowy? Jaki wpływ ma na ich zyski? Dominik Żochowski z Engave uważa, że dla tradycyjnych integratorów sprzętowych zawsze bardziej opłacalna będzie budowa kompletnej infrastruktury lokalnej u klienta. Z jego obserwacji wynika też, że przedsiębiorstwa i instytucje wciąż inwestują w lokalne centra danych.

Przy ich budowie niezbędne będzie dostarczenie infrastruktury, co wiąże się z poważnymi kosztami, jakie musi ponieść zamawiający. Zakres koniecznych prac implementacyjnych również jest niemały i pociągnie za sobą dalsze wydatki, które w przypadku chmury publicznej można w dużej mierze ograniczyć. Jeśli więc klient ma dużo zapłacić, to integrator powinien dużo zarobić. Logiczną konsekwencją więc powinno być to, że integratorowi najbardziej opłaci się zaoferować budowę chmury prywatnej.

– W krótkoterminowym ujęciu to prawidłowe rozumowanie. Jednak, gdy myśli się o kontynuowaniu biznesu integratorskiego, oferowanie także chmury publicznej już teraz da dużo lepsze rezultaty. W przeciągu kilku lat przetwarzanie i przechowywanie danych zostanie bowiem w dużej mierze wyniesione do chmury publicznej – przewiduje Paweł Masłowski, Business Line Manager – Data Centre Solutions w Dimension Data Polska.

Rozważając korzyści z zastosowania obu rodzajów przetwarzania danych, warto skupić się na tym, co nowego wnosi chmura.

– Przetwarzanie lokalne jest codziennością, przyzwyczajeniem i bezpieczeństwem posiadania danych na własnych urządzeniach, wiedzą, kto z imienia i nazwiska nimi administruje, do kogo możemy się zwrócić. Chmura natomiast zmienia rozumienie realizacji zadania przechowywania danych z „kto, gdzie i na czym” na „jak dużo i jak dostępne” – tłumaczy specjalista z Dimension Data.

Integratorom zarówno chmura prywatna, jak i publiczna oferuje liczne możliwości rozwoju biznesu, czy to w zakresie budowy i wdrożenia w przypadku chmur prywatnych, czy to w postaci usług doradczych i szkoleniowych w przypadku chmur publicznych. Filip
Kata z Dell EMC zwraca uwagę, że bardzo ważne dla integratora są kompetencje w warstwie aplikacyjnej (budowa PaaS, Agile, DevOps), a przedsiębiorstwa, które nie rozwiną modelu działania w tym kierunku, mogą w ciągu 2–3 lat stracić na swojej konkurencyjności. Sama sprzedaż coraz bardziej podobnych do siebie produktów infrastrukturalnych nie zapewni im bowiem satysfakcjonującej marży.

 

Współpraca z operatorem chmury publicznej

Jeśli nie ma ucieczki od chmury publicznej, to integratorzy muszą się nauczyć lepiej współdziałać z jej dostawcami. Efekty współpracy zależą od tego, ile miejsca na zarabianie operator zostawia partnerowi. Najmniej wtedy, gdy rzecz sprowadzi się do prostej odsprzedaży usług. Jednak ten model – jako mało atrakcyjny dla integratora – nie jest wybierany zbyt często, co potwierdzają także sami operatorzy.

– Rzadko podejmujemy współpracę związaną z prostą odsprzedażą usług, częściej dostarczamy technologie, które są potrzebne integratorowi do świadczenia przez niego usługi dla klienta końcowego, lub wspólnie z nim projektujemy specjalistyczne, indywidualne rozwiązania odpowiadające konkretnym potrzebom klienta – twierdzi Jacek Chylak, zastępca dyrektora handlowego 3S.

Jak przekonuje przedstawiciel operatora, nie dochodzi w tym wypadku do konkurowania usługami i kompetencjami na rynku, bo oferty dostawcy chmury i integratora są komplementarne. Obie strony wspólnie budują dla klientów chmury prywatne i hybrydowe, a integrator może liczyć na indywidualne podejście operatora do projektu.

Na obustronne korzyści, wymianę kompetencji i budowanie wspólnych zespołów projektowych zwraca uwagę także Maciej Madziała, kierownik działu wirtualizacji w Beyond.pl. Współpraca z tym dostawcą chmury przebiega na różnych poziomach: od dodania usług operatora do oferty integratora po wspólne wdrożenie u klienta, podczas którego każda ze stron odpowiada za swój element projektu.

– Z partnerami budujemy rozwiązania dopasowane do potrzeb klienta, często szyte na miarę. Może to być zarówno chmura hybrydowa, jak i prywatna, a także całe środowisko wraz z Center Disaster Recovery, w innej lokalizacji – twierdzi przedstawiciel operatora.

Celem integratora staje się więc obudowanie oferty dostawcy chmury jak największą wartością dodaną, a jeszcze lepiej stworzenie dla klientów modelu hybrydowego, w którym oferowane będą usługi chmurowe w połączeniu z dostarczaną infrastrukturą, działającą lokalnie. W podejściu hybrydowym integrator zyskuje duże pole do działania przy tworzeniu projektu, sposobu migrowania aplikacji oraz danych itp.

Są i tacy integratorzy, który decydują się na budowanie własnych, mniej lub bardziej uniwersalnych platform hybrydowych bazujących na wybranej warstwie sprzętowej i ofercie usług konkretnego operatora chmury. Takie hybrydowe IT „z pudełka” zalicza się do kategorii infrastruktury konwergentnej albo hiperkonwergentnej. Rozwiązanie integruje moc obliczeniową, pamięci masowe i sieci, udostępniając interfejs zarządzania administratorowi, który dba o swoje konwergentne środowisko i w miarę potrzeb rozszerza je płynnie o zasoby z chmury publicznej. W najmniejszym wariancie rozwiązanie może obejmować kilka zintegrowanych fizycznych serwerów, które obsłużą kilkadziesiąt maszyn wirtualnych. Nie jest więc ofertą dla najmniejszych klientów, bo ci potrzebują zaledwie kilku VM, które dostaną u operatora publicznego.

Z powodu korzyści, jakie oferuje, model hybrydowy wydaje się być docelowym sposobem na IT w przedsiębiorstwach. Integratorzy powinni wziąć to pod uwagę i rozwijać się w kierunku dostarczania elastycznych środowisk, w których np. kluczowe systemy pozostaną w centrum danych klienta, pozostałe natomiast zostaną przeniesione do operatora.