Otwierający konferencję Mirosław Chełmecki, dyrektor Działu Pamięci Masowych i Serwerów w Veracompie, przypomniał, że ochrona danych przed niepożądaną zmianą lub usunięciem była i jest konieczna niezależnie od charakteru środowiska, w którym przetwarzane są informacje. Kiedyś były to pojedyncze serwery, dziś są to najczęściej maszyny wirtualne, a wkrótce prawdopodobnie będą to rozwiązania kontenerowe. Do tego dochodzi też konieczność zabezpieczania własnych danych przechowywanych w chmurze, bo – jak pokazuje praktyka – różni usługodawcy nie zawsze dbają o to w należyty sposób. W efekcie część nadmiernie ufających im dostawców musiała pożegnać się ze swoimi danymi na zawsze.

Zdaniem prelegentów do zaprojektowania poprawnie funkcjonującego środowiska backupu konieczne jest rozumienie zabezpieczanych danych. Skończyły się czasy, gdy administrator po prostu zlecał skopiowanie obrazu serwera na taśmę. Dziś rozwiązania techniczne dobiera się w zależności od priorytetów wytyczanych przez biznes. W większych firmach zagwarantowanie wysokiej dostępności dla wszystkich danych okazuje się praktycznie niemożliwe, jak również nieopłacalne, więc konieczne jest przeanalizowanie ich wartości biznesowej i wyznaczenie, jaka ilość danych może ulec utracie oraz w jak szybkim czasie należy przywrócić dostęp do tych zabezpieczonych. Świadomość tego, jakie informacje zawarte są w danych ułatwia też, w razie potrzeby, ich wyszukiwanie.

Dane ze środowisk wirtualnych są dla firm szczególnie ważne. Gdy awarii ulegnie serwer, na którym uruchomionych jest kilka wirtualnych maszyn, w przedsiębiorstwie automatycznie niedostępnych będzie kilka usług. Stąd konieczność wskazania tych wirtualnych serwerów, które powinny działać w klastrze lub u dostawcy usług chmurowych (z reguły ma lepiej zabezpieczoną infrastrukturę). Mnogość dostępnych dziś rozwiązań sprzętowych i oprogramowania gwarantują, że dla każdego klienta znaleźć można rozwiązanie idealnie dopasowane do jego potrzeb.

Dzianis Kashko, dyrektor ds. marketingu i sprzedaży w firmie integracyjnej Comtegra, podkreślał, że administratorzy nie muszą obawiać się spadku zatrudnienia po wprowadzeniu do przedsiębiorstwa kolejnych warstw wirtualizacji i automatyzacji. Ich obawy powinny dotyczyć czegoś innego – nowoczesne środowisko IT wymaga nieustannego nadzoru, zaś administratorzy zyskują dostęp do potężnych narzędzi raportujących. W efekcie ich rola może się znacznie zmienić – z osób, które „robią”, na osoby, które „mówią”. Wszystko wskazuje na to, że już wkrótce zadaniem informatyków będzie raczej przygotowywanie obszernych raportów demonstrujących aktualny stan infrastruktury IT niż samo nią zarządzanie.

W konferencji Backup Forum swoje rozwiązania zaprezentowało 10 firm: Arcserve, Comtegra, HPE, Microsoft, QNAP, Quantum, Red Hat, SEP, Veeam i Veritas. Każdy z trzech bloków tematycznych kończył panel dyskusyjny (wybrane wypowiedzi prelegentów publikujemy obok). Sama konferencja była częścią większego programu All of Backup prowadzonego przez cały rok pod egidą Veracompu. Więcej informacji na ten temat na stronie backup.info.pl.