Jednocześnie pojawiło się zapotrzebowanie na wydajne rozwiązania do obsługi dynamicznie rozwijającego się Internetu rzeczy (IoT), który pod względem liczby podłączonych do sieci urządzeń końcowych bije kolejne rekordy (obecnie 20 mld szt., w 2025 r. szacowane 40 mld). Wcześniej ograniczały się one do sensorów i sterowników w zastosowaniach typowych dla automatyki przemysłowej, a dziś są używane w niemal każdej sferze życia zawodowego i osobistego. Miliardy końcówek IoT wymagają obecnie przetwarzania danych „w locie” – jeszcze przed przesłaniem do centrum obliczeniowego. Odpowiedzią na tę potrzebę są urządzenia klasy edge computing, agregujące dane i dokonujące wstępnych obliczeń poza data center.

W rezultacie obserwujemy obecnie – niespotykany do tej pory, w historii ludzkości – dynamiczny przyrost danych (ich ilość mierzona jest już w zettabajtach, a branża jest zgodna, że pojęcie Big Data za słabo oddaje istotę zjawiska). Jednak ilość danych wcale nie musi przekładać się na użyteczność informacji. Tę uzyskuje się dzięki dopiero po odpowiedniej interpretacji danych i umieszczeniu ich w określonym kontekście. To niełatwe, ale z pomocą przychodzi sztuczna inteligencja (AI), której praktyczne wdrożenie jest możliwe dzięki zastosowaniu uczenia maszynowego (ML). Analizuje ona struktury danych, ale tworzy również własne, wykrywa nieznane prawidłowości i trendy oraz potrafi je zamienić na wiedzę zrozumiałą dla człowieka, wspomagając tym samym jego proces decyzyjny. Ze względu na wysokie zapotrzebowanie na moc obliczeniową w warstwie infrastrukturalnej AI i ML wykorzystują rozwiązania typu high performance computing (HPC).

Opisane wcześniej zjawiska w całej swojej złożoności i dynamice są elementami procesu zwanego ostatnio cyfrową transformacją. Dotyczy ona współpracy urządzeń brzegowych (w tym elementów IoT) oraz infrastruktury obliczeniowej, która uzbrojona w sztuczną inteligencję (AI) tworzy coraz bardziej funkcjonalne i elastyczne środowisko teleinformatyczne. Poprawiające przy tym jakość życia ludzi i przyspieszające rozwój każdej branży, a także pomagające wykonywać zadania szybciej, taniej, lepiej i w sposób bardziej spersonalizowany. Co więcej – nowe cyfrowe i inteligentne zaplecze przyczynia się do tworzenia wcześniej niedostępnych produktów, usług oraz modeli biznesowych.

30 lat doświadczenia zaprocentowało…

Przez ostatnie 30 lat zespół Lenovo był rynkowym liderem w projektowaniu i dostarczaniu infrastruktury wspierającej ten proces. Począwszy od pierwszego systemu rackowego 1U z 1999 r., przez coraz bardziej złożone rozwiązania modularne, po najnowsze urządzenia typu edge computing oraz bogate portfolio rozwiązań typu HPC – inżynierowie Lenovo projektowali platformy serwerowe z myślą o sprawnym zarządzaniu i optymalnym wykorzystaniu posiadanych zasobów. Dbając przy tym, by zawsze mogły się one szybko adaptować do nowych wymagań pojawiających się na rynku.

Ostatnio Lenovo wprowadziło dwie linie produktowe, które wychodzą naprzeciw najnowszym, transformacyjnym potrzebom: ThinkAgile i ThinkSystem. Tworzą one kompletną ofertę dla centrów obliczeniowych: opartą na niezawodnym sprzęcie serwerowym, pamięciach masowych i sprzęcie sieciowym, które są podstawą konstrukcji różnorodnych rozwiązań transformacyjnych. ThinkSystem jest obecnie światowym liderem w kategorii wydajności serwerów x86. Należą do niego rekordy w 155 światowych testach obciążeń (przy czym 85 nowych rekordów pobito z procesorami serii Intel Scalable, w tym z procesorem drugiej generacji Cascade Lake).

Lenovo umacnia swoją pozycję lidera także w dziedzinie przetwarzania wysokiej mocy (HPC). Na liście 500 posiadaczy najwydajniejszych superkomputerów przybyły 33 nowe systemy Lenovo. Obecnie w 20 krajach 173 organizacje z listy Top 500 (czyli 35 proc. wszystkich) korzysta z technologii Lenovo.

W instalacjach HPC szczególne zainteresowanie wywołuje chłodzenie cieczą, a system Lenovo Neptune od kilku lat cieszy się uznaniem branży i klientów. Superkomputer SuperMUC-NG w LRZ w Monachium jest pierwszym w branży systemem, w którym 6500 serwerów i 13 tys. procesorów jest chłodzonych z wykorzystaniem ciepłej wody (50°C). Zaoszczędzoną w ten sposób energią można w ciągu roku zasilać 4,7 tys. niemieckich gospodarstw. Z systemu Neptun korzystają również tacy klienci, jak Uniwersytet Harvarda czy ISRO – Indyjska Agencja Badań Kosmicznych. Łącznie system obsługuje obecnie ponad 30 tys. serwerów zainstalowanych na całym świecie.

Kolejny rok (szósty z rzędu) Lenovo utrzymuje pozycję niekwestionowanego lidera w niezawodności serwerów x86. Jego rozwiązania mogą się pochwalić najkrótszym czasem nieplanowanego przestoju (maks. 2 minuty rocznie) pośród wszystkich platform x86 ocenianych przez niezależne organizacje techniczne .

Niezawodność infrastruktury, jej wydajność i elastyczność, gotowość na przyjęcie coraz większych obciążeń mają kluczowe znaczenie dla firm i instytucji wchodzących na drogę cyfrowej transformacji. Warto o tym pamiętać, wybierając sobie partnera w tej podróży. Partnera świadomego wszystkich wyzwań i umiejącego im sprostać.