InfiniBand jest obecnie
najpowszechniej stosowanym rozwiązaniem sieciowym w superkomputerach.
Coraz częściej wykorzystuje się je także w centrach danych, gdzie
w porównaniu z Ethernetem i Fibre Channel okazuje się
najwydajniejszą i najbardziej ekonomiczną technologią. Jego duża
funkcjonalność i elastyczność umożliwiają komunikowanie serwerów
i pamięci masowych w ramach wielu architektur i topologii
sieciowych.

 

Nazwa zobowiązuje

Już sama nazwa technologii sugeruje brak ograniczeń
– InfiniBand, czyli nieskończone pasmo. Może przesyłać dane przez sieć tak
szybko, jak je generuje – bez żadnego buforowania z powodu ograniczeń
prędkości sieci.

Obsługa pamięci masowych staje się jeszcze wydajniejsza.
Wykorzystując RDMA, technologia InfiniBand odciąża CPU, co umożliwia
zwiększenie szybkości przesyłania danych oraz utrzymanie opóźnienia na bardzo
niskim i stałym poziomie. „Zaoszczędzone” cykle CPU mogą być wykorzystane
do zwiększania wydajności aplikacji.

Zalety
InfiniBand

• Daje możliwość  budowy konwergentnej i wydajnej
infrastruktury Data Center/HPC/Cloud SaaS.

• Ma bardzo podobną strukturę protokołu jak
Fibre Channel.

• Jest bardzo szybki. Obecnie standardem
jest FDR 56/100 Gb/s na port. Już wkrótce będzie nim EDR 300 Gb/s.

• Został zaprojektowany jako następca
technologii Ethernet i Fibre Channel.

• Zapewnia większą wydajność, elastyczność i
skalowalność niż alternatywne architektury sieci.

• Oferuje niezawodność systemów architektury Linux, powszechnie wykorzystywanych w
klastrach obliczeniowych typu High Performance Computing (HPC).

• Jest obecnie tańszy niż FC i 10 GbE.

 
Największe chmury wykorzystują InfiniBand

Od lat
liderem na rynku rozwiązań InfiniBand jest amerykańska firma Mellanox.
Producent oferuje systemy komunikacyjne o wysokiej przepustowości
i niskim poziomie opóźnień. Zapewnia kompletne rozwiązanie (układy scalone
ASIC, przełączniki, karty sieciowe), obsługujące konwergentne sieci
(InfiniBand/Ethernet/FC) tworzone dla klastrów serwerów i pamięci masowej.
Dostępna jest m.in. cała gama przełączników brzegowych oraz rdzeniowych (klasy
Director), które działają z szybkością połączeń 40, 56 i 100 Gb/s na
port i są wyposażone w od 8 do 648 portów.

Rozwiązania Mellanox są
coraz chętniej wykorzystywane w korporacyjnych centrach danych (przez
operatorów dystrybuujących multimedia), w akademickich ośrodkach
przetwarzania danych, a także jako zaplecze sprzętowe dla usług
świadczonych z chmury, w tym przez takich potentatów SaaS jak
Microsoft czy Oracle.

 

W konwergencji siła

Chcąc jak najlepiej obsłużyć systemy informatyczne, stosuje
się wiele protokołów komunikacyjnych. Jednak optymalnym rozwiązaniem jest taki
adapter sieciowy, który poradzi sobie ze wszystkimi rodzajami obciążeń. Jego
zastosowanie prowadzi do zmniejszenia kosztów i złożoności infrastruktury,
a także do oszczędności zużycia energii. Przy czym nie powoduje to
obniżenia funkcjonalności ani wydajności systemu.

Virtual
Protocol Interconnect (VPI) – rozwiązanie firmy Mellanox – umożliwia
bezproblemowe współdziałanie standardowej sieci, klastrów serwerów, pamięci
masowej i protokołów zarządzających w dowolnej konwergentnej
infrastrukturze. Każdy port może obsługiwać InfiniBand, Ethernet czy Data
Center Bridging (DCB), wspierając także Ethernet over InfiniBand (EoIB), Fibre
Channel over InfiniBand (FCoIB), Fibre Channel over Ethernet (FCoE),
a także RDMA over Converged Ethernet (RoCE). VPI znacząco upraszcza
projektowanie systemów I/O oraz ułatwia menedżerom IT wdrażanie infrastruktury
dynamicznego centrum danych.

Aby dowiedzieć się więcej o ofercie Mellanox, zadzwoń pod numer 12 262 55 99,wyślij e-mail na adres zyckopolska@zycko.com
albo
odwiedź stronę http://pl.zycko.com/producenci/mellanox-technologies/