Przez długi czas serwery plików były postrzegane jako  magazyny danych, a użytkownicy nie mieli wobec nich wygórowanych oczekiwań. Ale sytuacja dynamicznie się zmienia, co najlepiej widać na przykładzie klientów korporacyjnych.  Instytucje finansowe, duże firmy medialne czy tez producenci samochodów realizują złożone projekty wymagające coraz silniejszego wsparcia ze strony nowych technologii, w tym branży storage. Ich wymagania starają się zaspokoić nie tylko znani vendorzy, ale również nowicjusze,  często zaskakujący nietuzinkowymi pomysłami. 

Opóźnienia w naszym systemie są dziesięciokrotnie mniejsze aniżeli w najszybszych macierzach all-flash – mówi Liran Zvibel, CEO i współzałożyciel Weka IO.

Matrix – flagowy produkt Weka IO  został zaprojektowany jako równoległy system plików. System może pracować w lokalnym centrum danych, chmurze Amazona lub środowisku hybrydowym.  Matrix uruchamiany jest na serwerze storage lub systemie hiporkonwergentnym w sieci Ethernet bądź InfiniBand. Jego architektura pozwala na tworzenie tysięcy rozproszonych węzłów obliczeniowych, wykonywanie milionów operacji wejścia wyjścia na sekundę oraz obsługę petabajtów danych.  Za kontrolę pracy odpowiada konsola Trinity, umożliwiająca skalowanie wydajności adekwatnej do potrzeb aplikacji. Weka IO w pierwszych wersjach wykorzystywała dyski SSD z interfejsem SATA oraz SAS, niemniej od Matrix v3 bazuje na standardzie NVMe over Fabrics.

 

Architektura systemu Matrix WekaIO

 

Wysoką wydajność produktu potwierdzają niezależne testy. Według benchmarku SPEC SFS 2014 Matrix jest najszybszym rozwiązaniem opartym na architekturze systemu plików równoległych dla zastosowań AI oraz  wysokowydajnych obliczeń. Produkt równie dobrze wypada w badaniach przeprowadzonych przez STAC-M3, które mają  dużą estymą wśród instytucji finansowych. Matrix pobił 8 z 24 rekordów w kategorii średni czas odpowiedzi na zapytania i 4 z 5 dotyczących przepustowości. 

Weka IO sprzedaje swoje rozwiązania za pośrednictwem partnerów, w tym również w modelu OEM. Startup współpracuje z HPE, Super Micro oraz Penguin Computing. 

 – Nie ukrywam, że  do wyboru  partnerów podchodzimy selektywnie. Nie zależy nam na tym, żeby mieć ich jak najwięcej. Chcemy współpracować z firmami potrafiącymi poruszać się w tym specyficznym obszarze – mówi Liran Zvibel. 

Weka IO powstała w 2014 w Izraelu, niemniej dwa główna biura znajdują się w San Jose oraz Tel Awiwie.  Jak do tej pory startup pozyskał od inwestorów 66,7 mln dolarów. Co ciekawe, w izraelską firmę zainwestowały m.in HPE, Seagate, Western Digital czy NVIDIA.  Zresztą Weka IO posiada w swoim portfolio specjalne rozwiązanie AI bazujące na bazie serwera NVIDIA DGX-1 z procesorami GPU Tesla V100. 

– Procesory graficzne mają bardzo wysokie wymagania dotyczące IOPS, którym systemy NFS nie potrafią sprostać. Nawet duże NAS-y, takie jak Dell EMC Isilon czy Qumulo nie nadążają za potrzebami AI, co stawia nas w uprzywilejowanej sytuacji – zauważa Barbary Murphy, wiceprezes ds. Marketingu w WekaIO.