Ewolucja sprzętu komputerowego – zarówno stacjonarnego, jak i przenośnego – od zarania zmierzała ku temu, żeby maszyny były coraz bardziej wydajne, coraz mniejsze i oczywiście coraz tańsze. Ten proces zatrzymał się już jakiś czas temu i w obecnej dekadzie z wymienionych trendów liczy się już chyba tylko redukowanie rozmiarów urządzeń. Wydajność pecetów oczywiście też rośnie, ale poza światem gamingu i niektórych zastosowań profesjonalnych nie jest to tak ważne kryterium wyboru, jak w minionych dekadach. Tym, co zauważalnie różni komputery współczesne od tych sprzed kilku lat, jest cena. Zarówno desktopy, jak i notebooki powoli, ale systematycznie drożeją i nic nie zapowiada zmiany tego trendu.

Trzeba jednak zaznaczyć, że wzrosty cen wynikają przede wszystkim z tego, iż klienci przestają wybierać produkty najtańsze. W przypadku sprzętu stacjonarnego coraz większym powodzeniem cieszą się konstrukcje zamknięte w małych obudowach. Rośnie również popyt na notebooki z grupy ultrabooków. W sprzedaży ciągle są duże i ciężkie modele za 1,5 tys. zł oraz niewiele tańsze desktopy w tradycyjnych obudowach formatu ATX, ale tego rodzaju urządzenia przestają być standardem. Sposobem na rozwój sprzętu stało się zmniejszanie jego wymiarów.

Podtrzymywanie wspomnianej tendencji implikuje dwa bardzo ważne zjawiska – spadek poboru mocy, a w konsekwencji zmniejszanie wydzielania ciepła. Ma to oczywiście znaczenie przede wszystkim w przypadku sprzętu przenośnego. Jednak od czasu, gdy Intel, jako lider na rynku procesorów, zaczął produkować układy najpierw w wersjach mobilnych, a na ich bazie – stacjonarnych, to, co w notebookach, instalowane jest też w desktopach. Przypomnijmy, że pomysł taki został zrealizowany równo 13 lat temu, wraz z rozpoczęciem wytwarzania układów iCore w maju 2006 r. Zgodnie z deklaracjami dostawca wprowadzał nowy proces technologiczny (Tick), a następnie nową architekturę (Tock). Odstępy między premierami zwykle wynosiły od roku do dwóch lat.

Jak wynikało z deklaracji producenta, w historii rozwoju iCore bardzo ważne miejsce zajmował układ Haswell. Ten procesor czwartej generacji wyprodukowany w procesie 22-nanometrowym dawał znaczący wzrost wydajności i jednocześnie zmniejszenie poboru mocy, a więc także redukcję emisji ciepła. Jednak z konstrukcyjnego punktu widzenia dla notebooków kluczowe były następne generacje. 14-nm układy Broadwell i następne Skylake pobierały tak mało prądu, że do odprowadzenia ciepła wystarczyły radiatory bez wentylatorów. Nie ma cienia wątpliwości, że był to bardzo ważny etap w rozwoju konstrukcji przenośnych, bo brak konieczności instalowania wiatraka oznaczał dalsze zredukowanie poboru mocy całego komputera i umożliwiał zmniejszenie grubości jednostki.

Trzeba zauważyć, że 14-nm technologia produkcji z 2014 r., użyta w przypadku jednostek 5. i 6. generacji, jest stosowana do dziś, a zmianom ulega jedynie architektura. Procesory 9. generacji, których premiera odbyła się na początku 2019 r., wyposażone są w więcej pamięci cache i charakteryzują się większą częstotliwością taktowania. W niektórych modelach zrezygnowano z układu graficznego, ale litografia pozostała ta sama.

 

Spowolnienie rozwoju

Każdy chyba wie o tym, że żabę można ugotować, jeśli po włożeniu jej do zimnej wody zaczniemy ją powoli podgrzewać. Proces ten można zobrazować mniej drastycznym przykładem – dzieci, które widzimy od święta, rosną, w przeciwieństwie do naszych, którym po prostu ciągle kupujemy coraz większe ubrania. Jednak u progu pełnoletności ubrania są zmieniane nie z konieczności, ale z wyboru. Analogicznie dzieje się w przypadku komputerów. W przeszłości zmieniały się one pod względem konfiguracji bardzo szybko. Pamięć operacyjna rosła od mega- do gigabajtów, średnia pojemność dysków zwiększała się o połowę w skali roku, stację dyskietek zastąpił napęd CD, następnie DVD, wydajność rosła w szybkim tempie za sprawą kolejnych generacji procesorów i kart graficznych. Do tego stale zwiększające się wymagania ze strony oprogramowania zapewniały popyt na sprzęt. Dekadę czy dwie temu komputer, który miał więcej niż trzy lata, był przestarzały.

Natomiast w obecnej dekadzie sytuacja uległa radykalnej zmianie, z każdym rokiem powoli wydłużał się bowiem czas życia komputera. Jeszcze kilkanaście lat temu pięcioletni komputer można było uznać za przestarzały. Dziś maszyna, która została wyprodukowana pięć lat temu, ma intelowski procesor 4. generacji, który różni się od najnowszych przede wszystkim tym, że pobiera dużo więcej energii. Do zastosowań biurowych oraz korzystania z większości „cywilnego” oprogramowania komputer z takim procesorem w zupełności wystarczy. Tym bardziej że pozostałe jego komponenty często nie różnią się od obecnie stosowanych. W przypadku dysku pod względem pojemności notujemy nawet krok wstecz – pięć lat temu standardem były napędy o pojemności 500 GB czy nawet 1 TB, teraz normą staje się dysk SSD o pojemności 250 GB, podczas gdy rok temu było to 120 GB.

Paradoksalnie, to właśnie dyski SSD w dużej mierze przyczyniły się do wydłużenia żywotności komputerów, tak stacjonarnych, jak przenośnych (z informacji uzyskanych od producentów wynika, że bardziej tych drugich). Okazało się bowiem, że dzięki zastosowaniu w notebooku dysku SSD w miejsce HDD wzrasta wydajność całego systemu, a jednocześnie – dzięki spadkowi poboru mocy – wydłuża się czas działania na baterii. W efekcie komputer z dyskiem półprzewodnikowym dostał nowe życie. Warto przy tym zwrócić uwagę, że choć od niemal dwóch lat taniejące SSD robią karierę w zawrotnym tempie, to minie jeszcze trochę czasu, zanim staną się całkiem typowym elementem konfiguracji peceta.

Jednak zasadniczą przyczyną, dla której ewolucja sprzętu pod względem wzrostu wydajności zwolniła, czy wręcz się zatrzymała, jest to, że hardware dogonił software. Tak jak w przypadku dziecka, które osiągnęło swój docelowy wzrost – nie ma potrzeby wymiany ubrań co sezon.

Napęd SSD w komputerach przenośnych za kilka lat będzie już standardem i praktycznie wyprze z rynku dyski HDD. Przewiduje się, że do 2022 r. blisko 90 proc. produkowanych notebooków konsumenckich i aż 96 proc. biznesowych będzie wyposażane w SSD – komentuje Michał Bocheński, Business Development Manager w Kingston Technology.

 

Co dalej?

Wiele wskazuje na to, że w przyszłości to nie oferta sprzętu komputerowego będzie decydującym czynnikiem, jeśli chodzi o wielkość sprzedaży lub udziały rynkowe producentów. Przez długie lata tak właśnie było – wygrywał ten, kto miał sprzęt w najlepszej cenie, następnym kryterium wyboru była wydajność urządzenia, w dalszej kolejności liczył się wygląd. Na obecnym etapie rozwoju praktycznie wszyscy dostawcy oferują sprzęt porównywalny pod względem ceny, wydajności a także wzornictwa. Co zatem będzie decydowało o wyborze takiej, a nie innej marki?

Przy braku możliwości uzyskania przewagi technologicznej czy biznesowej kluczowym argumentem stają się szeroko pojęte zasoby ludzkie. Kontakt z działem sprzedaży czy serwisu, szybkość i przyjazność infolinii, nie tylko kompetencja, ale też uprzejmość obsługi. To są niewymierne wartości, które będą decydować o wyborze produktu – mówi Tomasz Włastowski, niezależny ekspert.

Zwraca przy tym uwagę, że w przypadku segmentu B2B bardzo ważnym elementem w relacjach między dostawcą a resellerem jest przyjazność i funkcjonalność narzędzia powszechnie zwanego programem partnerskim. Chodzi o to, aby był on przejrzysty, prosty, a przede wszystkim dopasowany do lokalnego rynku. Obecnie wygląda to następująco – im większy producent, tym ogólniejszy i mniej elastyczny program, który obowiązuje w takim samym kształcie w wielu regionach i siłą rzeczy nie uwzględnia specyfiki konkretnego rynku. Dopasowanie tego narzędzia do lokalnego rynku stanowi duże wyzwanie dla producentów, ale też efekty powinny być warte inwestycji.

Oczywiście to nic nowego, bo przyjazna i kompetentna obsługa była zawsze w cenie, ale kiedyś obowiązywały inne priorytety. Bardzo dawno temu, za czasów wzrostu organicznego, warunkiem sukcesu w biznesie było posiadanie dobrego sprzętu. Później wygrywał ten, kto dawał lepszą cenę. Z czasem zaczęły się liczyć takie walory jak pomysł na sprzedaż, w konsekwencji czego działy marketingowe zaczęły być większe od działu serwisu.

Nie ma w tym nic złego ani dziwnego, bo takie praktyki są znane od bardzo dawna – na przykład swego czasu amerykański producent aut, Ford, zatrudnił cały sztab psychologów, który zastanawiał się, jak nazwać samochód, żeby był synonimem piękna, dzikości, siły, wolności i… Ameryki. Była to wielka i niespotykana wcześniej inwestycja, i – jak się okazało – opłacalna, bo do dziś wszyscy wiedzą, co to jest mustang. Teraz, gdy każdy ma już produkt najlepszy, najładniejszy i w porównywalnej cenie, wracamy do źródeł – producenci skupiają się na pierwiastku ludzkim.

Obecnie czas pracownika jest droższy niż kiedyś, dlatego ważne jest, by nie absorbowały go sprawy związane z obsługą techniczną komputera. Dlatego coraz większy nacisk kładzie się na zdalne zarządzanie sprzętem, zasobami, aspektami bezpieczeństwa czy wgrywaniem uaktualnień do oprogramowania systemowego bądź użytkowego – podkreśla Sebastian Antkiewicz, Client Solutions Group Manager w polskim przedstawicielstwie Dell EMC.

 

Intel kontra AMD

Od strony sprzętowej sprawa dalszej ewolucji wydaje się dość oczywista – bodźcem do rozwoju będzie zmiana procesu technologicznego produkcji wafli krzemu, z których będą powstawały procesory, zarówno CPU, jak i GPU, ale również pamięci.

Dzięki zastosowaniu układów wyprodukowanych w litografii 7 nm możliwe będzie wprowadzenie kolejnych ulepszeń konstrukcyjnych związanych z wymiarami czy wagą notebooka oraz wydłużenie pracy na bateriach – twierdzi Tomasz Włastowski.

Wiele wskazuje na to, że 7 nm to już najmniejsza z możliwych litografii, co oznacza, że będzie stanowić ostatni etap rozwoju pecetów w aktualnej formule. Wprawdzie nie jest to dobra wiadomość dla dostawców, ale z drugiej strony trudno przewidzieć, kiedy takie konstrukcje znajdą się masowo na rynku. Jak wspomniano, Intel wciąż oferuje procesory wykonane w technologii 14 nm i nie wiadomo, kiedy należy się spodziewać nowości. Niedawno producent ogłosił, że pierwsze jednostki 10-nm dla notebooków będą dostępne jeszcze w 2019 r., na początku przyszłego dla desktopów, a pierwsze konstrukcje wykonane w technologii 7 nm ukażą się w 2021 r.

Nie wiadomo, czy podane terminy wynikają z wcześniejszych ustaleń, czy może Intel przyśpiesza premiery w związku z tym, że AMD już w bieżącym roku ma wprowadzić na rynek pierwsze konstrukcje CPU wykonane w litografii 7 nm. Natomiast w przypadku kart graficznych od stycznia w sprzedaży znajdują się produkty Radeon VII. Warto zwrócić uwagę, że rzymska cyfra ma tu dwojakie znaczenie: jest związana z litografią, a ponadto można ten element nazwy interpretować jako drugą edycję serii Vega.

Niewątpliwie wzrost aktywności AMD przyczyni się do przyśpieszenia wprowadzania na rynek nowych rozwiązań. Być może będzie też oznaczać zmniejszenie cen produktów, takich jak procesory, karty graficzne, a nawet pamięci. Warto też wspomnieć o konstrukcji, która łączy w sobie pamięć ulotną i stałą – w ofercie Intela mamy jej przykład pod nazwą Optane. Moduł umieszczany w banku pamięci RAM pełni funkcję zarówno pamięci operacyjnej, jak i dysku twardego. Rozwiązanie takie może w znacznym stopniu wpłynąć na konstrukcje, przede wszystkim sprzętu przenośnego. Laptop wyposażony w Optane nie potrzebuje miejsca na dysk, może też zawierać zasilacz o mniejszej mocy. Takie notebooki znajdują się już m.in. w ofercie Della. Obecnie jest to bardzo drogi sprzęt – sam moduł Optane kosztuje tyle, co porządny notebook. Niestety, Intel nie chciał udzielić informacji, czy wspomniane rozwiązanie z racji wysokiej ceny pozostanie niszą, czy jest szansa na upowszechnienie go za sprawą zmniejszenia ceny.

Z pewnością jednak dzięki temu, że komputery mają przed sobą perspektywę co najmniej dwóch generacji procesorów, a także dzięki koncepcji odchodzenia od modułowej struktury komputera, w której pamięć operacyjna i stała są zewnętrznymi komponentami – jeszcze wiele może się wydarzyć. W każdym przypadku element ludzki związany z obsługą użytkowników będzie coraz ważniejszy, a to dobra wiadomość dla resellerów.