Pierce Brosnan wyznał w jednym z wywiadów: „Bond mnie uratował”. Możliwość wcielenia się w rolę agenta 007 przyczyniła się do tego, że przygasająca kariera aktora rozbłysła bardzo mocno na wiele kolejnych lat, a i do dziś nie może on narzekać na brak wzięcia. Jaki związek ma kluczowy etap zawodowy aktora ze światem komputerów? Według jednej z teorii spiskowych pecet powiedział: „gaming mnie uratował”. Analogię widać tu jak na dłoni. Urządzenie, które z powodzeniem funkcjonowało przez kilka dekad, zaczęło być zastępowane przez coraz mniejszy sprzęt.

Argument w postaci większej wydajności peceta tracił znaczenie wraz z rozwojem internetu i oprogramowania, które funkcjonując w środowisku sieciowym (czyli ograniczonego transferu), było pisane w taki sposób, żeby jak najmniej obciążać zasoby sprzętowe. Tak powoli kończył się wyścig, w którym sprzęt ciągle gonił aplikacje, zapewniając sobie w ten sposób rację bytu. Jednak, kiedy wydawało się, że wyścig nie ma już sensu, rynek gamingu zaczął dynamicznie rosnąć w siłę, a bardzo wydajny desktop okazał się w zasadzie jedynym narzędziem, które może sprostać wymaganiom stawianym przez najnowsze tytuły.

Oczywiście jest to bardzo duże uproszczenie, bo gaming rozwija się systematycznie przez dekady i zawsze z następującą zasadą: nieustannie rosnące wymagania, za którymi próbują nadążyć możliwości sprzętu. Ale trzeba pamiętać, że dość wcześnie to konsole zaczęły przejmować rynek gier, zyskując na popularności szczególnie w czasach początków nośników typu Blu-ray. Napędy komputerowe czytające takie płyty należały do rzadkości ze względu na wysokie ceny. Były natomiast integralnym elementem konsol, które miały też inne zalety – były gotowe do pracy natychmiast po włączeniu i mogły współpracować z dowolnym ekranem. Jednak konsole zostały zepchnięte na margines gamingu, a entuzjaści elektronicznej rozrywki wybrali peceta. Dostawcy komponentów, takich jak procesory, karty graficzne, pamięci czy płyty główne, mogli odetchnąć z ulgą – znowu wzrósł popyt na ich sztandarowe, najbardziej wydajne, a jednocześnie najdroższe produkty.

Również w biurach nadal standardem pozostaje pecet, zwykle jako komputer przenośny, a gdy jest uzasadniona potrzeba – stacjonarny (kiedyś było odwrotnie). I choć od początku dekady skala integracji komponentów umożliwia schowanie praktycznie pełnowartościowego desktopa w pudełku o gabarytach dwóch kostek masła, to takie konstrukcje zdobywają rynek od stosunkowo niedawna. Prawdopodobnie dlatego, że użytkownicy bardzo powoli zmieniają przyzwyczajenia. Nie jest im łatwo przestawić się mentalnie i zaakceptować, że urządzenie, które przez dziesiątki lat wymagało wielkiego pudła, teraz może być schowane za monitorem, czy wręcz być jego integralną częścią.

Warto jeszcze zwrócić uwagę, że sama konfiguracja sprzętu nie ewoluuje już w sposób liniowy, tak jak było w poprzednich dekadach, gdy pamięci taniały, a ich standardowa pojemność rosła szybko od 1 do 4, a nawet 16 GB. Późniejszy wzrost cen skutkował tym, że przez długie lata 4 GB okazały się wystarczające do większości zastosowań. Również pojemność dysków rosła systematycznie, a użytkownicy wybierali modele 500 GB, 1 TB, potem 2 TB, a nawet 4 TB i byli przekonani o zasadności wyboru. Tymczasem, gdy zyskały na popularności konstrukcje SSD, okazało się, że dysk o pojemności 120 czy 240 GB jest wystarczający do większości zastosowań. Jak widać, potrzeby i ceny się zmieniają, ale stary, dobry pecet trwa w najlepsze.