CRN Jak wygląda historia osoby, która z absolwenta Uniwersytetu Jagiellońskiego staje się wykładowcą w Oksfordzie i Singapurze?

Artur Ekert W Oksfordzie znalazłem się jeszcze jako doktorant, ale byłem trochę zagubiony. Nie znalazłem nikogo, kto interesowałby się tym, co ja, czyli możliwością zwiększenia ilości przesyłanych informacji dzięki modyfikacji stanów kwantowych światła. Osoba, która najbliżej była związana z tym tematem, pracowała w Imperial College w Londynie, więc musiałem regularnie do niej jeździć, ale finalnie się poddałem. Doszedłem do wniosku, że nic z tego nie będzie.

Czyli początek nie należał do najłatwiejszych…

Rzeczywiście, trochę w akcie desperacji zdecydowałem się na współpracę z pewnym, na pozór, dziwakiem, który okazał się fantastycznym człowiekiem – nazywa się David Deutsch. Był na peryferiach nauki, pracował w domu, nocami, nie miał de facto posady na uniwersytecie, bo nigdy nie chciał się do niczego zobowiązywać. Dlaczego zgodził się, żebym był jego doktorantem – pierwszym i chyba ostatnim? Tego do dziś sam nie wiem. Ale bardzo szybko przypadliśmy sobie do gustu. David mnie fascynował, interesował się wieloma rzeczami – trochę filozofią, ale przede wszystkim komputerami oraz związkiem między mocą obliczeniową a fizyką fundamentalną. Nie zajmował się nowymi technologiami, które umożliwiają szybsze obliczenia, ale skupiał się na tym, jak prawa fizyki dyktują, co w ogóle można obliczać i w jaki sposób się to oblicza.

Ale po co, skoro ten etap rozwoju komputerów był już dawno zakończony?

Zgadza się, jednak David cały czas patrzył na komputer jako urządzenie fizyczne, w którym możliwe jest zaimplementowanie pewnego modelu matematycznego, dającego prawa logiczne, na czym z kolei bazuje współczesna klasyczna informatyka. Zwracał uwagę na dynamikę pracy takiego urządzenia i porównywał ją z dynamiką układu fizycznego, np. ile czasu i energii trzeba na przeprowadzenie procesu obliczeniowego. Starał się wyciągać nietypowe wnioski, co doprowadziło do tego, że stworzył projekt komputera kwantowego. To mnie zafascynowało i rozpoczęliśmy współpracę. To był ciekawy czas. Pamiętam, jak jeździłem do Davida do domu późnym popołudniem, gdy przygotowywał sobie właśnie śniadanie, bo wstawał o tej porze… Wracałem z kolei około czwartej nad ranem. Dzięki temu zainteresowałem  się dziedziną związaną z kwantowym przesyłaniem informacji i przetwarzaniem danych.

Jakimi projektami zajmuje się Pan obecnie?

Wyspecjalizowałem się w tematach związanych z wykorzystaniem zjawisk kwantowych w kryptologii, w przypadku których fundamentalną rolę odgrywają kwestie losowości i przypadkowości. Zobrazuję to zagadnienie na konkretnym przykładzie. Wyobraźmy sobie, że kupiliśmy od kogoś, komu zupełnie nie ufamy, binarny generator liczb losowych, zapewniający sekwencję zer i jedynek. Taki generator powinien mieć kilka właściwości. Oczekujemy rozkładu statystycznego, co do którego jest gwarancja, że jest on rzeczywiście losowy – tak jak rzucanie monetą. Wartość każdego wygenerowanego bitu powinna być niezależna od wcześniejszego i powinno być zachowane prawdopodobieństwo wystąpienia zera lub jedynki wynoszące dokładnie 50 proc. Bardzo ważna jest tu kwestia nieprzewidywalności. Żadna osoba patrząca na wyniki pracy takiego generatora nie powinna być w stanie przewidzieć, jaki będzie następny bit z prawdopodobieństwem większym niż 50 proc. Pojawia się pytanie: co, jeśli ktoś, od kogo kupiliśmy ten generator, wprowadził do niego olbrzymią bazę teoretycznie przypadkowo wygenerowanych zer i jedynek? Taki generator przejdzie wszystkie testy pod kątem tego, czy rzeczywiście są to liczby losowe, ale osoba projektująca to urządzenie zawsze będzie wiedziała, jaki jest następny bit.

 

Profesjonalnie wykorzystywanym generatorom są jednak wystawiane certyfikaty zaświadczające o poprawnej pracy…

Tak, ale to jest tylko półśrodek. Teoretycznie można założyć, że certyfikat został „kupiony”, że urząd certyfikujący coś przeoczył, że zostało sprzedane inne urządzenie niż to, które certyfikowano itd. Użytkownik powinien mieć możliwość samodzielnej weryfikacji, w trakcie której otrzyma gwarancję, że generator zapewnia rzeczywiście losowe wyniki, nieprzewidywalne dla nikogo, nawet dla tych, którzy zaprojektowali urządzenie. To jest możliwe do zrobienia, ale do tego potrzeba kwantowego generatora. Poza tym istnieje jeszcze drugi niekorzystny z punktu widzenia użytkownika scenariusz: generator działa poprawnie, ale w trakcie jego implementacji w systemie, w którym funkcjonuje, popełniono jakieś błędy. Dlatego potrzebna jest możliwość testowania bez zaglądania do urządzenia, ale na podstawie obserwacji statystyki wygenerowanych liczb. To jest zadanie typowo kwantowe, nie do wykonania przy pomocy żadnego klasycznego urządzenia.

Na jakim etapie znajduje się projekt stworzenia takiego generatora?

To zależy, jakie kryteria oceny przyjąć. W przypadku technologii kwantowych stopień skomplikowania urządzeń jest bardzo zróżnicowany, w zależności od tego, co chcemy zbudować. Jeśli ma to być prosty system służący do przesyłania klucza kryptograficznego, to takie już istnieją i są produkowane. Ale jeśli chcemy zbudować komputer kwantowy – do tego jeszcze daleka droga i na pewno dostępne dziś technologie nie umożliwiają zbudowania takowego. Generator, który opisałem, teoretycznie jest dziś możliwy do stworzenia, ale do pracy wymaga stabilnego źródła tzw. splątanych fotonów. Są to fotony generowane w specjalny sposób w parach, ale do pracy z nimi potrzebne są również bardzo dobrej jakości fotodetektory. Pracujemy obecnie nad prototypami, ale szacuję, że pojawienie się komercyjnie dostępnego urządzenia to kwestia najbliższych pięciu lat.

W tego typu rozwiązaniach, gdy już powstaną, większą rolę będzie odgrywał sprzęt czy oprogramowanie?

Oczywiście docelowo będziemy mówić o oprogramowaniu, ale na razie wciąż jesteśmy na etapie, gdy większą rolę odgrywa sprzęt. W pewnym sensie wracamy do podstaw informatyki. Pierwsze komputery to były duże maszyny – wyglądały jak laboratorium, w którym znajdowała się cała ściana sprzętu błyskającego diodami, mnóstwo przełączników i kabli. Często na wykładach pokazuję fotografie tych komputerów i współczesne zdjęcia z laboratorium badań nad przetwarzaniem kwantowym, które… wyglądają bardzo podobnie. A wracamy do podstaw, bo jednak u podstaw przetwarzania informacji leży fizyka. Musimy cofnąć się i przerobić to wszystko, ale stosując podejście kwantowe. I – żeby było jasne – nie ma niczego złego w klasycznych komputerach, one nadal będą rozwijane. Ale ilekroć odkrywamy jakiś nowy proces fizyczny, to może on posłużyć jako baza dla bramki logicznej, umożliwiającej wykonywanie nowego rodzaju obliczeń komputerowych.

Czy to oznacza, że zamiast informatyków znów będziemy mieli inżynierów i matematyków?

W przypadku komputerów kwantowych przez pewien czas na pewno tak. Można mieć matematyczną teorię przedstawiającą złożone procesy obliczeniowe, ale to fizyka dyktuje, jakich zasobów używamy do ich przeprowadzenia. I tylko dzięki nowym odkryciom fizycznym wszystko może zacząć wyglądać inaczej. Obserwując obecnie dostępne w komputerach modele matematyczne, można wywnioskować, że coś jest niemożliwe, tymczasem dzięki procesom kwantowym to nagle staje się możliwe. Trzeba jedynie odwrócić sposób myślenia. Dziś do wielu użytkowników komputerów nie dociera, że stosowana w nich matematyka to tak naprawdę wyabstrahowana fizyka, zastosowana do procesów obliczeniowych. Tylko dzięki temu dzisiejsi informatycy nie muszą rozumieć, jakie fizyczne zjawiska zachodzą w ich komputerach.

 

Czyli historia informatyki właśnie zatacza koło…

Niestety, w przypadku rozwiązań kwantowych musimy zrozumieć, jakie procesy fizyczne w nich zachodzą, zaprojektować od nowa język maszynowy, a dopiero później zająć się tworzeniem kolejnych warstw ułatwiających obsługę. Prawdopodobnie za jakiś czas będziemy w stanie wyabstrahować matematycznie to, co jest ważne, i następne pokolenie osób, które będzie programować komputery kwantowe, nie będzie musiało koniecznie uczyć się podstaw ich technicznego funkcjonowania, bo nowe języki programowania będą same z siebie wykorzystywać strukturę kwantową. Będą tam instrukcje, które obecnie nie mają sensu dla komputerów klasycznych, np. weź superpozycję 0 i 1 lub splącz wybrane bity.

Artur Ekert

Wspomniał Pan, że dopiero za kilka lat możliwe będzie stworzenie pierwszych prostych urządzeń kwantowych, zaś pojawienie się pełnoprawnego komputera kwantowego to pieśń przyszłości. Jak ma się do tego zaprezentowanie przez IBM w ubiegłym roku pierwszego komputera kwantowego?

W ostatnich latach dużo zaczęło się mówić na wyrost na temat komputerów kwantowych. Media, a dzięki nim społeczeństwo, zaczęły się tym interesować i wzrosły oczekiwania, ale nie wiedza, która oczywiście nie jest prosta. Dlatego pojawia się wiele przekłamań i niedopowiedzeń. Wspomniany zaprezentowany komputer rzeczywiście ma architekturę kwantową, ale dysponuje tylko kilkudziesięcioma kubitami, czyli kwantowymi odpowiednikami znanych nam bitów. Co więcej, większość z nich jest bardzo zaszumiona, więc w efekcie można przeprowadzać operacje obliczeniowe jedynie na ograniczonej liczbie kubitów, a to bardzo mało, bo pełnoprawny komputer kwantowy będzie potrzebował ich kilkaset.

Czyli mówienie o przełomie jest w tym przypadku na wyrost?

W tej dziedzinie chyba nie będzie wyraźnego przełomu, to raczej kolejny etap ewolucji, chociaż oczywiście bardzo ważny, bo ujawniający problemy, z jakimi będziemy mieli do czynienia, oraz budzący świadomość społeczną. W informatykę kwantową coraz więcej pieniędzy inwestują prywatne firmy, szczególnie Google, IBM czy też chiński Baidu – to bardzo dobrze, bo badania prowadzone wyłącznie na uniwersytetach w pewnym momencie będą niewystarczające. Finalnie ma to być komercyjne przedsięwzięcie, ale o stopniu skomplikowania na miarę programu Apollo. Tu będzie potrzebne multidyscyplinarne podejście i tylko firma, która poważnie zajmie się tym projektem, osiągnie sukces.

Kiedy to się wydarzy?

Nie wiem – może za 5, 10 albo nawet 50 lat. Wielu producentów urządzeń, w których wykorzystuje się efekty kwantowe, czasem w sposób absolutnie nieuczciwy mówi, że to już jest komputer kwantowy. Tymczasem nawet w telefonach komórkowych są dziś efekty kwantowe, ale to nie czyni z nich komputera kwantowego.

Czy moc obliczeniowa tych potencjalnych komputerów kwantowych będzie tak gigantyczna, że ich zastosowanie będzie miało sens tylko w potężnych centrach obliczeniowych i komputerach typu mainframe lub HPC? Czy też można założyć, że – oczywiście nie wiadomo za ile lat – technologia kwantowa pojawi się w komputerach osobistych?

Jedno i drugie. Użytkownicy będą łączyć się przez sieć z kwantowymi komputerami w centrach danych i w ten sposób korzystać z ich zasobów. Gabarytowo ten sprzęt na początku będzie duży, ale z czasem wyobrażam sobie hybrydowe konstrukcje umożliwiające zainstalowanie w komputerze osobistym kwantowego układu przyspieszającego pewne procesy obliczeniowe. Ale na to trzeba będzie naprawdę długo poczekać.

Tymczasem dziś mówi się głównie o tym, że dzięki komputerom kwantowym możliwe stanie się szybsze łamanie haseł wygenerowanych za pomocą niepokonanych dziś algorytmów…

Ich moc obliczeniowa rzeczywiście będzie bardzo duża, ale wskazywanie łamania haseł jako główny cel komputerów kwantowych to nieporozumienie. Już obecnie w NSA prowadzone są prace nad modyfikacją algorytmów szyfrowania, aby uodpornić je na podejmowane w ten sposób próby łamania. To jest ciekawy projekt – wciąż do końca nie wiadomo, jak to zrobić, ale uważam, że się uda. Natomiast z pewnością komputery kwantowe sprawdzą się pod wieloma innymi względami i zyskają wyraźną przewagę nad klasycznymi.

 

Do czego zatem będą służyć komputery kwantowe?

Wśród głównych obszarów ich zastosowań wskazuje się sztuczną inteligencję – wyzwaniem jest tylko konwersja danych zbieranych w klasyczny sposób do modelu kwantowego i  szybkie dostarczenie ich komputerowi. Interesują się nimi inżynierowie materiałoznawstwa, bo dzięki dużej mocy obliczeniowej mogą prowadzić symulacje z niespotykaną do tej pory dokładnością. Korzyści odniosą także firmy farmaceutyczne – zamiast próbować w ciemno różnych związków chemicznych i obserwować ich właściwości, dzięki inżynierii kwantowej mogą konstruować pewne molekuły na żądanie. Prawdopodobnie komputery kwantowe będą dobre w czymś, co jest obecnie poza naszymi możliwościami poznawczymi, więc nie jesteśmy w stanie tego nawet przewidzieć. Gdyby 200 lat temu zapytać Karola Babbage’a, angielskiego projektanta mechanicznych maszyn liczących, nazywanego też ojcem informatyki, do czego taka maszyna będzie służyć, odpowiedziałby, że chociażby do tworzenia bezbłędnych tablic matematycznych. Nie przeszłoby mu przez myśl, że tworzy podwaliny czegoś, co będzie służyć do…

… grania!

Albo edycji tekstów, tworzenia grafiki, komunikacji przez globalną sieć itd. To było całkowicie poza zasięgiem wyobraźni tamtych pokoleń i nie ma co się temu dziwić. My dziś jesteśmy na tym samym etapie. Tworzymy coś, o czym wiemy, że zapewni olbrzymią moc obliczeniową. Ale to dopiero następne pokolenie wymyśli, w jaki sposób będzie można ją wykorzystywać. Mam nadzieję, że w dobrym celu.

Rozmawiał Krzysztof Jakubik