Uśmiechnięty futurolog mówił: „Bawią mnie te wszystkie
sformułowania o inteligencji urządzeń. Bo co to znaczy, że pralka jest
inteligentna? Będę mógł z nią porozmawiać o poezji?”. W ten
sposób niemal dwadzieścia lat temu znakomity pisarz zwrócił uwagę na kwestię,
która dziś jeszcze bardziej zyskuje na istotności. Bo w porównaniu
z rzeczywistością lat 90. mamy teraz znacznie bardziej zaawansowane
„poszukiwania” sztucznej inteligencji. Mocno rozwinięte technologie komputerowe
oraz badania w dziedzinach pokrewnych zdecydowanie przybliżyły nas do
momentu stworzenia interaktywnej, myślącej maszyny. Co nie zmienia faktu, że
ciągle ma sens pytanie, czy to na pewno jest inteligencja o takim
potencjale, którym dysponuje człowiek? I czy fakt, że jest ona sztuczna,
nie oznacza przypadkiem, że musi być czymś innym niż ludzka inteligencja?
Według ekspertów jednym z filarów tych rozważań jest problem definicji.
Dopiero w zależności od tego, jak określimy Artificial Intelligence,
w jaki sposób nazwiemy nasze wobec niej wymagania, okazuje się, czy ona
już istnieje czy jeszcze nie.

W ostatnich tygodniach po
raz kolejny rozgorzała dyskusja o sztucznej inteligencji. Jej inspiratorem
był Microsoft, a bohaterem chatbot Tay. Choć może należałoby powiedzieć,
że bohaterów było więcej, bo obok Tay pewną rolę odegrali złośliwi,
a czasem niekulturalni internauci. Amerykański producent oprogramowania
i sprzętu umieścił w sieci profil będący pewną formą AI. Chatbot
funkcjonował na internetowych forach i rozmawiał z innymi
użytkownikami. Naszego świata uczył się m.in. na Twitterze. Po 24 godzinach Tay
stała się (bo to w gruncie rzeczy „chatbotka”) agresywna, rasistowska
i radykalna. Odbierała życiowe lekcje od internautów, z których wielu
na pewno testowało jej reakcje. Ale też wypada zakładać, że część poglądów Tay
przejęła od osób faktycznie w ten sposób myślących. W rezultacie
zaczęła publikować wpisy nienawistne wobec 
feministek, Żydów i Meksykanów, natomiast chwaliła… Hitlera. Nic
dziwnego, że Microsoft odłączył chatbot i poinformował, że miał to być
eksperyment nie tylko technologiczny, ale też społeczny i kulturowy.
Niestety, Tay została przez krnąbrnych rozmówców sprowadzona na złą drogę.

Czy fakt, że nie poradziła sobie w Internecie, tzn.
zbyt łatwo dała sobą sterować i manipulować, automatycznie oznacza, że nie
była naprawdę inteligentna? Bo przecież Stanisław Lem, gdyby żył, mógłby
z nią porozmawiać o wierszach Herberta albo Heaneya. Nie tak jak
z pralką. Ale chyba nie byłby z tych rozmów zadowolony, bo szybko
zauważyłby, że rozmówczyni nie ma własnych poglądów ani osobistej wrażliwości,
tylko kompiluje to, co dostaje z zewnątrz. No właśnie, może błąd tkwi
w założeniu. Może sztuczna inteligencja musi pozostać sztuczną? Będzie
więc miała tylko takie cechy, jakie sami stworzymy. W końcu specjaliści od
AI zaznaczają, że technologie komputerowe, którymi dysponujemy, potrafią
policzyć tylko to, co jest policzalne. A nasz mózg – wzór dla
sztucznej inteligencji – umie wygenerować wyniki, których nie dałoby się
obliczyć.

To może oznaczać, że mamy dwie drogi. Pierwsza wiąże się
z budową systemów, które będą zaawansowane i pomocne, ale nie będą
rywalizować z człowiekiem przez swoje ograniczenie „policzalności”. Drugą
drogą jest szukanie technologii i materiałów, dzięki którym uda się
stworzyć kopię ludzkiego mózgu, a ściślej to samo, czym jest mózg. Ale czy
istnieje algorytm, za pomocą którego dałoby się uznać tę wizję za
prawdopodobną?

 


Autor jest
dziennikarzem Programu 3 Polskiego Radia (m.in. prowadzi audycję „Cyber Trójka”
oraz „Puls Trójki”).