Innym, może jeszcze ciekawszym zagadnieniem, jakiemu Lem poświęca miejsce w rozdziale "Interlektronika", jest kwestia świadomości, jej źródła, usytuowania i znaczenia. Ciekawostką jest fakt, że dla ustalenia istnienia świadomości Lem parafrazuje test Turinga tak, że jego podstawą jest ocena poczucia humoru. Podobną wagę do tej cechy zdaje się przykładać Geoffrey Hinton, brytyjsko-kanadyjski psycholog kognitywny i informatyk, którego praca była kluczowa dla takich systemów jak na przykład Google Translate. Hinton w jednym z wywiadów zawyrokował, że "Komputery zrozumieją sarkazm, zanim zrobią to Amerykanie". Znając stosunek Lema do amerykańskich pisarzy fantastyki naukowej, można by zgadywać, że nie sprzeciwiłby się tej uszczypliwej uwadze. Dziś wiemy już, że sarkazm może być generowany probabilistycznie, szczególnie, gdy materiał treningowy systemu jest tak obszerny jak ten wykorzystany przez Open AI dla stworzenia systemu GTP-3 —autoregresyjnego modelu języka, który wykorzystuje uczenie głębokie (Deep learning) do tworzenia tekstu podobnego do ludzkiego. Omawiając test Turinga Lem znów nadzwyczaj trafnie przewiduje, że piętą achillesową botów będzie przestawianie się z decyzji probabilistycznych na sprawdzanie bazy danych. Tę słabość wykorzystał informatyk Scott Aaronson z łatwością obnażając Eugena Goostmana, bota, któremu udało się wcześniej przekonać wystarczającą część jury konkursu turingowskiego do swej ludzkiej natury, by go wygrać. (My Conversation with "Eugene Goostman," the Chatbot that's All Over the News for Allegedly Passing the Turing Test) Za fantazją mówiącą o stworzeniu robota zdolnego do przejścia testu Turinga podąża kolejna — mówiąca o stworzeniu maszyny myślącej i czującej. Obrazem zapewne najsilniej odciśniętym w naszej kulturze jest scena testu przeprowadzanego przez bohatera filmu "Blade Runner", opartego na powieści "Do Androids Dream of Electric Sheep" Philipa K. Dicka (tego samego, który twierdził, że Stanisław Lem to nie osoba, a wielki komunistyczny cyberprojekt). Rick Deckard (Harrison Ford) zadaje pytania, których celem jest określenie poziomu empatii prezentowanej przez badaną osobę bądź maszynę. Tu po raz kolejny skłonna byłabym polemizować i to znów nie w ocenie maszyn, które niezaprzeczalnie będą coraz lepsze w przekonywaniu nas do swej biologicznej natury, ale w ocenie człowieka i jego zdolności oceny tego, gdzie umysł czy świadomość się zaczyna lub kończy.
Problem nie ma jedynie znaczenia abstrakcyjno-filozoficznego, ponieważ domniemanie, jakoby pewna maszyna, która ma iść na złom, remont się nie opłaca, posiadała świadomość, zmienia naszą decyzję zniszczenia przedmiotu materialnego, jak gramofon, w akt unicestwienia osobowości, świadomej zagłady.
Tu znów Lem wykazał się zdolnością proroka, wyobrażając sobie, że pojawienie się maszyn zdolnych wygrania gry imitacji, do których możemy zaliczyć wiele współcześnie istniejących chat botów, ożywi debatę o naturze i pochodzeniu świadomości. Tocząca się obecnie dyskusja zbudowana jest wokół myśli australijskiego filozofa Davida Chalmersa i jego tekstu opisującego "Trudny problem świadomości" (Chalmers, David, "Facing up to the problem of consciousness" (PDF). Journal of Consciousness Studies. 2 (3): 200–219) stanowiącego, że nawet znalezienie odpowiedzi na wszystkie niewiadome w dziedzinie neurologii nie da odpowiedzi na pytanie o naturę świadomości. Sam Chalmers w rozmowie z Johnem Thornhill w "Financial Times": przyznaje: "Jestem otwarty na pomysł, że robak z 302 neuronami jest świadomy, więc jestem otwarty na pomysł, że GPT-3 z 175 miliardami parametrów jest również świadomy".
Innym fascynującym aspektem świadomości, jest jej usytuowanie, którego nie jesteśmy w stanie określić nawet w przypadku naszej świadomości.
Zresztą podobny problem ukazuje, choć nie tak jaskrawo, mózg ludzki, ponieważ naczynia krwionośne, białkowe molekuły i tkanki łączne znajdują się wewnątrz mózgu, ale nie wewnątrz świadomości[…]
Smartfon nas odciąża
Dziś ten problem możemy rozciągnąć na doświadczenie znane wszystkim użytkownikom smartfonów a dotąd badane jedynie przez psychiatrów zajmujących się zanikami pamięci i demencją, których pacjenci opisywali przedmioty codziennego użytku a także zostawiali sobie notatki na najróżniejsze tematy antycypując problem z pamięcią biologiczną. Takie notatki, będąc fizycznymi przedmiotami znajdującymi się na zewnątrz badanych, stanowiły jednak element ich świadomości. Podobnie rzecz się ma z telefonem, który za sprawą map, książek telefonicznych i innych udogodnień zwalnia dużą część obciążenia biologicznej pamięci, nie wpływając w znaczący sposób na nasze poczucie integralności.
W swoim dziele Lem przywołuje niewiele nazwisk, wspomina Winera i Beera, ale z tekstu możemy wnioskować, że doskonale znane mu były hipotezy Hebba dotyczące procesu uczenia się oparte na mechanizmie plastyczności neuronalnej czy rozważania McCulloch i Pittsa o sztucznych sieciach neuronowych. Teksty, na których opierał się Lem, do dziś są w pewnym sensie aktualne, bo naszkicowały mapę rozwoju, która mimo iż wtedy pozbawiona detali, jakimi wypełni ją czas i kolejne odkrycia, znała jej podstawowe kierunki. Aktualność Interelektroniki sugeruje, że wciąż znajdujemy się w ramach paradygmatu epoki cyberoptymizmu schyłku zimnej wojny, mam jednak wrażenie, że ta epoka powoli się zamyka. Dziś homunculus (sztuczny człowiek – przyp. red.), w którego powstanie Lem wątpił, jest niebezpieczeństwem jak najbardziej realnym, nie przyjął jedynie formy sugerowanej w "Summie", za to pojawił się w formie ciasteczek, kapitalizmu inwigilacji czy limbic hijacks (niekontrolowana reakcja emocjonalna lub afekt patologiczny – przyp. red.).
***
W ramach obchodów roku Stanisława Lema, na zaproszenie Julietty Arandy, e-flux i Instytutu Adama Mickiewicza, wspólnie z Mohammadem Salemy, miałam przyjemność prowadzić seminarium zatytułowane Constructing Time, Reinventing Nature, w ramach którego udaliśmy się na futurologiczne spekulacje z grupą myślicieli, artystów i pedagogów z całego świata. W duchu Lema seminarium nie przypominało w jakimkolwiek stopniu jednokierunkowego transferu wiedzy, a raczej stało się ramą dla ożywionej dyskusji, której tłem była "Summa Technologiae", a w szczególności rozdział "Interlektronika". Projekt znalazł kilka eksperymentalnych form artykulacji, na które złożyły się utwory literackie, instalacje Wideo, instalacje dźwiękowe i formy performatywne.
Refleksjom na temat sztucznej inteligencji, jej biologicznej przyszłości, inteligencji kolektywnej, współczesnym formom symbiozy człowieka i maszyny, a także problemowi świadomości poświęcona jest książka "Relative Intimacies", której miałam przyjemność być redaktorem. Publikacja jest trzecim tomem esejów poświęconych przestrzeni intersubiektywnej. Książka dostępna jest w dystrybucji StenbergPress.
https://www.sternberg-press.com/product/relative-intimacies/
https://mitpress.mit.edu/books/relative-intimacies-volume-3
https://www.loucantor.com
https://summatechnologiae.e-flux.com
Autor: Lou Cantor (lou_cantor)
Lou Cantor to założony w 2011 roku kolektyw artystyczny (obecnie Józefina Chętko i Kolja Glaeser), którego głównym obszarem zainteresowań jest intersubiektywność i komunikacja interpersonalna. Prace Lou Cantor były prezentowane między innymi w ramach: "Ars Electronica", Linz; "The Policeman's Beard is Half Constructed", Bonner Kunstverein, Bonn; "Spiritual Reality", Decad, Berlin; "Fellow Travelers", apexart, Nowy Jork; "Cyborg Dreams", Pitt St, Nowy Jork; "The Labour of Watching", leto, Warszawa i OSLO10, Bazylea; "Language and Misunderstanding", CUNY, NY; "Epistemic Excess", Artists Space, New York; 7th Berlin Biennale, Berlin