7 Rak technologiczny w realnie zautomatyzowanym świecie
Naszą cywilizację toczy rak. Jest to rak technologiczny, o którym pisał Aurélien Barrau. Jak każdy nowotwór, rozwija się poprzez mutacje, przerzuty i rozsiew. Jego złośliwe komórki mają własne mechanizmy selekcyjne i opierają się procesom homeostazy i senescencji (starzeniu komórkowemu). W etiologii choroby wskazuje się na upowszechnienie generatywnych systemów sztucznej inteligencji. Czy istnieje lekarstwo?
Chcę tu pisać o projektowaniu jako filozof, który nie potrafi projektować. Komu taki tekst jest potrzebny i co go uprawomocnia? Być może to, że wytwarzanie znaczenia jest zajęciem wspólnym dla projektowania i filozofii. Jeśli projektowanie, jak twierdzi Victor Papanek, „musi być wypełnione znaczeniem”, to filozofia, przy użyciu rozumu, znaczenia poszukuje. „Rozumu – pisze Hannah Arendt – nie inspiruje poszukiwanie prawdy, lecz poszukiwanie znaczenia. A prawda i znaczenie nie są tym samym” 1. 2
Ponieważ generatywne systemy sztucznej inteligencji (AI) transformują sposoby wytwarzania i poszukiwania znaczeń poprzez zautomatyzowanie tych dwóch czynności, połączenie projektowania z filozofią ma kluczowe znaczenie dla przyszłości nauk o projektowaniu, a jednocześnie może wpuścić powiew świeżego powietrza do dusznego pokoju filozofii akademickiej.
Niezbywalna potrzeba krytyki
Następstwa tej transformacji są ogromne. Niektórzy kompetentni komentatorzy sugerują nawet, że stanowi ona zerwanie w ewolucji homo sapiens i jest w niej elementem o tej samej wadze, co przyjęcie przez człowieka wyprostowanej pozycji stojącej. Niemniej jednak ta transformacja antropologiczna dokonuje się w totalnym szale skomputeryzowanego kapitalizmu, który wszystkie aspekty życia i tworzących go interakcji podporządkowuje zautomatyzowanym obliczeniom. 3
Dlatego połączenie projektowania i filozofii warto rozważyć w duchu krytyki. Z jednej strony nawiązując do nurtu dizajnu krytycznego, który sam zrodził się ze sprzeciwu wobec „bezkrytycznego pędzenia wraz z postępem technologicznym” i „dizajnu wzmacniającego status quo”. A z drugiej – uprawiając krytykę „technologii” jako ideologii w jej „funkcji ekonomiczno-politycznej” 4. 5
Taka krytyka, wbrew zwyczajowym skojarzeniom, nie musi być z konieczności negatywna. Jak piszą projektanci pracujący w nurcie dizajnu krytycznego, krytyka „może także być grzeczną odmową, odwrotem od tego, co jest, tęsknotą, myśleniem życzeniowym, pragnieniem, a nawet marzeniem”. Krytykowanie może, i powinno, być również drogą prowadzącą do nowych propozycji poprzez dokonanie przełomu w systemie idei. Zwłaszcza w kontekście kryzysu socjoekologicznego i fluktuującego świata, który wraz z nim nadchodzi. 6
„Technosolucjonizm”, czyli przekonanie, że najlepsze rozwiązanie złożonych problemów zawsze przynosi „technologia” – maszyna, aplikacja lub algorytm – nie znajduje w tym świecie żadnego zastosowania. W przeciwieństwie do krytyki, która służy do tworzenia nowych idei i umożliwia roztropną ocenę „postępów” nauki. Nauka bez krytyki to scjentyzm do spółki z kapitalizmem. Nauka z krytyką może natomiast wzbudzać podziw.
Naśladownictwo a inteligencja
Rozwój AI przebiega w tej chwili zupełnie na ślepo. Sprzyja pochodowi „ślepej inteligencji” i powoduje blaknięcie myśli krytycznej. Dlatego warto trzeźwiej spojrzeć na nadzieje i obawy, jakie AI wywołuje, a także lepiej zrozumieć, gdzie znajduje się największe ryzyko związane z jej rozwojem. 7
Byłoby to dużo łatwiejsze bez wyrażenia „sztuczna inteligencja”, które rodzi coraz bardziej przygnębiające dyskusje o tym, kiedy maszyny zrównają się z ludźmi, przewyższą ich lub zastąpią, a nawet – jak głosi niezawodny w tej kwestii fizyk Andrzej Dragan – będą nad nami dominować intelektem. 8
„Sztuczna inteligencja” jest dzisiaj powszechnie kojarzona ze zbiorem technik informatycznych fachowo nazywanych uczeniem głębokim (deep learning) lub zwyczajniej – maszynowym (machine learning), które umożliwiają konstruowanie maszyn statystycznych 9. Algorytmy tych maszyn mogą przetwarzać ogromne ilości danych, wykrywać w nich powtarzalne wzorce i na ich podstawie generować nowe, mniej lub bardziej sensowne i logicznie uporządkowane teksty lub obrazy. Ich treść zależy z jednej strony od podpowiedzi (promptów), jakie do tych maszyn wpisujemy, a z drugiej – od jakości przetwarzanych przez nie danych. W ten sposób maszyna wykonuje zadanie. Jak słusznie zauważa Apolline Guillot, filozofka i redaktorka naczelna Philonomist, w wykonaniu takiego zadania nie ma ani grama refleksji ludzkiej. „Maszyna nie rozumie tego, co robi, a my nie rozumiemy, co robi maszyna, bo zasadniczo nie ma tu nic do rozumienia, poza regułami statystycznymi, które leżą u podstaw tych modeli” 10. 11
Nie oznacza to, że wynik działań takich maszyn nie może być taki sam jak wynik działań będących udziałem inteligencji człowieka. Może. Na tym właśnie polega zmiana i jej rozległe następstwa. Ale nazywanie tych obliczeniowych automatów „sztuczną inteligencją” tylko dlatego, że pewne zadania mogą wykonywać równie – lub bardziej – wydajnie, a przede wszystkim o niebo szybciej, jest językowym nadużyciem. Jak przytomnie zauważa Yann Le Cun, to, że samolot naśladuje lot ptaka, nie sprawia, że mówimy o sztucznym locie. Nie nazywamy również sztuczną rybą, jak dopowiada informatyk Gilles Dowek, łodzi podwodnej tylko dlatego, że porusza się w toni morskiej 12. 13
Na obecnym etapie rozwoju technik uczenia maszynowego – to z kolei wniosek informatyka Jeana-Gabriela Ganascii – nic nie pozwala stwierdzić bezpośredniego związku między wzrostem mocy obliczeniowych maszyn a tym, że już wkrótce miałyby potrafić symulować ludzką inteligencję wraz z czwartą, piątą lub dziesiątą wersją tego samego chatbota. Nie wydaje się zresztą – biorąc w nawias szum medialny wokół AI – aby taka symulacja była w ogóle celem budowniczych tych systemów. 14
Sztuczna inteligencja, czyli sztuczne co?
Owszem, dla niektórych informatyków na przykład dla Yanna Le Cuna bezpośrednią inspiracją dla rozwijania techniki uczenia głębokiego jest architektura mózgu, a ściślej – architektura kory wzrokowej znajdującej się w płacie potylicznym. Architektura tej kory sama w sobie jest bardzo złożona, a mózg, z perspektywy neurobiologicznej, da się opisać jako maszynę biologiczną przetwarzającą informację, o której neurobiolog Stanislas Dehaene pisze, że jest „fantastyczna”. Niemniej jednak w przypadku maszyny imitującej działania zlokalizowane w owej korze wciąż mamy do czynienia co najwyżej z małym aspektem inteligencji. Nie wspominając o tym, że działanie tej maszyny nie ma nic wspólnego z rozsądkiem. 15
Problem zasadniczy i będący źródłem wszelkich nieporozumień jest jednak taki, że ścisła definicja inteligencji nie istnieje, toteż nie sposób powiedzieć, czym miałaby być jej sztuczna wersja. Dlatego to, jak sobie tę ostatnią wyobrażamy, więcej mówi o nas samych i naszych fantazjach niż o realnych maszynach, choć ma niemniej realny wpływ na to, jak te maszyny rzeczywiście są konstruowane.
Tym, co w inteligencji fascynuje, jest zresztą jej osobliwy status ontologiczny. Inteligencję trudno zdefiniować, powiedzieć o niej, że jest tym czy tamtym. Inteligencja raczej się przejawia, czyniąc to na rozmaite sposoby, by dawać radość i inspirację. Doskonale uchwyciła to Héloïse Lhérété we wstępie do książki Qu’est-ce que l’intelligence?:„Czym zatem jest inteligencja? Zdolnością do adaptacji? Finezyjnością, przenikliwością, głębią? Pewną otwartością na złożoność, na nieznane, na nowe? Definicje zarysowują ścieżki, ale nie są w stanie objąć samego pojęcia. Inteligencja zawsze je przepełnia. Istnieje wyłącznie przez przejawy, w tym samym stopniu zróżnicowane i pełne niuansów co cała paleta ludzka: to przebłysk geniuszu piłkarza, odkrycie naukowca, przeczucie detektywa, kreatywność dziecka, przenikliwość przodka, delikatność przyjaciela, przewrotność klowna, wnikliwość pielęgniarza, zaradność majsterkowicza, olśnienie poety, wrażliwość pianisty, promienna mądrość filozofa”. 16
Możliwe, że AI będzie potrafiła dowodzić twierdzeń na poziomie olimpiady matematycznej. Możliwe, że już to robi. Nie wiem, nie jestem matematykiem. Ale przekonanie, że można te wszystkie przejawy inteligencji odtworzyć za pomocą algorytmów, jest dowodem na utratę zdrowego rozsądku. Nawet gdybyśmy byli w stanie zmapować ludzki mózg i uzyskać dostęp do jego głębokich warstw obliczeniowych, które te technospołeczne przejawy ludzkiej inteligencji biologicznie umożliwiają, do czego wciąż bardzo nam daleko, to absolutnie nic nie gwarantowałoby, że ich matematyczne sformalizowanie i odtworzenie w krzemie pozwoliłoby nam choć trochę lepiej przeniknąć tajemniczą część ludzkiej inteligencji.
Historia AI to nasza historia
Największym i dużo bardziej realnym niż nadejście „nadludzkiej AI” ryzykiem jest przyjęcie linearnej narracji rozwoju sztucznej inteligencji, do czego usiłuje nas przekonać wielu jej rzeczników: kości zostały rzucone, rozpoczętej gry cofnąć się nie da, zmiana pędzi w tempie wykładniczym i jest niemożliwa do zatrzymania. Ta narracja jest groźna, ponieważ przesłania fakt, że historia AI nie istnieje bez nas i pozostaje niemal w całości do napisania.
Dlatego kluczowe jest to, jak ją napiszemy i czy zdołamy skonstruować system idei, w którym projektowanie systemów AI lub za ich pomocą mogłoby sprzyjać zagęszczeniu przejawów ludzkiej inteligencji, a nie ordynarnemu zastępowaniu ludzi maszynami w imię kultu wydajności. Taka narracja nie tylko wykoślawia życie i uniemożliwia rozrost jego odpornych form. Wiąże się ona również z dewaluacją ludzi, którzy w końcu sami upodabniają się do maszyn. Nasze oko – jak pisał Ivan Illich – bardziej niż od wyobraźni uzależnia się od interfejsów 17, a konkretniej od maszynowej wizji rzeczywistości i wzorców podsuwanych przez generatywne systemy AI. Pochodzące z tej dewaluacji ryzyko zapaści poznawczej i społecznej idzie w parze z zapaścią ekologiczną, o której zresztą entuzjaści i promotorzy AI rzadko mówią, pomimo że jej rozwój generuje wysokie koszty środowiskowe 18. 19
Zerwana symbioza
To zadziwiające, że obie te zapaści tak rzadko ze sobą się łączy, choć obie są następstwami panowania tego samego technokratyzmu. Szansa na uniknięcie największych szkód z nimi związanych zależy od tego, na ile nauczymy się dostrzegać to systemowe połączenie w obliczu katastrofy cywilizacyjnej.
Według astrofizyka Auréliena Barrau można ją opisać jako następstwo niedającego się dalej utrzymać rozregulowania między parciem artystycznym a popędem technicznym, który w ostateczności nad parciem artystycznym bierze górę. Grecka techne, podobnie jak rzymska ars, wydaje jedno i drugie: sztukę i technikę. O ile jednak – jak pisze Barrau – parcie artystyczne to „ciągła epifania kultury i przestworów o niezliczonych obliczach inności”, o tyle popęd techniczny oznacza raczej „władcze pragnienie przywłaszczenia i mocy działania”. 20
Łatwo byłoby powiedzieć, że zawieszone między sztuką a techniką projektowanie należałoby przeciągnąć na stronę sztuki. Ale co właściwie miałoby to oznaczać? Sztuki są przejawem życia duchowego, ale duch nie istnieje bez techniki; potrzebuje wsparcia w postaci nośnika materialnego, w którym znajduje swój wyraz, a także ciała, z którego pochodzą nasze odczucia i emocje.
Jak projektować systemy AI lub za ich pomocą, aby wzmacniać ducha, który nabiera cech czegoś realnego jedynie w interakcjach społecznych i niewiele ma wspólnego z tym, co kognitywiści nazywają „umysłem”? Jak poprzez projektowanie zapobiegać zjawisku odcieleśnienia, które ducha zabija? Duch nie działa bez uczestnictwa ciała, choć tym, co ducha niesie, jest technika.
Ale logika techniki ma to do siebie, że ta ostatnia może w pewnej mierze uwolnić się od twórczyń i twórców. Wówczas stają się oni jedynie operatorami maszyn powstałych wskutek aktywności technicznej: zaczynają obsługiwać wyraźnie pasożytniczy mechanizm, o ile nie stają się jego niewolnikami. Symbioza – jak pisze Barrau – zostaje w ten sposób zerwana. Rozwój produkcji technicznej staje się dosłownie kancerogenny, a my wszyscy żyjemy tak, jak gdybyśmy umierali na technoraka pośród artefaktów, które stają się wrogie rozrostowi różnorodnych form życia. 21
Podobnie jak nowotwór, rak technologiczny rozwija się poprzez mutacje, przerzuty i rozsiew. Jego złośliwe komórki, ciągnie Barrau, mają własne mechanizmy selekcyjne, opierają się procesom homeostazy (zdolności organizmu do samoregulacji procesów biologicznych) i senescencji (starzeniu komórkowemu odpowiedzialnemu za starzenie się organizmu). Technorak potrzebuje gospodarza, aby jego komórki mogły żyć i namnażać się dzięki przyspieszonej wymianie metabolicznej, ale zależą one od gospodarza tylko w znikomym stopniu i ostatecznie prowadzą do jego zejścia.
Według Barrau można w ten sposób opisać przynajmniej część współczesnych maszyn. Przy czym chodzi tutaj o coś więcej niż o zwykłą metaforę. Złośliwe komórki raka technologicznego mogą bowiem ewoluować i mają zdolność do adaptacji nie tyle analogicznie, ile homologicznie do biologicznych komórek nowotworowych. Taka komórka jest uparcie indywidualistyczna i nie troszczy się o goszczące je ciało. Jej ewolucja ma charakter odwrócony i paroksystyczny, czyli silny i krótkotrwały, postępuje nierówno, nieprzewidywalnie. Nie tylko poprzez klonowanie, lecz na sposób systemiczny, czyli na skutek rozprzestrzenienia się po wszystkich tkankach. 22
Historia medycyny uczy, że najskuteczniejszym sposobem na zmniejszanie śmiertelności z powodu danej choroby jest zapobieganie jej rozwojowi. Warto jednocześnie przypomnieć, że zdrowie nie oznacza braku choroby, w związku z czym nie należy ich sobie przeciwstawiać, podobnie zresztą jak człowieka maszynie. Definicja Światowej Organizacji Zdrowia mówi nam, że „zdrowie jest stanem pełnego dobrobytu fizycznego, umysłowego i społecznego i nie sprowadza się wyłącznie do braku choroby lub niepełnosprawności”. 23
Projektowanie jako forma prewencji
Czy możemy wyobrazić sobie projektowanie prewencyjne – jako proces nastawiony w pierwszej kolejności na zapobieganie potencjalnie wysokiej kancerogenności „technologii”, projektowanej lub używanej w tym procesie? Wyobraźmy sobie, że jego pierwszym etapem jest solidne przygotowanie rachunku potencjalnych zysków i strat psychospołecznych związanych z działaniem maszyny. W przypadku systemów AI ma to fundamentalne znaczenie. Mowa bowiem o maszynach, których działanie można określić jako celowe, ponieważ dążą one do osiągnięcia jakiegoś wyniku.
Ale to dlatego właśnie te cele w sensie inżynieryjno-kognitywnym trzeba zestroić z celami w sensie psychologicznym i życiowym. Chodzi o projektowanie maszyn sprzyjających podtrzymywaniu tego, co w życiu, w sensie biologicznym i „humanistycznym”, jest nieobliczalne i nienastawione na wynik. A także o gotowość na świadome odstąpienie od automatyzowania tych sfer życia, których skuteczna automatyzacja uszczupla powiązane z nimi sposoby wytwarzania znaczeń, nawet jeśli może przynieść krótkowzroczny zysk ekonomiczny poprzez zwiększenie efektywności „procesów biznesowych”.
Idea prewencyjnego projektowania lub korzystania z systemów AI, inspirowana naczelną zasadą etyczną w medycynie: po pierwsze nie szkodzić, pochodzi przede wszystkim z pytania o to, czy my naprawdę chcemy to robić: czy automatyzacja ma sens, a jeśli ma, to pod jakim warunkiem i w jakich sytuacjach? Czy nadmierna artyficjalizacja rzeczywistości i dostępu do jej przeżywania jest faktycznie dla nas korzystna? Etyka projektowania prewencyjnego nie ogranicza się do stosowania środków łagodzących niepożądane efekty uboczne danej maszyny, której komercjalizacja pozostaje celem nadrzędnym całego procesu projektowego. Bo to jest przeciwdziałanie. A przeciwdziałanie to nie to samo co prewencja, nie tylko ze względu na inny stosunek względem czasu, ale przede wszystkim w aspekcie skuteczności. Gdy rozrost technologii zaczyna przejawiać cechy wzrostu nowotworowego, niewiele można w takim stanie przedsięwziąć.
Życie nie jest technologią
Wbrew temu, co w Nadchodzącej fali twierdzi Mustafa Suleyman, życie nie jest technologią. Ta blagierska idea pokazuje raczej, jak daleko zabrnęliśmy w technicyzacji życia i tworzących to życie relacji. Jest ona również zabójcza dla myśli naukowej, bo odwraca ją od zapytywania o granice rozwoju nauki, od teoretycznego oglądu organizacji życia, a w odniesieniu do środowiska człowieka – od rozumienia relacji, jaka łączy nas z techniką i poprzez technikę z przyrodą. 24
Sądzę, że u podstaw tego poznawczego zbłądzenia leży ograniczone w swym redukcjonizmie rozumienie „technologii” i pochodzące z niego technochwalstwo, które niszczy szlachetny potencjał techniki; powoduje, że jej zastosowania o wiele bardziej zniewalają ludzką autonomię i zdolność ludzkich społeczeństw do samoorganizacji, niż niosą to, co miała dać nowoczesna technika: obietnicę emancypacji. Najwyższy czas, aby miejsce szalonych technonaukowców budujących nam świat nekrotechnologii zajęły mądre technopoetki tworzące autentyczną kulturę techniczną.
Z nabrzmiałego instrumentarium cyfrowego, będącego odtąd realnie zautomatyzowanym środowiskiem ludzkim, nie da się wyjść. Chodzi raczej o to, wracając raz jeszcze do propozycji Auréliena Barrau, aby zapobiec wystąpieniu w nim nowych ognisk nowotworowych. Zapobieganie rozwojowi nowotworów jest łatwiejsze niż skazywanie się na terapie, po których poprawa stanu zdrowia pozostaje niepewna. Takie projektowanie prewencyjne musiałoby niewątpliwie być czymś w rodzaju przewrotu kopernikańskiego w dizajnie. Czy mamy w sobie na tyle odwagi, aby go sobie wyobrazić?
Technopoeci i technopoetki wszystkich krajów…