Nr 22/2024 Sztuczna inteligencja
1 Sztuczna inteligencja. Konteksty i interpretacje

Nr 22/2024 Sztuczna inteligencja

Biblioteka
  1. Wstęp

  2. Sztuczna inteligencja. Konteksty i interpretacje

  3. Etyczne projektowanie w dobie generatywnej sztucznej inteligencji

  4. O trudach dialogu – sztuka komunikacji z AI w projektowaniu

  5. Laboratorium zmian. Edukacja projektowa w obliczu sztucznej inteligencji

  6. Nawigowanie wśród złożoności sztucznej inteligencji. Kluczowe kompetencje techniczne projektantów UX niezbędne w tworzeniu produktów cyfrowych opartych na sztucznej inteligencji (AI)

  7. Prawa autorskie wobec sztucznej inteligencji. Czy istnieje jeszcze szansa na ich skuteczną ochronę?

  8. Rak technologiczny w realnie zautomatyzowanym świecie

  9. Nowy wygładzony świat. Zmysł estetyki w dobie AI


1 Sztuczna inteligencja. Konteksty i interpretacje

W poniższym artykule staramy się nakreślić rozwój koncepcji, jakie stoją za AI, zmiany paradygmatów w obrębie tej dziedziny, a także filozoficzne – w szerokim znaczeniu tego słowa, to znaczy pisane nie tylko przez filozofów – ujęcia sztucznej inteligencji. Rozważamy również rolę projektantów w obrębie tego zjawiska. Sądzimy, że w ten sposób wyznaczymy pole, w którym pytanie o AI będzie łatwiejsze.

https://doi.org/10.52652/fxyz.22.24.1 

Wprowadzenie

Sztuczna inteligencja rozwija się od wielu lat, a jej niedawne sukcesy – powstanie dużych modeli językowych o zdumiewających możliwościach – sprawiają, że ponownie stała się gorącym tematem w debacie publicznej. Piszemy „ponownie”, ponieważ sukces AI w rozpoznawaniu obrazów, grze w go i szachy, powstanie systemów ekspertowych czy skromnego z dzisiejszej perspektywy psychologicznego bota ELIZA już wcześniej wywoływały poruszenie opinii publicznej. Jednak zasięg tamtych przełomów był ograniczony do nielicznej grupy właścicieli pojazdów autonomicznych, do graczy w go, szachistów, a wcześniej do jeszcze węższych grup ekspertów i posiadaczy komputerów. Tym razem jednak przełom dotyczy tych, którzy posługują się językiem i mają urządzenia cyfrowe, czyli w zasadzie każdego. Pracowników niemal wszystkich branż, w tym – co jest nowością – branży kreatywnej.

Razem z rosnącym naciskiem na automatyzację, wydajność i powtarzalność wzorców przyszło poczucie głębokiego kryzysu branży1. W tym kontekście rewolucja, jaką przynosi generatywna AI, może zostać porównana do wynalezienia fotografii. Zmiana wiąże się z przeformułowaniem celów i narzędzi pracy, skłania do eksperymentów, szukania nowych sposobów ekspresji, ale nie podważa wartości twórczego działania, przeciwnie, przypomina o jego konieczności2.

Duże modele językowe (takie jak GPT) pokazują nam, że proces kreatywny, niezależnie od tego, jak oceniamy jego efekt i naturę, może zachodzić w maszynie. Z drugiej strony to, co jeszcze niedawno zdawałoby się dowodzić, że maszyny mają ludzki albo nawet nadludzki umysł – pisanie przez nie sonetów, odpowiedzi na zagadki szachowe3, czy generowanie piosenek – stało się oczywiste i częściej jest źródłem zabawy niż troski. Szybko adaptujemy się do nowości, ale zadajemy sobie pytanie, co jest szybsze: nasza zdolność adaptacji czy uczenie maszynowe? A idąc dalej – czy potrafimy pomyśleć inny rozwój technologii niż wyścig ludzi i maszyn?

Odkąd sztuczna inteligencja nauczyła się posługiwać językiem, wywołała przewrót podobny do Darwinowskiego. W tle troski o warunki ekonomiczne naszego życia odbywa się bardziej fundamentalny proces redefiniowania tego, czym różnimy się od innych bytów (już nie tylko od zwierząt)4, jakie cechy i zdolności są właściwe ludziom? Które z tych cech i zdolności możemy albo chcemy przekazywać maszynom? Jest to jeden z tych rzadkich momentów w historii kultury, kiedy podstawowe pytania filozoficzne wydają się istotne nie tylko w pokojach uniwersyteckich.

Początki AI

Sztuczna inteligencja prezentuje się nam jako monolit, nawet w warstwie językowej najczęściej występuje w liczbie pojedynczej. Nie jako różnorodne (sztuczne) inteligencje, ale jako jeden byt. Ten obraz przysłania jednak i dzisiejszą, i historyczną złożoność zjawiska. Powstanie AI, jaką znamy, jest wynikiem nieoczywistych założeń, konfliktów osobistych i konceptualnych, ścierających się interesów ekonomicznych i zmiennych sojuszy5. Jest więc tak, że AI nie tylko rozwijała się, ale nadal może się rozwijać w różnych kierunkach i z różnymi założeniami. Sądzimy, że to, jakie one będą, powinno stać się w większym zakresie obszarem działania projektantów.

Turing i symboliczna AI

Najbardziej oczywistym momentem rozpoczynającym historię AI są warsztaty w Dartmouth w 1956 roku. Ich głównym inicjatorem był John McCarthy, który we wniosku o sfinansowanie przedsięwzięcia po raz pierwszy użył oficjalnie terminu „sztuczna inteligencja [artificial intelligence]”.

„Wnioskujemy, by latem 1956 roku w Dartmouth College w Hanoverze w stanie New Hampshire przeprowadzić dwumiesięczne 10-osobowe badania nad sztuczną inteligencją.
Badania mają opierać się na założeniu, że każdy aspekt uczenia się i każdą inną cechę inteligencji można z zasady opisać tak precyzyjnie, by zbudować maszynę, która będzie je symulować.
Podjęta zostanie próba znalezienia rozwiązania, jak maszyny mogłyby używać języka, tworzyć abstrakcje i pojęcia, rozwiązywać problemy teraz zarezerwowane dla ludzi oraz się samodoskonalić”6.

Podejście to zakładało możliwość stworzenia symbolicznej reprezentacji, to znaczy reprezentacji w języku formalnym procesów umysłowych, i ukonstytuowało się w pracach Herberta Simona i Allena Newella, Johna McCarthy’ego oraz innych. Sukces programu General Problem Solver z 1957 roku (autorstwa Newella i Simona) skłonił autorów i ich środowisko do optymizmu w kwestii oceny wyników i ich znaczenia dla wglądu w procesy umysłowe, a także prognoz na dalszy szybki rozwój sztucznej inteligencji7.

Jednak pomysł, by odtworzyć procesy umysłowe w maszynie, jest oczywiście starszy niż samo pojęcie sztucznej inteligencji.

Bezpośrednim poprzednikiem symbolicznego podejścia był Alan Turing. W fundamentalnej dla rozwoju AI publikacji Computing Machinery and Intelligence z 1950 roku proponował zastąpić pytanie „Czy maszyny myślą?” mniej kontrowersyjnym testem zdolności programu do naśladowania ludzkich wypowiedzi (nazywanym później testem Turinga). Mimo licznych wątpliwości dotyczących zasadności testu8 czy jego wyników w odniesieniu do konkretnych algorytmów jest on nadal punktem odniesienia przy analizie umiejętności przetwarzania języka naturalnego. Turing przewidywał, że w ciągu 50 lat zostanie zbudowany i zaprogramowany komputer, który przejdzie stworzony przez niego test, a także, że w tym czasie język i technologia zmienią się tak mocno, by określenie „myśląca maszyna” nie było już kłopotliwe. To, jak niewiele albo jak bardzo się pomylił, może być przedmiotem długiej debaty. Ciekawy i krótki wydaje się konkretny przykład rozmowy – testu, który proponuje Turing.

„P: Proszę, napisz mi sonet na temat Forth Bridge.
O: Nie licz na mnie w tej kwestii. Nigdy nie umiałem pisać poezji.
P: Dodaj 34957 do 70764.
O: (Pauza na około 30 sekund, a następnie odpowiedź) 105621.
P: Czy grasz w szachy?
O: Tak.
P: Mam K na K1 i żadnych innych figur. Ty masz tylko K na K6 i R na R1. Jest twój ruch. Jak zagrasz?
O: (Po 15 sekundowej przerwie) R-R8, mat”.

W 2024 roku większość dużych modeli językowych jest w stanie wykonać wszystkie te zadania.

Ostrożny funkcjonalizm Turinga odsunął na pewien czas debatę na temat tego, czy komputerom można przypisywać inteligencję lub zdolność myślenia, czy jest to raczej myślenie życzeniowe twórców oprogramowania. Wydaje się jednak, że sam Turing stał na stanowisku zrównującym proces intelektualny (a więc i proces twórczy) komputerów i ludzi. Debata wróciła z całą intensywnością w połowie lat 60. wraz z rozwojem AI i śmielszymi deklaracjami jej twórców z kręgu symbolicznej sztucznej inteligencji.

Z dzisiejszej perspektywy ta tendencja okazuje się nie tylko trwała – zrealizowała się w pewnym sensie w określeniu „sztuczna inteligencja”, utrwaliła w okresie dominacji podejścia symbolicznego – ale też znacząca dla dzisiejszej debaty na temat nowych technologii, ponieważ dokonując przesunięcia semantycznego takich pojęć jak inteligencja, rozumienie itd., buduje przekonanie o równorzędności odpowiednio zaawansowanych komputerów i ludzi, o autonomicznym rozwoju tej dziedziny i daje podstawę dla determinizmu technologicznego, to jest przekonania, że proces rozwoju AI musi prowadzić do reprodukcji lub przewyższenia ludzkich zdolności intelektualnych przez komputer w najkrótszym możliwym czasie. W domyśle bez względu na ewentualne szkody społeczne, pułapki etyczne czy potencjalne inne cele tworzenia sztucznej inteligencji. Chcemy jednak podkreślić, że przedstawiony wyżej ciąg rozumowania nie wynika w konieczny sposób z używania terminu „sztuczna inteligencja”, jest to raczej linia argumentacyjna, którą w dowolnym miejscu można przerwać lub rozgałęzić.

Cybernetyka

Równolegle z Turingiem swoje koncepcje inteligentnych maszyn rozwijało środowisko skupione wokół cybernetyki, interdyscyplinarnego obszaru badań łączącego neurobiologię, psychologię behawioralną, nauki społeczne i techniczne w nową dziedzinę ochrzczoną tak przez Norberta Wienera w książce Cybernetics: Or Control and Communication in the Animal and the Machine9.

Jednym z celów cybernetyki było poszukiwanie analogii, czy obszarów wspólnych, między zjawiskami przyrodniczymi a techniką, a także modelowanie maszyn na wzór obiektów organicznych. Był to pierwszy tak szeroko zakrojony interdyscyplinarny program badawczy. Instytucjonalne wsparcie dla jego rozwoju stanowiły doroczne konferencje organizowane przez fundację Macy, w których brali między innymi udział Claude Shannon, John von Neumann, Warren McCulloch czy Wiener, których wkład w rozwój technologii cyfrowych trudno przecenić. Wiener, również wykształcony filozof, od początku podkreślał w swoich tekstach etyczne i społeczne konsekwencje powstania „uczących się maszyn”. W Cybernetics mówił o kosztach automatyzacji pracy i zobowiązaniu inżynierów do etycznego stosowania nowych technologii. W późniejszym o 10 lat God and Golem z dzisiejszej perspektywy szczególnie ciekawa, bo niezwykle aktualna wydaje się ostra krytyka rynkowego podejścia do technologii i przenoszenia odpowiedzialności na nietransparentne, autonomiczne urządzenia.

„Istnieją jednak aspekty motywów automatyzacji, które wykraczają poza uzasadnioną ciekawość i same w sobie są grzeszne. Ich przykładem może być szczególny typ inżyniera i organizatora pracy inżynierów, którego będę określał mianem czciciela gadżetów. Dobrze znam czcicieli gadżetów z własnego podwórka z ich hasłami wolnej przedsiębiorczości i gospodarki nastawionej na zysk. […] Wśród oddanych kapłanów władzy jest wielu, którzy z niecierpliwością patrzą na ograniczenia ludzkości […].
Oprócz motywu, który w oczach czciciela gadżetów uzasadnia jego podziw dla maszyny, jej wolności od ludzkich ograniczeń szybkości i dokładności, istnieje motyw, który jest trudniejszy do ustalenia […], który jednak musi odgrywać bardzo istotną rolę. Jest to chęć uniknięcia osobistej odpowiedzialności za niebezpieczną lub katastrofalną decyzję poprzez przeniesienie odpowiedzialności gdzie indziej: […] na urządzenie mechaniczne, którego nie można do końca zrozumieć, ale które ma domniemany obiektywizm”10.

Na przełomie lat 40. i 50., a nawet w latach 60., problemy, o których pisze Wiener, były czysto akademickie. Dzisiaj koszty stosowania sztucznej inteligencji, a także łatwość przenoszenia na nią odpowiedzialności, są codziennością. Armie używają modeli AI do ustalania celów ostrzału11. Nieco mniej bezpośrednie, ale możliwe do udowodnienia negatywne skutki mają schematy projektowe utrzymujące zaangażowanie w sieciach społecznościowych czy – szerzej – w urządzeniach mobilnych12 i tu również odpowiedzialność jest przenoszona na wymogi rynku i decyzje nietransparentnego modelu. Widzimy już teraz, jak kryzys w branżach kreatywnych wywołany pojawieniem się generatywnej AI sprawia, że osoby twórcze szukają alternatyw wobec nieetycznych i niekorzystnych dla nich rozwiązań big techów (na przykład tworząc platformy do prezentacji portfolio wykluczające obrazy wygenerowane za pomocą modelu13). Być może poczucie zagrożenia, które nam towarzyszy, będzie impulsem do przebudzenia się projektantów i projektantek z „technologicznej drzemki”.

Sztuczny neuron i Perceptron

Obok refleksji etycznej i społecznej Wienera kluczowe dla późniejszego rozwoju AI okazało się odkrycie dokonane przez dwie inne ważne postaci cybernetyki, Warrena McCullocha i jego współpracownika Waltera Pittsa. Opracowali oni koncepcję sztucznego neuronu (neuron MCP), uproszczonego modelu neuronu biologicznego. Model ten stał się z kolei podstawą budowy Perceptronu, pierwszej sztucznej sieci neuronowej rozpoznającej proste kształty, stworzonej przez Franka Rosenblatta w 1957 roku, która posłużyła za podstawę rozwoju sztucznych sieci neuronowych w ogóle, bazowej architektury dzisiejszej AI14. Jednak koncepcje uczenia maszynowego inspirowane procesami biologicznymi po początkowym sukcesie Perceptronu musiały czekać na rozwinięcie aż do lat 80. Tymczasem badania nad sztuczną inteligencją zostały zdominowane przez podejście symboliczne. Jego twórcy odrzucili cybernetyczny, interdyscyplinarny styl rozwiązywania problemów, częściowo wraz z samymi rozwiązaniami. Przyjęte w Dartmouth założenia obiecywały szybką i bardziej bezpośrednią drogę do celu – powstanie maszyn, których możliwości umysłowe byłyby porównywalne z ludzkimi. Dzięki swojemu potencjałowi, również wojskowemu, symboliczna AI otrzymała państwowe wsparcie i szansę szybkiego rozwoju. Jednak po początkowych sukcesach przyszły spowolnienie i krytyka.

Dwie krytyki sztucznej inteligencji

Chcemy zwrócić uwagę na dwa przypadki krytyki AI, a dokładniej symbolicznej AI. Jedną ze strony fenomenologa Huberta Dreyfusa, drugą od filozofa języka Johna Searle’a.

Pierwszą publikacją otwarcie krytykującą podejście symboliczne było Alchemy and AI Dreyfusa (1965)15, w którym ten prześmiewczo porównał dążenie do stworzenia sztucznej inteligencji do alchemicznych prób przemiany innych metali w złoto.

Jego publikacja spotkała się z dużym zainteresowaniem publiczności i otwartym gniewem środowiska AI. Temperatura sporu (który toczył się również w mediach) była wysoka, ale zarzuty Dreyfusa okazały się trafne. Dreyfus argumentował, że człowiek działa na podstawie zdrowego rozsądku i intuicji, która nie może być zapisana symbolicznie. Dopiero podejście subsymboliczne i rozwój sieci neuronowych zaczęły zdaniem Dreyfusa spełniać przesłanki potrzebne do stworzenia podobnej do ludzkiej inteligencji. Nie zgadzał się też z optymistycznymi założeniami dotyczącymi tempa rozwoju AI. Większość jego opinii miała się potwierdzić, co on sam skwitował w charakterystyczny dla tego sporu sposób: „Nie myślę już o komputerach. […] Sądzę, że wygrałem i sprawa jest zamknięta – tamci się poddali”16.

W 1980 roku John Searle ponownie zaatakował zagadnienie sztucznej inteligencji, a dokładniej zdolności programu do rozumienia (bądź „rozumienia”) języka17. W słynnym eksperymencie myślowym nazywanym chińskim pokojem dowodził, że jeżeli on sam nie rozumie języka chińskiego, ale jest w stanie tłumaczyć tekst z angielskiego na chiński, wykonując odpowiednie polecenia, to komputer, który dokonuje tłumaczenia, tak samo nie rozumie języka, tylko zgodnie z instrukcją zmienia jedne symbole na inne. Zatem mylą się wszyscy, którzy jak McCarthy, a wcześniej Turing, sądzą, że komputerom można przypisywać zdolność rozumienia języka oraz inne inteligentne zachowania. Również ta publikacja wywołała serię odpowiedzi, które starały się podważyć zasadność argumentu18. Choć eksperyment Searle’a nie rozstrzyga niczego ostatecznie, doprowadził do znacznego doprecyzowania stanowisk w kwestii „sztucznych umysłów”. Jeszcze w 2015 roku, 35 lat po publikacji Minds, Brains and Programs, Searle wygłosił wykład dla pracowników Google’a, nie zmieniając zasadniczo swojego stanowiska19.

Spór o chiński pokój może się wydawać akademicki, ale rozstrzygnięcia, które pokazuje, mają rzeczywisty wpływ na naszą codzienność. Z jednej strony jest więc esencjalizm Searle’a, przekonanie, że procesy umysłowe mogą się dziać tylko w mózgu, a nie mogą w maszynie cyfrowej. Inaczej patrząc, jest to stanowisko antyredukcjonistyczne – istnieją procesy, których nie da się zalgorytmizować. To przekonanie stoi w oczywistej sprzeczności z myślą McCarty’ego i wielu innych twórców AI, dla których podstawowym założeniem jest właśnie redukcjonizm, a praktyką dążenie do algorytmizacji. Jego konsekwencją jest mniej lub bardziej radykalne przypisanie maszynom własności umysłowych.

W obu przypadkach krytyka wywołała wzburzenie środowiska twórców AI i wieloletnie dyskusje nad zasadnością argumentów. Okazała się też przydatna dla rozwoju samej dziedziny – przedstawiane przez Dreyfusa i Searle’a intuicje stanowiły bodziec do powstania nowych perspektyw.

Definicje

Pozostaje zatem zadać pytanie, czym właściwie dzisiaj jest sztuczna inteligencja. Definicja zaczerpnięta z podręcznika Metod i technik sztucznej inteligencji autorstwa Leszka Rutkowskiego opisuje sztuczną inteligencję jako metodę rozwiązywania problemów przy użyciu rozumowania logicznego oraz przetwarzanie języka naturalnego w celu przewidywania i prognozowania wyników20. Wypełniona wyliczeniami, wzorami i diagramami pozycja, która w dokładny sposób opisuje, jak działa współczesna sztuczna inteligencja, pozostaje poza zasięgiem przeciętnego odbiorcy. Autor szczegółowo opisuje techniki i metody sztucznej inteligencji jako samodoskonalącego się programu, który uczy się przez przetwarzanie danych. Dane można postrzegać jako najmniejsze jednostki informacji, które mogą stanowić podstawę do obliczeń statystycznych. Amerykański pisarz Bruce Sterling, jeden z czołowych twórców nurtu cyberpunk, definiuje sztuczną inteligencję jako „zautomatyzowaną statystykę”, która działa zgodnie z zasadą „bullshit-in-bullshit-out”: jakość wyniku uzyskanego z modelu maszynowego zawsze będzie zależeć od jakości danych wejściowych21. Takie podejście sprawia, że w dobie postępującej digitalizacji, która sporo naszych aktywności zakotwicza w sieci, sztuczna inteligencja przestała być wyłącznie domeną inżynierów i programistów, a zaczęła dotyczyć każdej i każdego z nas. Projektanci w dużej mierze się do tego przyczynili. Można zaryzykować stwierdzenie, że gdyby nie iPhone wprowadzony przez Steve’a Jobsa w 2007 roku czy rewolucja platformowa Web 2.0, której twarzą stał się Facebook (obecnie Meta), nie mielibyśmy dziś takich narzędzi jak Apple Intelligence i Meta AI. Wbudowane w te platformy algorytmy pozyskiwania danych umożliwiły stworzenie technologii, które obecnie przenikają nasze życie i w znacznym stopniu na nie wpływają.

Sukces dużych platform w rozwoju sztucznej inteligencji w znacznej mierze wynika z ergonomicznie zaprojektowanych interfejsów, które poprzez interakcję z urządzeniem, zbierały dane o zachowaniach użytkowników. Dzięki temu możliwe było ciągłe doskonalenie algorytmów oraz rozwój samych platform w imię reguł ekonomii behawioralnej22 i ekonomii uwagi23.

Ilość pozyskiwanych danych o użytkownikach jest na tyle duża (big data), że żaden człowiek nie jest w stanie ich przetworzyć. W tym celu zwracamy się do maszyn, mechanicznych mózgów. Uzyskujemy większe zdolności analizy i interpretacji danych dzięki implementacji reguł myślenia w maszynie. To jednak zawsze wiąże się z pewnym przekłamaniem, bo myślenie jest mocno zakorzenione w kontekście kulturowym i społecznym. Tradycja analityczna, której przedstawicielami są między innymi Gottfried Wilhelm Leibniz, Charles Babbage, Alan Turing, ale też duże organizacje, które tworzą współczesną sztuczną inteligencję, postrzegają mózg jako maszynę, która tworzy językowe reprezentacje świata. Za tym poglądem kryje się założenie, że działanie ludzkiej myśli daje się opisać przy użyciu algebry Boole’a. Czyli że – w dużym uproszczeniu – opis świata da się sprowadzić do 0 i 1 przy użyciu pewnego zbioru reguł (syntax). Całkowite przepisanie świata na kod binarny dla niektórych oznaczałoby uzyskanie przez sztuczną inteligencję pewnej wrażliwości, umiejętności czucia (sentience)24. Jednak, jak zauważa badacz i informatyk Andrew Ng, zamiast myśleć o sztucznej inteligencji jako o czującym bycie, powinniśmy ją postrzegać bardziej jako statystykę na sterydach25.

Społeczny wymiar sztucznej inteligencji

Filozof i badacz Matteo Pasquinelli zauważa, że obecna sztuczna inteligencja pełni funkcję Społecznej Maszyny Naśladownictwa (Social Imitation Machine)26. Jej funkcjonalność wyraża się przez możliwość naśladowania, wzmocnienia i gromadzenia relacji społecznych. Zaproszenie technologii do naszego życia przyniosło nam sporo radości i rozwiązało mnóstwo problemów, równocześnie wymagało jednak rezygnacji z wolności.

Sztuczna inteligencja jako Społeczna Maszyna Naśladownictwa zaczyna sprawować kontrolę przez generowanie nowych, wysokiej jakości imitacji ludzkich cech i uczuć. Ich cyfrowe reprezentacje, które konsumujemy na co dzień, wchodząc w interakcję z siecią, stają się źródłem imitacji, która działa na naszą wyobraźnię, demonstruje, co jest możliwe, a w ten sposób kształtuje nasze nastawienie do rzeczywistości. Sztuczna inteligencja, którą dzisiaj poznajemy, wyłoniła się, bo symbolicznie udało nam się zamknąć nasze życie, nasze działanie w formę czytelnej i powielalnej reprezentacji.

Vladan Joler w pracy New Extractivism porównuje współczesnego użytkownika technologii cyfrowych do więźnia platońskiej jaskini: „Więzień stoi na środku jaskini zwrócony w stronę interfejsu. Interfejsy kształtują i strukturyzują wyświetlany algorytmiczny spektakl obrazów. Interfejs jest biurową kabiną niematerialnej pracy. Mimo że interfejsy są bezpośrednią manifestacją zasad, regulacji i taksonomii, skutecznie ukrywają to, co jest pod nimi schowane. Określają bezpośrednio lub pośrednio, co możemy, a czego nie możemy robić. Są zarówno narzędziami, jak i ramami dyskursywnymi. Są ustanowione jako porządek dyskursu i ucieleśnienie dyscyplinującej władzy platformy”27.

Z jaskini można zawsze wyjść, wyjąć wtyczkę, odciąć się od cieni wyświetlanych na ścianie. Dla wielu z nas oznaczałoby to jednak koniec kariery projektowej. Podłączenie do sieci i korzystanie z usług dużych platform jest niezbędne, by móc utrzymać się dzisiaj w zawodzie. W pewien sposób jesteśmy zmuszeni dostosować się do reguł gry, żeby realizować się w roli projektanta.

Jak zauważa Cory Doctorow, pościg za wydajnością, który stał się głównym paradygmatem korporacyjnej klasy menedżerskiej, jest pościgiem zgubnym, zapętleniem i przepalaniem zasobów ludzkich i planety28. Nasza kreatywność jest dzisiaj przepalana w imię rozwiązań, które mają zadowolić docelowego użytkownika. Oli Mould w książce Against Creativity zwraca uwagę na to, jak kreatywność, która polega na tworzeniu czegoś nowego, w kapitalizmie jest wykorzystywana do produkowania tego, czego rynek potrzebuje, i zamiast wprowadzać nowe perspektywy oraz innowacje, prowadzi do powielania tego, co już istnieje29. Jak zauważył amerykański teoretyk dizajnu Benjamin Bratton, projektowanie okazało się sposobem, by patologiczne relacje z kulturą materialną stały się efektywne i przyjemne30. W gruncie rzeczy wciąż rozwiązujemy ten sam problem na nowo, tym razem pomagają nam w tym maszyny. Startujemy tutaj w niesprawiedliwym wyścigu o miejsce na rynku z takimi platformami jak Temu, które przechwyci nasz projekt, wyprodukuje taniej (w sposób wątpliwie etyczny i zgubny dla planety) i sprzeda go z zyskiem dla siebie31. Może właśnie rozwiązanie polega na tym, żebyśmy w ogóle do wyścigu nie stawali. Podążając za teoretykiem dizajnu Guim Bonsiepem, który ubolewa nad tym, że projektowanie odchodzi od inteligentnego rozwiązywania problemów i staje się „głównie kojarzone z drogimi, ekstrawaganckimi, niepraktycznymi, zabawnymi, formalnie przesadzonymi i kolorowymi przedmiotami”32, zwróćmy się w stronę rzeczywistości wirtualnej i zajmiemy się projektowaniem informacji.

John Berger w czteroodcinkowym eseju wizualnym Ways of Seeing opisuje widzenie jako aktywny proces interpretacji, a nie tylko bierny odbiór informacji wizualnych. To, co widzimy, jest kształtowane przez to, co wiemy, a z kolei to, co wiemy, wpływa na to, jak widzimy. Obrazy nie są neutralne: niosą za sobą wartości i stanowią podstawy kultury, która je tworzy. Reprezentacja wywołuje działanie. Jak zauważa brytyjski filozof Luciano Floridi, w infosferze – rzeczywistości danych i informacji – to już nie percepcja decyduje o tym, że coś istnieje, tylko możliwość interakcji33. Kiedy projektujemy obiekty (nawet cyfrowe), powołujemy do życia afordancję, która proponuje wykonanie jakiejś czynności. Oliver Reichenstein w bardzo dobrym tekście o etyce projektowania zauważa:

„Kiedy projektujemy, kształtujemy sposób, w jaki ludzie postrzegają świat, oraz ich myśli na temat tego, co obserwują. Kształtujemy też sposoby, na jakie wchodzą w interakcję z tym, co poznają. To jest istota projektowania”34.

Dizajn odkrywa nowe możliwości i wskazuje na to, co ma znaczenie. W kontekście projektowania technologii określa, jakie zachowania mają zostać uchwycone pod postacią danych i przetworzone przez modele maszynowe. W pewnym sensie to projektowanie dzisiaj decyduje o tym, co możemy uczynić jeszcze przeliczalnym, co da się jeszcze zalgorytmizować, który proces warty jest optymalizacji.

Projektowanie AI

W artykule Dona Normana i Roberta Vergantiego Incremental and Radical Innovation: Design Research vs. Technology and Meaning Change opisane są dwa typy innowacji: inkrementalna i radykalna35. Innowacja inkrementalna, oparta między innymi na zasadach projektowania zorientowanego na człowieka (human centered design), prowadzi do stopniowych ulepszeń, które umożliwiają ludziom lepsze wykonywanie tego, co już robią, ale nie do radykalnych zmian, które pozwoliłyby im robić to, czego obecnie nie robią. Im więcej danych na temat zachowania ludzi wykorzystujemy w procesie projektowym, tym bardziej tkwimy w istniejących paradygmatach.

Innowacja radykalna próbuje dokonać zmiany na poziomie paradygmatu. Ten często zmienia się poprzez wprowadzenie nowej technologii lub znaczenia. Nowe technologie są domeną inżynierów i mogą wymykać się kompetencjom projektowym, natomiast praca ze znaczeniem jest tym, czym projektanci zajmują się z definicji.

W celu przybliżenia konceptu innowacji przez zmianę znaczenia Norman i Verganti omawiają proces wytwarzania innowacji dla zegarka na rękę36. Autorzy zaczynają od opisu zegarków mechanicznych (technologia), produkcji szwajcarskiej, które odbierane były jako forma męskiej biżuterii (znaczenie). Kiedy doszło do innowacji w obszarze technologii, pojawiła się również konieczność wprowadzenia innowacji w obszarze znaczeniowym. Elegancki zegarek elektroniczny, który nosił Roger Moore, wcielając się w Jamesa Bonda, w ogóle się nie przyjął na rynku. Nowa technologia, jaką był zegarek elektroniczny potrzebowała zupełnie innej narracji, która została dostarczona przez japońskie CASIO: zegarek już nie jako biżuteria, tylko narzędzie pracy, pierwszy asystent.

Podobny zabieg możemy zastosować w kontekście określenia tego, czym jest sztuczna inteligencja. Jeżeli będziemy ją wciąż postrzegać w kategoriach ludzkich i nadawać znamiona podmiotowości, to podążamy tropem narracji ludzi, którzy wierzą w antropomorficzny wariant sztucznej inteligencji i jej zbawienny wpływ na ludzkość. W gruncie rzeczy jednak, jak przekonuje Pasquinelli, antropomorfizacja sztucznej inteligencji, upatrywanie w niej ponad ludzkiego geniuszu i remedium na wszystkie problemy świata, funkcjonuje zazwyczaj jako ucieczka od bardziej fundamentalnych kwestii społecznych37. Nie dziwi zatem, że rządząca klasa inżynierów w Kalifornii zaczęła antropomorfizować superkomputery i boi się ich przebudzenia jako odczuwających i autonomicznych istot. Cała Dolina Krzemowa przesiąknięta jest podobnymi poglądami. Bardzo często kończy się to stosowaniem prawa Conwaya w praktyce (każda organizacja kopiuje swoje struktury organizacyjne w tworzone rozwiązanie), co sprawia, że tak naprawdę same korporacje zaczęły funkcjonować jako zmaterializowane sztuczne inteligencje.

Dostrzega to James Bridle w książce Ways of Being. Omawiany przez Bridle’a przykład wydobywania surowców w trudnych warunkach północnej Grecji obrazuje, jak organizacja, która rozpoczęła prace, gdy surowiec był dostępny, dzisiaj jest zmuszona w pełni zaangażować statystyczne modele sztucznej inteligencji, w celu zidentyfikowania miejsca wydobycia pożądanego materiału38. Jak opisuje Bridle, sztuczna inteligencja dosłownie wkopuje się w warstwę ziemi za pomocą wierteł39. To ona zadecydowała, gdzie należy kopać w celu podtrzymania wydajności, usprawnienia procesu i pozyskania surowców do dalszego wzrostu. Korporacja stała się celem samym dla siebie.

Wspominani już wyżej Matteo Pasquinelli i Vladan Joler w eseju Nooskop dokonują rekonstrukcji tego, jak zmienia się znaczenie sztucznej inteligencji, kiedy wpleciemy ją w wątek społeczny40. Dodatkowo, refleksja nad społeczeństwem wzbogacona o inne byty nieludzkie, które coraz częściej postrzegamy jako prawowitych członków naszych społeczności, tworzy nowe interpretacje tego, czym może być sztuczna inteligencja. To właśnie społeczny aspekt sztucznej inteligencji wymusza na nas zmianę jej statusu ideologicznego z „inteligentnej maszyny” (inteligentnej na sposób ludzki) na narzędzie wiedzy. Ten manewr pozwala zarzucić legendy o pozaludzkim poznaniu i skupić się na sztucznej inteligencji bardziej jako na narzędziu do pozyskiwania wiedzy, które pomaga dostrzegać cechy, wzorce i korelacje w przepastnych przestrzeniach danych znajdujących się poza możliwościami interpretacyjnymi człowieka.

Wybierając ten model myślenia, zmierzamy w stronę holistycznej, adaptacyjnej tradycji pojmowania tego, czym jest mózg i jaka jest jego rola w świecie. W przeciwieństwie do tradycji analitycznej, dla której mózg jest maszyną przetwarzającą językową reprezentację świata, interpretacja adaptacyjna zwraca uwagę na jego ucieleśnioną relację z rzeczywistością. W tym rozumieniu inteligentny jest każdy organizm, który wpływa na rzeczywistość, a następnie adaptuje się do powstałej zmiany. Zwierzęta, grzyby, ale też rośliny przejawiają w związku z tym inteligentne zachowania41. Przejawia je również korporacja. Każdy z tych organizmów funkcjonuje w jednym świecie i każdy interpretuje go na swój indywidualny sposób. Znaczenie jest przeżywane, a nie opisywane. Bridle zauważa: „Sama obecność innych światów, licznych nakładających się na siebie rzeczywistości, w których możliwe są różne rodzaje rzeczy i różne sposoby widzenia oraz bycia, powinna nas ekscytować. Inne światy nie tylko są możliwe, one już istnieją”42.

Projektowanie nowych światów poprzez poznawanie i zgłębianie nie-ludzkich inteligencji pozwala zrozumieć, że znaczenie i sposób funkcjonowania sztucznych inteligencji mogą zostać zmienione. Sztuczna inteligencja nie musi być ludzka, może być różnorodna i wielogatunkowa. Dzisiaj stoi przed nami wyjątkowa możliwość: możemy być świadomymi użytkownikami algorytmów – kształtować je przy pomocy naszych działań oraz opowieści. Jako projektantki i projektanci możemy odsłonić nowe, społeczne znaczenie sztucznej inteligencji. W tym celu warto ją poznać, oswoić i okiełznać.