Nr 22/2024 Sztuczna inteligencja
2 Etyczne projektowanie w dobie generatywnej sztucznej inteligencji

Nr 22/2024 Sztuczna inteligencja

Biblioteka
  1. Wstęp

  2. Sztuczna inteligencja. Konteksty i interpretacje

  3. Etyczne projektowanie w dobie generatywnej sztucznej inteligencji

  4. O trudach dialogu – sztuka komunikacji z AI w projektowaniu

  5. Laboratorium zmian. Edukacja projektowa w obliczu sztucznej inteligencji

  6. Nawigowanie wśród złożoności sztucznej inteligencji. Kluczowe kompetencje techniczne projektantów UX niezbędne w tworzeniu produktów cyfrowych opartych na sztucznej inteligencji (AI)

  7. Prawa autorskie wobec sztucznej inteligencji. Czy istnieje jeszcze szansa na ich skuteczną ochronę?

  8. Rak technologiczny w realnie zautomatyzowanym świecie

  9. Nowy wygładzony świat. Zmysł estetyki w dobie AI


2 Etyczne projektowanie w dobie generatywnej sztucznej inteligencji

W okresie gwałtownego rozwoju AI refleksja nad jej rolą w projektowaniu staje się zagadnieniem wymagającym pilnej uwagi i pogłębionej analizy. Rozumienie możliwości i ograniczeń generatywnej sztucznej inteligencji jest bowiem jedyną drogą do zrównoważonego oraz etycznego z niej korzystania.

https://doi.org/10.52652/fxyz.22.24.2 

Szczyt zawyżonych oczekiwań

Ostatnia dekada przyniosła bezprecedensowy rozwój systemów sztucznej inteligencji (artificial intelligence)1 opartych na uczeniu maszynowym i sieciach neuronowych, w tym generatywnej sztucznej inteligencji (generative AI, genAI), tworzącej na podstawie poleceń (prompts) teksty, obrazy, modele 3D, kod źródłowy, materiały wideo i audio2. I chociaż od lat wybieramy trasy wraz z Google Maps, jesteśmy oceniani przez systemy finansowe, a zawartość mediów społecznościowych kształtują algorytmy karmiące się nieustannie informacjami o nas, dopiero ujrzenie na własne oczy kreacji maszyn uznane zostało za przełom i sprawiło, że publiczna debata nabrała rozpędu.

Gartner Hype Cycle to narzędzie służące do oceny stopnia rozwoju innowacji technologicznych, które zakłada istnienie pięciu faz opisujących dojrzewanie, adaptację i upowszechnianie się technologii. Druga faza cyklu to tak zwany szczyt zawyżonych oczekiwań (peak of inflated expectations), oprócz narastających oczekiwań cechuje go szum informacyjny (hype), wiążący się z tworzeniem bańki spekulacyjnej. W czerwcu firma Gartner zaanonsowała przekroczenie przez generatywną AI tego punktu, wskazując równocześnie, że wciąż trwa duże zamieszanie komunikacyjne3. W dużej mierze jest to zalew niewiele wnoszących wiralowych treści tworzonych przez zwolenników i przeciwników rozwiązań opartych na sztucznej inteligencji, mających na zmianę udowadniać jej możliwości lub ograniczenia. Taka koncentracja na krótkookresowych konsekwencjach, częsta w przypadku nowych technologii, zdaniem Roya Amary, amerykańskiego futurologa, naraża nas na ryzyko niedoceniania zmian długookresowych4. Clickbaitowość dyskusji, naprzemienne rozbudzanie oczekiwań i straszenie, zagłusza merytoryczną dyskusję wokół zidentyfikowanych już zagrożeń algorytmów i bezkrytycznego ich wdrażania – by przywołać wnioski z książki Cathy O’Neil Broń matematycznej zagłady5. Wyzwania etyczne związane z rozwojem AI są bowiem dobrze znane, trudniej jest jednak wskazać inicjatywy na rzecz regulowania tego rynku, czy też wprowadzania na nim zmian.

Etyczne korzystanie z nieetycznych narzędzi

W swojej książce Atlas AI Kate Crawford przypomina nam, że algorytmy to nie bezcielesne byty, kreujące atrakcyjne obrazki, streszczające artykuły i piszące posty do mediów społecznościowych, lecz energożerne technologie, które powodują dramatyczne konsekwencje środowiskowe, społeczne, ekonomiczne i kulturowe. Autorka wędruje po całym świecie, odwiedzając kopalnie metali rzadkich, w których warunki pracy określić można jedynie jako nieludzkie, zaglądając na wielkie farmy serwerów, także nieobojętne dla środowiska i społeczeństwa, czy pokazując, jak rzemieślniczo (dotyczy to na przykład ręcznego kategoryzowania zdjęć), a czasem też nieetycznie pozyskiwane są dane służące do uczenia algorytmów. Wśród wymienianych przez nią wyzwań etycznych pojawiają się kwestie transparentności i stronniczości – dotyczących właściwie każdego etapu rozwoju od projektowania sztucznej inteligencji i doboru zespołów projektowych, poprzez trening, aż po rezultaty oraz ich dalsze wykorzystywanie do szkolenia algorytmów, a także bezpieczeństwo i prawidłowość działania tychże oraz ochronę prywatności użytkowników6.

Wydaje się, że jednym ze sposobów radzenia sobie z tymi zagrożeniami jest boom publikacyjny w obszarze etyki sztucznej inteligencji. Jednak, jak pisze Luke Munn w artykule o prowokacyjnym tytule The Uselessness of AI Ethics, oczekiwanie, że to właśnie dzięki tym tekstom sztuczna inteligencja będzie zaprojektowana, szkolona bądź wdrażana inaczej, jest bezzasadne, a rzeczywistą zmianę przynieść mogą jedynie regulacje prawne7. Natomiast powszechna dyskusja wokół wyzwań etycznych może przynieść zmiany opinii społecznej i skutkować tym, że przepisy poparte działaniami obywatelskimi będą wdrażane szybciej i skuteczniej.

Obecnie nie możemy już negować ani ograniczać korzystania z generatywnej sztucznej inteligencji. Pozostaje nam minimalizowanie negatywnych konsekwencji i maksymalizowanie potencjału, jednak wymaga to solidnej edukacji społecznej, także w zakresie wyzwań etycznych. Dotyczy to także projektantów – im większa świadomość zagrożeń, jakie niesie AI, tym mniejsze ryzyko uwiedzenia prostotą obsługi technologii i wynikających z tego potencjalnych nadużyć. Paradoksalnie, niedoskonała projektowo AI wymusza samodzielność użytkowników w zakresie rozpoznawania wyzwań etycznych, rozumienia konsekwencji swoich działań i podejmowania świadomych decyzji.

Projektowanie w dobie sztucznej inteligencji

Badania przeprowadzone przez Adobe w marcu 2023 roku wśród tysiąca przedstawicieli amerykańskiej branży kreatywnej pokazały, że tylko 19% projektantów nie korzystało w swojej pracy ze sztucznej inteligencji. Wśród wymienianych narzędzi znalazły się ChatGPT (48%), Dall-E (34%), RunwayML (30%), Stable Diffusion (27%) czy Midjourney (25%). Badani zaprezentowali także pozytywne postawy wobec sztucznej inteligencji jako narzędzia pracy wspomagającego karierę czy oferującego możliwości zarobkowe (na przykład wynagrodzenie za licencjonowanie stylu artystycznego, trenowanie modeli uczenia maszynowego czy też promptowanie)8.

Yang Shi ze współpracownikami wskazują na dwie drogi współdziałania projektantów i AI – pierwszą jest asystowanie przez sztuczną inteligencję w procesach projektowych, na przykład ustalanie i analiza wymagań projektowych, wizualizowanie idei i inspirowanie, kreowanie lub doskonalenie materiałów wizualnych, jak również testowanie rozwiązań; druga natomiast to asystowanie przez projektantów w trenowaniu, nadzorowaniu i doskonaleniu sztucznej inteligencji9. Także Fabio Antonio Figoli i współautorki zwracają uwagę na szerokie możliwości stosowania sztucznej inteligencji w początkowych fazach projektowania, czyli badań i tworzenia koncepcji10, a Kristin A. Bartlett i Jorge D. Camba omawiają zastosowania AI w obszarze ideacji na późniejszych etapach projektowania oraz zarządzania zespołem projektowym, wsparcia w zakresie rozwiązywania problemów projektowych, ale też wskazują na konkretne ryzyka i ograniczenia11.

Kreowanie z AI – narzędzie, asystent czy partner?

Dyskusja, czy sztuczna inteligencja jest narzędziem, czy też ma cechy podmiotu i może być uznawana za partnera w procesach kreacyjnych, a niekiedy nawet za samodzielnego twórcę, pozostaje nierozstrzygnięta12. Ocena, z jakim charakterem współpracy mamy do czynienia, jest zależna nie tylko od zakresu zadań wykonywanych przez algorytm, ale też sposobu inicjacji, kontrolowania i oceny ostatecznych rezultatów, co wyraża kontinuum od braku autonomii do całkowitej autonomii maszyny. Istotne jest też user experience i projekt interfejsu. Zarówno charakter interakcji (na przykład dialog lub tylko okno do wpisywania promptów), jak i stosowane zabiegi związane z upostaciowieniem (na przykład chatbot, awatar) mogą mieć wpływ na przypisywanie AI większej lub mniejszej podmiotowości. Istotna jest też oryginalność i kreatywność rozwiązań tworzonych przez AI, jednak – jak słusznie zauważa Margaret Boden – jest to pytanie filozoficzne, a nie naukowe13.

Wraz z rozwojem technologii konieczna staje się zmiana ról projektantów i sztucznej inteligencji. Można powiedzieć, że osiągnęliśmy etap wspólnej kreacji, jednak inicjowanie, planowanie i nadzorowanie tego procesu wciąż pozostaje po stronie człowieka. Proces kokreacji niesie ze sobą wiele wyzwań etycznych związanych z koniecznością określenia charakteru i zakresu przywództwa, identyfikacji (zakresów) autorstwa, ustalenia odpowiedzialności i zasad współpracy z interaktywnymi agentami AI, a także zapewnienia bezpieczeństwa danych. Takie wnioski przyniósł wykorzystujący technikę design fiction eksperyment Jeby Rezwany i Mary Lou Maher, w którym 18 osób współpracowało ze spekulatywną sztuczną inteligencją. DesignPal, hologram 3D o cechach interaktywnego agenta, generował szkice, ale też konwersował z użytkownikami i udzielał im informacji zwrotnej14. Zidentyfikowane w artykule wyzwania etyczne, stanowić mogą podstawę do budowania serii pytań, na które powinni odpowiedzieć sobie projektanci wykorzystujący w swojej pracy generatywną sztuczną inteligencję.

Stymulowanie kreatywności

Celem projektowania jest rozwiązywanie problemów i dostarczanie koncepcji, które zaspokajają potrzeby odbiorcy. Od dizajnerów oczekujemy też rozwiązań kreatywnych, a więc takich, które określić można jako nowatorskie i wartościowe. Czy może w tym pomagać współpraca z AI? Rosnąca liczba zindeksowanych w Google Scholar publikacji wskazuje, że tak jest. Jednym z przykładów może być eksperyment w zakresie projektowania mebli miejskich przez osoby studiujące we współpracy z AI, opisany przez Tilankę Chandrasekerę wraz z zespołem. Uzyskane wyniki potwierdziły, że wsparcie ze strony AI w procesie ideacji przyniosło korzyści w zakresie zmniejszenia obciążenia poznawczego oraz przyczyniło się do generowania bardziej zróżnicowanych rozwiązań15. Podobne refleksje mają Fabio Antoni Figoli i współautorki, którzy zwracają uwagę, że współpraca maszyny i człowieka polega na wzajemnym kompensowaniu swoich ograniczeń. Ponadto, dzięki szybkiemu generowaniu rozwiązań, kooperacja ta stymuluje procesy dedukcji i indukcji, nie bez znaczenia jest też rola losowych stymulatorów, które mogą pojawić się w wyniku konfrontacji myślenia ludzkiego i myślenia maszyny16.

Wyznaczanie granic

W znanej książce Twórcza kradzież Austin Kleon rozprawiał się z mitami wokół kreatywności, wskazując na istotność naśladownictwa, ale i remiksowania w procesie poszukiwania własnego języka twórczego17. Można to odnieść także do korzystania ze sztucznej inteligencji, które nie może być bezkrytyczne. Nadmierne poleganie na inspiracjach pochodzących ze świata cyfrowego – przy czym nie chodzi tutaj wyłącznie o generatywną sztuczną inteligencję tworzącą dla nas spójne moodboardy, ale też o poszukiwania prowadzone w Google, na Instagramie czy Pintereście – wiedzie do pozyskiwania uśrednionych wyników i wzmacniania przez algorytmy zaobserwowanych preferencji użytkownika. Dodatkowe poszukiwanie inspiracji w świecie realnym może więc decydować o końcowej oryginalności rozwiązań.

Przekraczanie luki umiejętności

AI pozwala na kompensowanie braków umiejętności analizy danych, pisania tekstów czy rysowania, co niesie ryzyko nadużyć związanych z­ ukrywaniem korzystania z technologii i plagiatami. Także brak doświadczenia i rosnące możliwości algorytmów stanowią wyzwanie – osoba niemająca wystarczającej wiedzy może być bardziej skłonna do wybierania rozwiązań, które nie są optymalne, zbyt wczesnego zatrzymywania się w poszukiwaniach czy niedostrzegania ograniczeń przedstawianych propozycji.

Sztuczna inteligencja może w przyszłości doprowadzić do zmniejszenia istotności zdolności plastycznych w wachlarzu kompetencji projektanta. Szybkość algorytmów jest większa niż człowieka, a obserwując postęp w zakresie jakości generowanych rozwiązań, należy przyjąć, że maszyny wykonują pewne zadania szybciej i dokładniej niż ludzie, jeśli zapewnimy dostęp do odpowiednich danych. Z perspektywy osób, które poświęciły lata na rozwijanie swoich naturalnych predyspozycji i talentów, może wydawać się to niesprawiedliwe. Nie oznacza to jednak ograniczenia decyzyjności projektantów – chociaż luka umiejętności ulegnie zmniejszeniu, większe znaczenie będzie mieć doświadczenie, pozwalające na szybką selekcję propozycji, ocenę możliwości wdrożenia pod względem technologicznym, prawnym lub ergonomicznym.

Nowe obszary odpowiedzialności etycznej

Pozostawiając kierowanie współpracą ze sztuczną inteligencją w rękach człowieka, przypisujemy AI rolę podrzędną. Oznacza to jednak, że odpowiedzialność za wyniki tej współpracy także pozostaje po stronie dizajnera. Figoli i współautorki proponują w tym przypadku nową rolę projektanta arbitra, który staje się odpowiedzialny za ocenę i wybór rozwiązań, a nie za wykonywanie konkretnych zadań18. Tym samym człowiekowi przypisana zostaje rola stratega, dodatkowo musi on także posiadać wiedzę pozwalającą na ocenę propozycji oraz rozumieć sposób, w jaki działa sztuczna inteligencja. W tym kontekście szczególnie ważna jest świadomość potencjalnych wyzwań etycznych. Wymieniają je Kristin A. Bartlett i Jorge D. Camba, są to: stronniczość (bias), kwestie ukrytej pracy, na przykład słabo opłacanych ręcznie kategoryzujących obrazki czy wręcz udających sztuczną inteligencję, kradzież dzieł dostępnych w internecie, brak oryginalności i problemy z prawami autorskimi do materiałów używanych do szkolenia sztucznej inteligencji19. Każde z tych wyzwań niesie konsekwencje dla procesu projektowego, wygenerowanego rozwiązania i współpracy z klientem, a więc wymaga podjęcia decyzji przez świadomego problemów projektanta. Brak pełnej wiedzy o tych ograniczeniach kończy się przesadnym – jeszcze obecnie – zaufaniem do możliwości sztucznej inteligencji.

Autorstwo i jego ochrona

Kwestie prawne związane z korzystaniem z generatywnej sztucznej inteligencji i autorstwem rozwiązań dopiero teraz podlegają w wielu krajach wstępnym regulacjom. Jaka jest rola twórców algorytmu, a jaka człowieka tworzącego prompty, czy wreszcie jak nazwać to, co robi sztuczna inteligencja? Na te pytania nie znajdziemy na razie spójnej odpowiedzi. Michael D. Murray wskazuje, że dopóki proces tworzenia nie będzie autonomiczny i automatyczny, powinniśmy traktować sztuczną inteligencję jako narzędzie, a projektanta jako twórcę20. Nie daje nam to jednak odpowiedzi, w jaki sposób należy o tym informować zleceniodawców czy nauczycieli ani jak chronić powstałe we współpracy z AI dzieła.

Prawodawstwo amerykańskie i europejskie nie pozwala na ochronę dzieł stworzonych przez AI copyrightem – co prędzej czy później zmusi nas do redefinicji roli autora w interakcji z AI. Ostatni rok przyniósł takie właśnie rozstrzygnięcia – w USA w sprawie komiksu Zarya of the Dawn Kris Kashtanovej stworzonego z Midjourney21, a w Czechach w sprawie ilustracji stworzonej przy pomocy Dall-E22. Natomiast w Chinach legislacja podąża w odmiennym kierunku i wytworom AI oraz promptującym przyznano ochronę prawnoautorską23. Chociaż model copyright podlega od wielu lat krytyce, jest to istotny element prawny naszej rzeczywistości, a brak regulacji stanowi istotne ostrzeżenie dla twórców. Brak możliwości ochrony rezultatów współpracy z AI niesie konsekwencje w obszarze współpracy komercyjnej, stawia też pod znakiem zapytania możliwość kontroli korzystania z tak generowanych dzieł.

Bezpieczeństwo i poufność

Z tą ostatnią kwestią wiążą się także naruszenia prawa własności podczas trenowania algorytmów. Mogłoby się wydawać, że jest to problem po stronie dostawcy usługi, jednak to na osobie projektującej spoczywa obowiązek kontrolowania, czy wygenerowane we współpracy z AI dzieło nie nosi znamion plagiatu, co pokazała w 2023 roku sprawa Getty Images przeciwko start-upowi Stability AI24.

W przypadku twórców mamy też poważne ograniczenia związane z prawami do treści generowanych przy pomocy algorytmów. W zapisach regulaminów i warunków świadczenia usług dostawcy oprogramowania zastrzegają sobie prawo do publikowania, korzystania z lub tworzenia innych dzieł na podstawie naszych promptów i kreacji. Tego typu zapisy mają znaczenie dla osób współpracujących z firmami, które skrupulatnie regulują umowami kwestie poufności, może się okazać, że powodują one ograniczenia w zakresie możliwości korzystania z AI.

Wiarygodność i odpowiedzialność

Obszarem wymagającym szczególnej uwagi jest też wykorzystywanie sztucznej inteligencji do realizacji badań. Potencjalne ryzyka to zastępowanie ludzkich respondentów predykcjami sztucznej inteligencji oraz ograniczanie się do propozycji AI podczas desk research, analizy konkurencji czy poszukiwania inspiracji. Wątpliwości budzą także możliwość budowania person przez algorytmy czy też zautomatyzowane prowadzenie wywiadów oraz testów rozwiązań, na przykład w formie eyetrackingu. Projektanci opierający się na danych pozyskiwanych poprzez algorytmy narażeni są na podejmowanie błędnych decyzji. Warto tutaj przypomnieć, że generatywne AI ma cechy technologii perswazyjnej, co jest szczególnie niebezpieczne w dla osób Mających niewielką wiedzę o metodologii prowadzenia badań.

Zapobieganie wzmacnianiu stereotypów i stronniczości (bias)

„Garbage in, garbage out” (Włóż byle co, a wyjmiesz byle co) to powiedzenie, z którym zetknął się chyba każdy badacz czy programista. Kreowanie treści przy pomocy algorytmów, które dyskryminują i wzmacniają nierówności, obarczone jest ryzykiem ich wzmacniania. Oprócz zdolności do oceny oryginalności rozwiązań proponowanych przez AI projektant musi mieć także narzędzia do rozpoznawania stereotypizacji i uprzedzeń w generowanych ilustracjach czy tekstach. Nie wszyscy dostawcy algorytmów ujawniają, na jakich danych były one trenowane, jak je kategoryzowano i kto to robił. Brak wiedzy o tych ograniczeniach AI może powodować wzmacnianie stereotypów i tendencyjności. Przy czym inne będą w tym przypadku doświadczenia projektantów pochodzących z grupy WEIRD25 i tych, którzy do tej grupy nie należą.

W pewnym sensie dotyczy to także wzmacniania obecności treści mainstreamowych i trendujących, co powoduje, że większość generowanych przez AI inspiracji jest do siebie niepokojąco podobna. Spowalnia to poszukiwanie dobrych wzorców, a projektantom może być trudniej proponować nowatorskie rozwiązania, jeśli oni i odbiorcy zalewani są ujednoliconymi treściami poprzez social media i AI. Wymaga to także dobrej edukacji osób projektujących w obszarze zarówno historii dizajnu (aby móc rozpoznać inspiracje historyczne), jak i współczesnych trendów (także tych mniej widocznych w mediach społecznościowych) oraz konieczności sprawdzania swoich pomysłów pod kątem nieświadomej inspiracji, czy wręcz plagiatu.

Dostępność i inkluzywność

Ze względu na to, że generatywna sztuczna inteligencja do swojego rozwoju potrzebuje dużych ilości danych, wiele dostępnych obecnie rozwiązań jest darmowych lub też są one dostępne cenowo. Oznacza to też, że za ich używanie prawdopodobnie płacimy naszym wkładem intelektualnym. Można jednak przypuszczać, że najbardziej rozwinięte narzędzia będą wkrótce zamykane i staną się mniej dostępne dla osób studiujących, pochodzących z mniej uprzywilejowanych ekonomicznie obszarów świata czy też dla mniejszych organizacji. W tym przypadku nie ma prostych recept, jednak jednym ze sposobów przynajmniej częściowego kontrolowania nierówności może być wprowadzanie standardów jawności – jeśli ktoś uzyskuje przewagę konkurencyjną dzięki narzędziom AI, odbiorcy jego usług powinni o tym wiedzieć. Wiąże się to także z koniecznością rozwijania modeli językowych innych niż anglojęzyczne oraz dbania o kulturową różnorodność danych do trenowania generatywnej sztucznej inteligencji w obszarze tekstu, obrazu i dźwięku.

Wpływ na środowisko

Energochłonność sztucznej inteligencji ma szczególne znacznie dla dizajnerów pracujących zgodnie z zasadami projektowania zrównoważonego. Coraz bardziej istotne staje się szacowanie negatywnego wpływu środowiskowego w sytuacji wykorzystywania algorytmów AI, które są bardziej obciążające dla środowiska niż ryza papieru i ołówek czy cienkopis. Także tutaj możemy spodziewać się wzrostu kosztów korzystania z rozwiązań, które umiejscawiają swoje centra danych w pierwszym świecie i ograniczają ślad węglowy, trenują algorytmy na etycznych danych czy też lepiej dbają o warunki pracy annotatorów (ręcznie opisujących i kategoryzujących dane).

Transparentność i świadoma zgoda

Kwestie ujawniania, w jakim stopniu w procesie tworzenia rozwiązań uczestniczyła sztuczna inteligencja, także niosą wyzwania. Łatwo zidentyfikować tutaj przypadki skrajne – podawania za swoje dzieło wytworów AI, znacznie trudniej wskazać reguły postępowania w mniej jednoznacznych sytuacjach długotrwałych interakcji z AI mających wszelkie cechy kokreacji.

Ponownie kluczowa staje się tutaj edukacja projektantów i odbiorców ich usług. Chociaż generowanie koncepcji wizualnej stanowi zaledwie początek pracy projektowej, z punktu widzenia nisko wyedukowanego klienta może mieć ono zupełnie inne znaczenie i być utożsamiane z gotowym projektem produktu (szczególnie jeśli kreacja będzie na zbyt wysokim poziomie wierności). Równocześnie łatwość pracy z AI powoduje, że zleceniodawcy mogą mieć poczucie, że już nie potrzebują projektantów, a sami projektanci podawać w wątpliwość konieczność poświęcania długich godzin na doskonalenie warsztatu szkicowania lub modelowania. Jednak oddanie procesów projektowych sztucznej inteligencji nie przyniesie rozwiązań przełomowych i nowatorskich, chociażby ze względu na omówione wcześniej ograniczenia AI, konieczność długotrwałych iteracji oraz samą rolę kreatywności ludzkiej, której ujawnianiu się bardziej sprzyjają techniki tradycyjne niż cyfrowe.

Jednak w tym obszarze istnieje duże ryzyko nadużyć i zagrożenie zalewem wtórnych ilustracji, prezentacji, tekstów i produktów. Możemy się tego spodziewać szczególnie w obszarach produkcji niskokosztowej oraz oczywiście w mediach społecznościowych. Konkurowanie za pomocą ceny czy też lajków i uwagi zawsze faworyzować będzie rozwiązania szybsze i tańsze, a takie właśnie oferuje sztuczna inteligencja. Poza edukowaniem przedsiębiorców i społeczeństwa pozostaje jeszcze droga regulacji prawnych, jednak dotychczas rzeczywistość wyprzedza prawo o kilka długości.

Możliwe scenariusze rozwoju

Obecnie nie ma jeszcze rozwiązania, które mogłoby zapewnić całościową realizację projektu produktu czy usługi, ale już w obszarze projektowania graficznego czy też user experience takie możliwości powoli się pojawiają. Algorytmy miały nas zastępować w powtarzalnych i męczących czynnościach, jednak w tej chwili oddajemy w ich ręce budowanie moodboardów, szkicowanie, modelowanie – inspirujemy się wówczas rozwiązaniami powstającymi na podstawie uśrednionych wcześniejszych rozwiązań, nie zawsze mając wiedzę o tym, w jaki sposób był i jest trenowany algorytm. Tymczasem czasochłonne analizy ergonomiczne, materiałowe czy ekonomiczne wciąż pozostają domeną człowieka. Można więc zadać pytanie, dlaczego rozwijamy systemy generatywne, zamiast doskonalić systemy eksperckie, które mogłyby rzeczywiście przynieść przełom w zakresie innowacji materiałowych, produktowych i ekonomicznych? Być może tworzenie remiksów jest ostatecznie bardziej bezpieczne niż wspieranie tworzenia czegoś nowego i przełomowego w ramach istniejących ograniczeń. Teoretycy omawiają modele predykcyjne, algorytmy optymalizacji i parametryzacji projektowania, jak również modelowania 3D i prototypowania26, jednak na razie nie mają one szans na urzeczywistnienie się poza centrami rozwojowymi dużych graczy biznesowych.

W trakcie korzystania z AI pojawia się coraz więcej wyzwań etycznych, w miarę jak granice autorstwa zacierają się dzięki sprawniejszej współpracy i rosnącej jakości treści generowanych przez algorytmy. Czy algorytm był tylko wykonawcą naszych poleceń? Czy jesteśmy w stanie określić, jaki jest nasz udział w całym procesie kreacji? Czy bez współpracy z AI doszlibyśmy do podobnych czy odmiennych decyzji? Dokąd nas to zaprowadzi? Florent Vinchon i jego współpracownicy proponują cztery scenariusze dalszego rozwoju.

  1. Co-cre-AI-tion – wykorzystanie efektu synergii i hybrydyzacji unikalnych zdolności ludzkich i sztucznej inteligencji.
  2. Organic – nowa odsłona rzemieślnictwa, czyli tworzenie bez wsparcia sztucznej inteligencji, co staje się gwarantem wartości danego rozwiązania.
  3. Plagiarism 3.0 – intensywne wykorzystywanie sztucznej inteligencji w celu kompensowania braków kompetencji lub czasu bez ujawniania tego faktu.
  4. Shut down – negatywny scenariusz, w którym szybsze i tańsze treści generowane przez sztuczną inteligencję wypierają ludzką kreację wraz ze wzrostem przypadków przerdzewienia zawodowego (bore out), będącego wynikiem niemożności pełnej realizacji swojego potencjału i kreatywnego zamarcia (creative mortification) w wyniku kontaktu z coraz bardziej doskonałymi AI27.

Prawdopodobnie w nadchodzących latach będziemy obserwować częściową realizację każdego z tych scenariuszy. Stanowią one także dobry punkt wyjścia do dyskusji w gronie osób projektujących, uczących i studiujących nad konsekwencjami rozwoju generatywnej sztucznej inteligencji i jej wpływu na projektowanie. Oprócz przytoczonych w tym artykule opisów design fiction czy scenariuszy przyszłości budowane są też narzędzia wspierające rozumienie technologii i wyzwań etycznych, by wymienić Envisioning Cards28, A Playbook for Ethical Technology Governance29, IDEO’s AI Ethics Cards30 czy też Tarot Cards of Tech31.

Aby zrozumieć mechanizmy wpływu sztucznej inteligencji na projektowanie, trzeba też aktywnie korzystać z dostępnych narzędzi i monitorować ich rozwój. Aktywne obserwowanie rynku jest kluczowe dla rozumienia zachodzących na nim zmian i ich potencjalnego wpływu na naszą pracę w obszarze edukacji i projektowania. Rosnąca świadomość wyzwań, jakie niesie AI, jest najlepszą drogą do zrozumienia dylematów etycznych i działania zgodnie ze zinternalizowanymi, a nie narzuconymi zasadami.