W ostatnich miesiącach studia i kursy dotyczące projektowania z wykorzystaniem AI pojawiają się na wielu uczelniach. Ich reklamy przemawiają techno-optymistycznym językiem, obiecując że nauczymy się automatyzować, optymalizować i monetyzować. Studia Responsible AI na barcelońskiej uczelni Elisava, składają inne obietnice.
Kilka lat temu z fascynacją słuchałam wykładów osób zaproszonych na konferencję IAM Internet. Poruszane tam wątki były świeże i rzadko spotykane w mainstreamowym świecie projektowym. Konferencyjna społeczność podejmowała próby budowania międzynarodowej inicjatywy – The Billion Seconds Institute . Współtwórca konferencji, Andres Colmenares został w międzyczasie dyrektorem studiów Master in design for Responsible AI w hiszpańskiej szkole projektowania Elisava. Program studiów jest adresowany do osób, które chcą pogłębić namysł nad tym czym jest sztuczna inteligencja i jak odpowiedzialnie podchodzić do jej projektowania. Program wydaje się różnić od tego, co oferują nam na przykład rodzime uczelnie. Kiedy tylko mignęło mi na Linkedinie, że Marta właśnie obroniła pracę, natychmiast do niej napisałam. Zgodziła się porozmawiać, chociaż minęło zaledwie kilka dni od jej obrony.
Marta Gierszewska: Jestem projektantką doświadczeń produktów cyfrowych. W ostatnich latach rozwijałam swój warsztat projektowo-badawczy w poznańskiej agencji UX, a od kilku miesięcy dbam o doświadczenia użytkowników w firmie produktowej. Ostatnimi czasy jednak coraz mniej projektuję, a bardziej skupiam się na budowaniu zespołów i kultury UX w organizacjach. To dla mnie również chwila głębokiej refleksji nad tym jak realnie mogę wykorzystać wiedzę zdobytą po studiach. Idąc tam nie wiedziałam jeszcze, czego mogę oczekiwać.
Nasz świat staje się coraz bardziej interdyscyplinarny. Dostępność i popularyzacja narzędzi AI są ważnym elementem tego krajobrazu. Żeby projektować i świadomie wykorzystywać AI, powinniśmy próbować tę interdyscyplinarność uchwycić, zrozumieć. Liczyłam, że studia mi w tym pomogą i tak też się stało.
Wartości przyświecające studiom, dobór kadry – wszystko miało na celu pogłębienie refleksji na temat projektowania oraz jego konsekwencji. Dużo czasu poświęciliśmy dyskusji na temat tego w jak złożonych socjo-eko-technologicznych systemach funkcjonujemy na co dzień. Ta wiedza jest ekscytująca, odświeżająca, ale równocześnie bardzo trudna i otwierająca oczy.
Wcześniej w trakcie swojej ścieżki zawodowej i edukacyjnej nie spotykałam się z tak wielopoziomową analizą technologii i krytycznym podejściem do tego jak wspomniane systemy działają. To trochę podobne do tego co robicie Wy (Grupa Robocza – przyp. KJ). Okazuje się, że poza myśleniem o użytkownikach jest o wiele więcej wątków. Projektowanie human-centered to zdecydowanie za mało.
Katastrofa klimatyczna to bardzo ważny kontekst, który powinien nadawać ramy naszej pracy. Human-centered design to tylko jeden z obszarów, a musimy myśleć dużo szerzej… W podejściu Responsible AI mówi się dużo o Planetary Design. To podejście mające na celu objęcie całego ekosystemu, w którym funkcjonujemy – nieludzkich interesariuszy, aktantów, zasobów naturalnych – całej planety. I refleksję, w jaki sposób ją wykorzystujemy, żeby budować technologie.
Potrzebujemy szerszego wglądu w konsekwencje tego, co projektujemy. Przykład: centra danych konsumują gigantyczne ilości wody potrzebne do chłodzenia serwerów. To są kwestie o których aktualnie nie mówi się wiele, a jest to przecież istotny koszt korzystania z tych technologii.
Przez pierwsze miesiące studiów narastał we mnie mocny dysonans poznawczy. Z jednej strony miałam swój background projektowy, biznesowy… To obszary nastawione na ciągły rozwój, optymalizację i zwiększanie zysków. Z drugiej strony studia przyniosły nowe pytania, które zaczęły wybrzmiewać z większą mocą. Co tak naprawdę jest ważne dla planety, społeczności, przyrody? Jakie ma w tym kontekście znaczenie, że zaprojektujemy nową funkcję do swojej apki. Oczywiście to hiperbola, przerysowuję – ale wiadomo o co chodzi. Świat projektowania jest bardzo techno-optymistyczny, zakorzeniony w wartościach płynących do nas prosto z Doliny Krzemowej. Studia dla odmiany otworzyły mi klapki raczej techno-pesymistyczne bo program był mocno krytyczny względem technologii. Rozmawialiśmy m.in. o traumatyzującej pracy moderatorów treści1 lub monotonnych czynnościach związanych z adnotacją, czyli etykietowaniem danych2. To rzeczy, których nie widać na pierwszy rzut oka, a są kluczowe aby technologie takie jak AI mogły się rozwijać. Dążymy do automatyzacji i innowacji a budujemy je wyzyskując zasoby ludzkie.
Po wszystkim naturalnie pojawia się więc pytanie: jak podejść do materii pracy projektowej w kontekście problemów społeczno-technologiczno-ekologicznych. Biznes często od nich ucieka i wciąż brakuje nam pomostu.
Studia dały mi narzędzia, aby bardziej krytycznie spojrzeć na to ile dzieli wiodącą narrację dotyczącą sztucznej inteligencji w biznesie, od tego, czego naprawdę możemy potrzebować jako społeczeństwo i planeta. Dostajemy obietnicę zautomatyzowanych procesów i odciążenia zespołów produktowych, a w praktyce pracy ciągle nam przybywa.
Po internecie krąży taki mem, który dobrze ilustruje ten paradoks: pracownik korzysta z ChatGPT, aby przekształcić krótką listę punktów w rozbudowanego maila, a jego odbiorca używa tego samego narzędzia, aby skrócić go do esencji. Kilka dni temu natknęłam się z kolei na post o avatarze-rekruterze AI, stworzonym, by odciążyć firmy zmagające się z zalewem CV i listów motywacyjnych wygenerowanych właśnie przez… AI. Obecnie przeżywamy wielki hype na inteligencję generatywną (generatory tekstów, obrazów itp.), jednak wciąż brakuje nam czegoś, co nazwałabym wspólną podstawą: solidnej edukacji i zrozumienia, czym właściwie jest sztuczna inteligencja i jak najlepiej ją wykorzystać. To, że eksplorujemy rozmaite narzędzia, np. od OpenAI, jest ważnym krokiem. Uważam, że potrzebujemy tych eksperymentów po to, by lepiej rozeznać się w tym co dostępne i możliwe. To wciąż nie jest powszechna wiedza w świecie projektowym. Gdy jednak już zdobędziemy tę wiedzę, kluczowe będzie to, co zrobimy dalej. Jak wartościowa okaże się w dłuższej perspektywie narracja oferowana przez mainstream? Czy potrafimy wyjść poza nią i spojrzeć szerzej, bardziej długofalowo?
W tym kontekście warto przywołać przykład mediów społecznościowych. Choć pierwotnie były projektowane z myślą o łączeniu ludzi, w praktyce są naszpikowane algorytmami maksymalizującymi zaangażowanie w aplikacji za wszelką cenę – często przynoszą odwrotny skutek: alienację, spadek nastroju i po prostu pożerają nasz czas i uwagę. Myślę, że te rozważania są dobrym punktem wyjścia od którego wspomniane pomosty warto zacząć budować.
Dostrzegam w tym obszarze bardzo ciekawy nurt. To wprowadzanie do projektowania tak zwanego friction – celowego tarcia poznawczego3, a co za tym idzie – zupełne odwrócenie podejścia ,,nie każ mi myśleć” Steve’a Kruga. Chodzi o wprowadzenie małych przeszkód lub dodatkowych kroków, dzięki którym ludzie odzyskają sprawczość i decyzyjność podczas korzystania z produktów czy usług cyfrowych.
Zamiast projektować interfejs w taki sposób aby np. zwiększyć prawdopodobieństwo bezrefleksyjnego kliknięcia „play” gdy tylko pojawi się rekomendacja, stwórzmy przestrzeń do namysłu, pozwólmy użytkownikom podjąć samodzielną decyzję. Niech algorytmy rekomendacyjne pozostaną sugestią, a nie generatorem gotowych odpowiedzi, bez których czujemy się zagubieni.
Szczególnie teraz, w dobie narzędzi AI, tak ważne jest, żebyśmy świadomie prowokowali ludzi do indywidualnego, krytycznego myślenia.
Friction stoi w kontrze do najpopularniejszych zasad projektowania UX, o których mówiliśmy przez ostatnie lata, kiedy chcieliśmy wyeliminować wszelkie przeszkody stojące na drodze do realizacji celów w produkcie.
No właśnie. Często mamy do czynienia z technologią, która eliminuje interakcje międzyludzkie i pogłębia poczucie osamotnienia. U jej podstaw często leży element tak zwanego myślenia solucjonistycznego – założenia, że odpowiednio skrojona technologia po prostu pojawi się i rozwiąże wszystkie nasze problemy. Szczególnie te, które są złożone i systemowo zawiłe – czyli nie ma na nie prostej odpowiedzi. Zbyt rzadko myśli się wtedy o konsekwencjach wyeliminowania tych wszystkich ,,tarć”. Myślenie kategoriami zbawczego wynalazku może też przynosić ulgę, bo często wydaje się on bardziej dostępny niż trudne i czasochłonne zmiany, na przykład w systemie edukacji.
Na pewno jest wiele elementów, które warto byłoby zrewidować i zaktualizować w naszym podejściu do projektowania. Odwołując się do mojej edukacji w UX, uczono mnie, że sprawne osoby projektujące powinny myśleć takimi trzema kategoriami: użytkownik, biznes i rynek. Uczymy projektować dla biznesu i dla rynku, bo takie projektowanie pozwala na szybszy rozwój i lepszą monetyzację produktu – a tym samym lepiej mocuje osoby projektujące i ich działania w organizacjach. Ta perspektywa jest cenna, jednak to tylko część układanki.
W kontrze do tej biznesowej, skupionej na eliminowaniu przeszkód i realizacji celów narracji, często brakuje nam w edukacji czegoś co nazwałabym po prostu „ludzką refleksją”. Trudno jednak wyobrazić sobie radykalne pogłębienie myśli ekologicznej czy poruszanie się w ramach całych systemów socjo-technologicznych, w momencie gdy młodzi projektanci dopiero zaczynają się uczyć. Ogrom różnorodnych czynników, które należałoby wziąć pod uwagę może być paraliżujący.
Dzisiaj często można usłyszeć, że to nie sztuczna inteligencja nas zastąpi, ale raczej ludzie, którzy sprawnie się nią posługują. Jednak umiejętność obsługi narzędzi do automatyzowania czy generowania, które ostatnio pojawiają się w dużej ilości, to przecież nie wszystko. Najważniejsze jest pytanie: co właściwie chcemy zautomatyzować? Co chcemy wygenerować? I tutaj pojawia się bardzo ciekawe pole. Przyszedł mi do głowy taki termin – meta-projektowanie, czyli projektowanie narzędzi do projektowania.
Tworzenie ,,narzędzi do projektowania” może z jednej strony przedefiniować pracę projektową – a z drugiej znacznie poszerzyć możliwości twórcze osób nieprojektujących. To ciekawy punkt wyjścia dla myślenia o tym nowym paradygmacie…
Jako osoby projektujące, nieustannie wykorzystujemy rozmaite frameworki, blueprinty, canvasy i bardzo mocno koncentrujemy się na tym edukując kolejne pokolenia designerów. W teorii narzędzia te powinny pozwalać nam złapać szerszy kontekst, ale w praktyce najpopularniejsze metody ideacji i odkrywania produktów nie przewidują rozważań szerszych niż human-centered design, nie prowokują do krytycznego myślenia. Pracując z nimi często jesteśmy na tak dużym poziomie granularności, że tracimy ten „prawdziwy big picture”. I choć z pewnością trudno byłoby zacząć zajęcia od wyłożenia wszystkich etycznych wątpliwości czy zasypania studentów bardziej radykalnymi pomysłami, w momencie gdy dopiero zaczynają poznawać projektowe podstawy, trzeba jednak zastanowić się, jak przerzucić ten pomost, o którym wspomniałyśmy wcześniej – pomiędzy technologiami, które budujemy – a ratowaniem płonącej planety. Zastanowić się jak o tym opowiedzieć, jak pokazać potencjał drzemiący w pogłębionej refleksji czy niepozornych narzędziach, które ją wspierają.
Tak, to na czym mi bardzo zależało, to połączenie praktycznego, osadzonego w biznesowym kontekście narzędzia z krytycznymi pytaniami i wartościami wyniesionymi ze studiów. W domenie Responsible AI powstaje coraz więcej wytycznych i przewodników, jednak często są to artykuły naukowe lub mało skuteczne checklisty.
Postanowiłam więc wykorzystać swoje UXowe doświadczenie i opakować to co mam do przekazania w formę warsztatu, w Miro. Chciałam sięgnąć po formę dobrze znaną zespołom produktowym, ale równocześnie dotknąć obszarów, o których w organizacjach dyskutuje się za mało lub wcale. Nie ma uniwersalnej recepty na Responsible AI, dlatego cały warsztat jest skonstruowany w taki sposób, aby każdy zespół mógł wypracować własną definicję.
Tutaj pojawią się dwa obszary – bo możemy mówić o tech for good, czyli generalnie robieniu produktu dla dobra użytkowników, zmieniania statusu quo na plus. Możemy też mówić o tech for not bad, czyli próbach eliminowania ryzyka, które mogłoby się pojawić w kontekście tworzenia takich algorytmów. I możemy mieć różne wizje, a moje narzędzie prowadzi zespół przez rozmaite krytyczne pytania i ćwiczenia, pozwalając spojrzeć na budowany model AI znacznie szerzej i bardziej świadomie. Jednym z moich ulubionych pytań jest: „Jak mógłby wyglądać odcinek Black Mirror z Twoim produktem? Co może pójść źle?”.
Inspiracją dla mojego warsztatu była koncepcja „model card”, która porządkuje wiedzę, oczekiwania ale też ograniczenia tworzonego modelu.
Model cards zyskują na popularności i już teraz posługują się nimi giganci, jak na przykład OpenAI, czy Meta. W dużym uproszczeniu model card to taka etykieta jak na żywność, tylko dla AI. To znaczy, że tak jak na produktach spożywczych możemy przeczytać skład czy sprawdzić wartość energetyczną (i zweryfikować czy jest to dla nas zdrowe, czy spełnia nasze wymagania), tak samo w model card możemy sprawdzić z jakich „składników” dany model sztucznej inteligencji został skonstruowany. Model card odpowiada na przykład na pytania dotyczące pochodzenia zbioru danych, na którym trenowano model, czy tego w jakim celu powinno się go stosować. Pojawia się też element analizy etycznej i wpływu modelu na środowisko.
Mimo wartościowych pytań, model cards w swojej obecnej formie to zazwyczaj zwykłe formularze wypełniane przez osoby techniczne. W efekcie, te techniczne informacje dominują, a aspekty dotyczące ograniczeń i rozważań etycznych modelu są często zaniedbane lub całkiem pomijane. W swoim projekcie dyplomowym postanowiłam zaadresować ten problem, oferując interaktywną formułę skierowaną do multidyscyplinarnych zespołów produktowych. Dzięki temu programistki, specjaliści data science, projektantki oraz managerowie mogą wspólnie dyskutować i analizować model z różnych perspektyw, co prowadzi do bardziej świadomych decyzji projektowych i biznesowych.
A to właśnie pierwszy krok w projektowaniu AI jako złożonego socjo-eko-technologicznego systemu.
—
- Problem został przybliżony między innymi w serialu Netflixa Seks, sieć i kasa: Historia Pornhuba, 2023. [przyp. K. Janota].
- Więcej można o tym poczytać w książce Kate Crawford Atlas Sztucznej Inteligencji. Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków, 2024 [przyp. K. Janota]
- Więcej o cognitive friction w tym ujęciu można przeczytać na przykład tutaj: https://stillweb.org/archives/575 [dostęp: 1.08.2024]