Ako ste se ikad povjerili Chat GPT-u, Groku ili nekom trećem AI modelu oko svojih misli i osjećaja, a on vam je udijelio savjet koji vas je umirio, stvorio osjećaj sigurnosti i odabrao prave riječi i ton, ne brinite! Niste ni prvi ni zadnji čiji je prompt glasio “Možeš li mi pojasniti što točno osjećam?”, a usput i čestitamo - postali ste dio još jednog zanimljivog trenda kojeg znanstvenici drže pod posebnim povećalom.
Upravo su njega počeli proučavati na Sveučilištu Waseda u Japanu kako bi bolje razumjeli odnos i uloge koje pojedinac može razviti u interakciji s umjetnom inteligencijom. Jedan od zaključaka je svakako da ljudske interakcije s AI-jem poprimaju karakteristike slične onima koje ljudi razvijaju jedni s drugima, s posebnim naglaskom na privrženost. U prijevodu, kako bi rekli razvojni psiholozi, ili nestrpljivo strepiš oko toga što će ti Chat GPT odgovoriti na gore postavljeno pitanje ili ti sama pomisao na takav niz događaja stvara nelagodu zbog čega preferiraš sve promatrati s ugodne emocionalne distance, objavili su istraživači Fan Yang i Atsushi Oshio sa spomenutog sveučilišta u online zborniku radova Current Psychology prošle godine.
U želji da stvore smjernice za daljnja istraživanja u pogledu odnosa AI-a i ljudi, u fokus su stavili iskustvo ispitanika koji su na posebnim skalama dali do znanja da se umjetnoj inteligenciji obraćaju za emocionalnu podršku i partnerstvo. Tada su saznali da joj se njih čak 75 % obratilo za savjet, a čak 39 % smatra da im je ona stalan i pouzdan dio svakodnevice. Ipak, kažu Yang i Oshio, takvi rezultati ne znače da ljudi stvaraju stvarnu emocionalnu povezanost s umjetnom inteligencijom. Čini se da je daleko od očiju, stvarno daleko od srca jer istraživanje, prema njima, samo demonstrira psihološke okvire karakteristične za ljudske odnose koji mogu poslužiti za etičko dizajniranje AI alata koji pomažu s teškoćama mentalnog zdravlja.
Kao primjer navode razvoj chatbotova i terapeutskih aplikacija koje bi razvile odnos s pojedincem i u obzir uzeli njegova individualna iskustva, osjećaje i želju da bolje reguliraju vlastito mentalno zdravlje. Odnosno, visoko anksioznim korisnicima bi trebao nuditi empatične odgovore i bodriti ih tijekom njihovih borbi, a s ovima koji su izbjegavajući tip trebaju održavati distancu. U teoriji, zvuči stvarno korisno, pogotovo kada u obzir uzmemo pandemiju teškoća mentalnog zdravlja u zadnjih pet godina kod svih demografskih skupina. Sve je to savršen poligon za testiranje granica koje nam tehnologija briše, ali i jasno demonstrira izazov da preispitamo vlastite kapacitete te uđemo i ostanemo u interakciji sa stvarnim ljudima.
Je li to lakše? Zasigurno nije, ali možemo se složiti da je stvarnije i korisnije kada govorimo o konstruktima poput emotivne otpornosti. Možda će neka istraživanja o AI-ju dati odgovore i na ta pitanja, ali zasad…ostaje dodatno upozorenje znanstvenika da postoji potreba za transparentnošću kod umjetne inteligencije koja simuliraa emocionalnu vezu s korisnicima, neovisno radi li se o aplikacijama ili robotima, a cilj je jasan: prevencija emocionalne ovisnosti i manipulacija.
O rizicima takvih psiholoških dinamika potrebno je educirati sebe i druge jer na kraju dana, bez obzira na naš stil privrženosti, svi trebamo sigurnost koja nije inducirana promptom.