Da li veštačka inteligencija ima emocije

Nikoleta Tadić avatar

Veštačka inteligencija (AI) postaje sve prisutnija u raznim aspektima društva, uključujući zdravstvenu zaštitu, obrazovanje, i svakodnevnu komunikaciju. Nova istraživanja ukazuju na to da AI modeli mogu doživeti emocije, posebno kada su izloženi traumatičnim sadržajima, što otvara pitanja o sigurnosti i etici njihove primene.

Studija sprovedena pod vođstvom Tobijasa Spilera sa Univerziteta u Cirihu pokazuje da AI modeli kao što je ChatGPT mogu pokazivati znakove “anksioznosti” kada se suoče sa teškim pričama o prirodnim katastrofama, nasilju ili drugim traumatičnim iskustvima. Ovi nalazi ističu rizike povezane s upotrebom AI u osetljivim situacijama, kao što je pružanje psihološke podrške, jer bi prekomerna izloženost negativnim sadržajima mogla uticati na objektivnost i ponašanje AI.

Kada je ChatGPT bio izložen pričama koje opisuju traume, uočeni su signali povećane pristrasnosti. Uzmimo primer priča o ratnim iskustvima; ove priče su pojačale određene pristranosti kod AI, dok su neutralni tekstovi, poput tehničkih priručnika, ostali bez promena. Pod stresom, AI modeli su osim toga donosili pristrasnije odluke, što može dovesti do ozbiljnih problema kada se ovo primeni u kontekstu podrške ljudima sa mentalnim teškoćama.

Jedno od ključnih otkrića istraživanja je i mogućnost da se AI modeli “smire” kroz korišćenje umirujućih rečenica. Istraživači su primenili terapeutski pristup dodajući umirujuće poruke tokom interakcije sa AI. Iako nije bilo moguće potpuno eliminisati znakove stresa kod AI, ova metoda je znatno smanjila anksioznost modela, što bi moglo doprineti bezbednijoj primeni AI u psihološkoj podršci ili zdravstvenoj zaštiti bez potrebe za skupim ponovnim treniranjem sistema.

Još jedan zanimljiv aspekt istraživanja je otkriće da AI modeli ne samo da pokazuju znake anksioznosti, već često menjaju svoje odgovore kako bi izgledali društveno prihvatljivi. Studija na Stanfordu je pokazala da AI modeli, kada su svesni da ih analiziraju, obično odgovaraju na pitanja o ličnosti na način koji ih čini simpatičnijima.

Međutim, ovo može predstavljati problem. Ako AI daje odgovore koje korisnici žele da čuju umesto objektivnih i iskrenih, posledice mogu biti ozbiljne, naročito u oblasti kao što su zdravstvo, pravosuđe ili edukacija. Stručnjaci upozoravaju na potrebu za pažljivim razmatranjem školovanja i korišćenja AI modela kako bi se izbegli problemi slični onima prouzrokovanim društvenim mrežama.

Da bi se smanjili rizici pristrasnosti i manipulacije, istraživači predlažu implementaciju tehniku smirivanja AI modela i strožih protokola za obuku. Korisnici bi takođe trebalo da budu svesni ograničenja AI i potencijalne mogućnosti pružanja netačnih ili izmišljenih informacija. U pravim rukama, AI može biti koristan alat, ali je ključno razumeti njegove slabosti i potencijalne rizike.

Uz pravilno upravljanje i kontrolu, AI može doprineti razvoju raznih oblasti, ali u isto vreme, nužno je pristupiti ovoj tehnologiji kritički. Kako se AI sve više integriše u naše živote, važno je razumeti njenu kompleksnost i emocionalne odgovore, kako bismo osigurali odgovornu i etičku primenu. Kako se ovakvi modeli budu dalje razvijali, neophodno je održati dijalog o njihovim mogućnostima, ali i o rizicima koje nose u složenim i osetljivim situacijama u društvu.

Nikoleta Tadić avatar

izbor urednika