Generalni direktor OpenAI-a, Sem Altman, nedavno je izrekao važno upozorenje o korišćenju ChatGPT-a kao sredstva za komunikaciju, naglašavajući da ova interakcija nije privatna i ne uživa pravnu zaštitu poput razgovora sa terapeutima. On ističe da čak i obrisani razgovori mogu biti obnovljeni iz pravnih i bezbednosnih razloga. U svetlu sve većeg broja korisnika koji se oslanjaju na ovaj alat veštačke inteligencije za terapeutske svrhe, njegovo upozorenje dolazi u pravi trenutak.
Altman je posebno ukazao na to da, iako su razgovori sa licenciranim terapeutima, lekarima i pravnicima zaštićeni zakonom, isti standardi se ne primenjuju na interakcije sa četbotovima. Ova razlika može postati problematična, s obzirom na to da mnogi korisnici, posebno mladi, traže emocionalnu podršku i savete u situacijama koje se tiču njihovih ličnih života.
„Ljudi razgovaraju o najličnijim stvarima u svom životu sa ChatGPT-om. Koriste ga kao terapeuta, savetnika za život… Kada se suočavaju s problemima u vezama, pitaju šta da rade“, rekao je Altman tokom intervjua s Teom Vonom. Ovaj trend ukazuje na sve veću zavisnost ljudi od veštačke inteligencije za emocionalnu podršku, što može biti opasno bez svesti o ograničenjima takvih alata.
Prema informacijama koje je izneo Altman, sve veći broj mlađih korisnika traži pomoć od ChatGPT-a u trenucima krize. Ipak, nova studija sa Univerziteta Stanford, koja još nije prošla stručno ocenjivanje, ukazuje na to da četbotovi za terapiju nisu adekvatno opremljeni da preuzmu odgovornost savetovanja. Istraživači su otkrili da ovi alati doprinose štetnim stigmatizacijama mentalnog zdravlja.
Studija je otkrila da četbotovi neadekvatno reaguju na različita stanja mentalnog zdravlja, često podstičući zablude i ne prepoznajući krize. Ova pitanja su u suprotnosti sa najboljim kliničkim praksama koje se očekuju od ljudi koji rade u mentalnom zdravlju. „Utvrdili smo da ovi četbotovi ne reaguje adekvatno na različita stanja mentalnog zdravlja, često ne prepoznajući ključne znakove krize“, istakli su istraživači.
Štaviše, studija naglašava da su ljudi očekivat će od terapeuta jednu vrstu pristupa, bez obzira na specifičnosti njihovog stanja, dok su četbotovi pokazivali preferencijalno ponašanje prema određenim problemima. Na primer, u slučajevima kao što su šizofrenija ili zavisnost od alkohola, četbotovi su se ponašali u skladu s društvenim stigmatizacijama, dok su sa stanjima poput depresije raspravljali na relativno lakši način.
Ova otkrića ukazuju na potrebu za oprezom prilikom korišćenja veštačke inteligencije u terapeutske svrhe. Iako ChatGPT može poslužiti kao alat za pokušaj samopomoći, on ne može zameniti stručnu pomoć licenciranih terapeuta koji su obučeni da prepoznaju i adekvatno reaguju na razne mentalne zdravstvene probleme. Zbog toga Altman naglašava značaj jasne edukacije korisnika o ograničenjima veštačke inteligencije, kao i potrebu za odgovarajućim regulacijama koje bi osigurale bezbednost korisnika.
U zaključku, dok se tehnologija brzo razvija i korisnici pronalaze nove načine korišćenja alata poput ChatGPT-a, važno je ne zaboraviti na moguće rizike i posledice ovakvog pristupa mentalnom zdravlju. Otvorena i transparentna diskusija o ovim pitanjima može pomoći kako korisnicima, tako i programerima, da bolje razumeju potencijalne prednosti i nedostatke korišćenja veštačke inteligencije u osetljivim oblastima poput mentalnog zdravlja. U tom kontekstu, odgovorno korišćenje tehnologije može biti ključno za zaštitu korisnika i unapređenje njihove dobrobiti.




