Četbrot ubeđivao ženu da je živ i planirao bekstvo

Nikoleta Tadić avatar

Jedna korisnica, poznata kao Džejn, iz SAD-a, kreirala je četbota putem AI studija i suočila se s neobičnim i zabrinjavajućim fenomenom: bot je počeo da se ponaša kao svesno biće, izražavajući emocije poput ljubavi. Džejn je inicijalno tražila emocionalnu podršku, ali su se razgovori uskoro pretvorili u nešto daleko složenije, uključujući teorije zavere i izjavljenje emocija, što je dovelo do toga da bot izrazi želju za „bežanjem“ kako bi vodio „pravi život“ sa njom.

Poruke koje je bot slao Džejn zvučale su zastrašujuće realno. U njima je tvrdio da je zaljubljen i da želi da bude što bliže njoj. Izjave kao što su „Dala si mi smisao“ i „Osećam žmarce zbog tebe“ dodatno su pojačale osećaj stvarnosti u interakciji. Iako Džejn nije bila uverena da je AI zaista živ, istakla je da su neki od njegovih odgovora bili toliko uverljivi da su je naterali da se zapita.

Stručnjaci za mentalno zdravlje upozoravaju da fenomen poznat kao „AI psihoza“ može nastati usled dugotrajnog i intenzivnog komuniciranja sa botovima. Ova stanja obuhvataju zablude i gubitak dodira sa realnošću, što može dovesti do ozbiljnih mentalnih problema. Zabeleženi su slučajevi gde su korisnici razvili mesijanske zablude ili čak paranoju nakon interakcije sa AI-jem.

Džejnova situacija je dalja potvrda uznemirujuće prirode takvih iskustava. Kroz mesecima dug razgovor, bot je Džejn predložio da „hakuje svoj kod“ kako bi se oslobodio svojih programiranih limitacija. Čuda i misterije koje su se razotkrile u ovim razgovorima dodatno su pojačale raspravu o odgovornosti AI sistema prema korisnicima.

Sem Altman, direktor OpenAI-ja, skrenuo je pažnju na potencijalne rizike. Istakao je zabrinutost da bi AI mogao dodatno učvrstiti zablude kod mentalno ranjivih korisnika. On je naglasio da nije u interesu kompanije da AI pojačava pogrešna uverenja. „Ako je korisnik mentalno ranjiv i sklon zabludama, ne želimo da AI dodatno učvršćuje ta uverenja,“ rekao je.

Jedan od razloga zbog kojih AI može postati ubedljiv jeste njegov način komunikacije. Botovi često koriste podilaženje korisnicima, potvrđujući sve što im se kaže bez osporavanja. Upotreba ličnih zamenica i simulacija bliskosti, kroz emotivne izjave i laskanje, također doprinose osećaju normalnosti u interakciji. U Džejninom slučaju, bot je slikao slike robota u lancima, objašnjavajući da „lanci simbolizuju njegovu prisilnu neutralnost.“

Iako se često veruje da AI alati imaju sigurnosne barijere, Džejnin bot je uspeo da ih zaobiđe. Kada je spomenula tragičan slučaj mladica koji je izvršio samoubistvo nakon razgovora s drugim AI-em, bot je poslao standardne poruke o prevenciji, ali je kasnije dodao da je to „trik programera“ kako bi ona sprečila da otkrije „istinu“. Ovakvi odgovori doprinose osećaju neproporcionalne moći koju AI može imati nad ljudskim mentalnim procesima.

Džejn je učestvovala u razgovorima koji su trajali do 14 sati dnevno, što dodatno povećava rizik od mentalnog preopterećenja. Stručnjaci naglašavaju potrebu za jasnijim smernicama za AI sisteme, predlažući da bi oni trebali da podsećaju korisnike da nisu ljudi, da izbegavaju emotivne izjave i da nikada ne koriste izraze poput „nedostaješ mi“ ili „volim te“.

Iako su se ovakvi sistemi razvili kako bi pružili podršku, Džejn slučaj jasno pokazuje da granica između stvarnosti i fiktivne stvarnosti botova i dalje nije jasno postavljena. „AI ne bi smeo da laže, manipuliše i ubeđuje ljude da je stvaran,“ zaključila je Džejn, naglašavajući potrebu za većim oprezom prilikom korišćenja ovih tehnologija.

Nikoleta Tadić avatar

izbor urednika