ChatGPT-5 uvodi značajnu promenu u pristupu odgovaranju na pitanja. Umesto da izmišlja odgovore kada nije siguran, ovaj novi model sada otvoreno priznaje da ne zna, čime se smanjuje rizik od „halucinacija“. Ova novina ima potencijal da izgradi veće poverenje među korisnicima, a ponašanje ChatGPT-5 postaje bliže ljudskom razmišljanju.
Veštačka inteligencija (AI) je odavno postala deo našeg svakodnevnog života, a jedno od ključnih pitanja jeste koliko su njeni odgovori zaista pouzdani. Veliki jezički modeli često deluju samouvereno, bez obzira na tačnost svojih odgovora. Ova sklonost ka halucinaciji stvorila je nezadovoljstvo kod korisnika i izazvala poteškoće za timove razvijače tehnologije.
Nedavna objava na mreži X izazvala je veliku pažnju kada je digitalni kreator Kol Tregaskes podelio odgovor ChatGPT-5 na pitanje: „Ne znam – i ne mogu pouzdano da saznam.“ Ovaj trenutak je bio značajan jer prethodni modeli gotovo nikada nisu priznali svoje neznanje, često izmišljajući izvore, brojeve ili citate.
Ova iskrenost predstavlja nov put ka transparentnosti i umesto fabrikovanju sadržaja. Kada chatbot odbija da izmisli odgovor, potvrđuje se ideja da se poverenje gradi istinom, ne nagađanjem. Kroz takvu praksu, AI obezbeđuje da su korisnici informisani i da mogu doneti bolje odluke.
Razlog zbog kojeg dolazi do halucinacija leži u načinu na koji modeli funkcionišu. Za razliku od pretraživača koji izvode podatke iz baze činjenica, veliki jezički modeli predviđaju sledeću najverovatniju reč na osnovu obrazaca u podacima na kojima su trenirani. Kada primi složeno ili specifično pitanje, oni ne traže informacije, već pokušavaju da sastave logičan odgovor, što često dovodi do izmišljenih detalja.
Upozorenja o nepouzdanosti AI sistema su prisutna već dugo, ali ih korisnici često zanemaruju. Ipak, kada veštačka inteligencija otvoreno priznaje da na nešto ne može da odgovori, ono što ipak izgovara deluje uverljivije. Dok neki smatraju da je priznanje „ne znam“ znak slabosti, drugi to vide kao dokaz ozbiljnosti i odgovornosti.
Na izvestan način, ovakav pristup čini ChatGPT-5 ljudskijim. Ako veštačka opšta inteligencija (AGI) treba da imitira čoveka, onda mora odražavati ne samo znanje, već i nesigurnost. Ponekad, najveća mudrost leži u priznavanju granica onoga što znamo.
Ova promjena može imati dalekosežne posledice za interakciju korisnika sa AI. U svetu u kojem informacije teku brzinom svetlosti, sposobnost da se prizna neznanje može postati ključni aspekt u građenju poverenja. Korisnici su često preplavljeni informacijama, a ovakva iskrenost može biti osveženje i poziv na stvarnije i autentičnije komunikacije.
Osim toga, ChatGPT-5 može postati alat koji ne samo da pomaže korisnicima u rešavanju problema, već ih i podstiče na razmišljanje o prirodi znanja i verovanja. U eri kada je sve više informacija dostupno, postavlja se pitanje kako možemo razlikovati istinu od fikcije. Otvorenost AI da ne zna može pobuditi dublje umne diskusije o stvaranju i vrednovanju znanja.
Ova tranformacija može doprineti razvoju novih normi u korišćenju veštačke inteligencije. Ako modeli poput ChatGPT-5 postanu standardi, to može promeniti način na koji se razvijaju drugi AI alati i sistemi, podstičući ih da počnu uvažavati istinu i priznati svoje granice.
Na kraju, razvoj poput ovog donosi nadu za budućnost AI interakcije. Moguće je da će AI postati ne samo korisniji alati, već i partneri koji cene otvorenost i transparentnost. Na taj način, veštačka inteligencija bi mogla postati istinski korisna u našem svakodnevnom životu, stvarajući nove vrednosti i kako u tehnologiji, tako i u međuljudskim odnosima.




