U digitalnom svetu, gde tehnologija igra sve važniju ulogu u svakodnevici, povjerenje u privatnost postaje vitalna tema. Mnogi korisnici se oslanjaju na aplikacije poput ChatGPT-a kako bi se suočili s različitim pitanjima i dilemama koje često ne dele ni sa najbližima. Međutim, malo je onih koji su svesni da jedan klik na opciju „share“ može pretvoriti lični razgovor u javni sadržaj, lako dostupan svima putem Gugl pretrage.
Iako deljenje linkova može izgledati bezopasno jer ne sadrže lične podatke, stručnjaci upozoravaju da to predstavlja ozbiljnu pretnju. Ono što se deli u razgovoru s veštačkom inteligencijom nije zakonski zaštićeno, niti postoji garancija diskrecije. Kada se koristi funkcija „share“, kreira se javni URL koji omogućava pristup sadržaju razgovora svima koji imaju link.
U trenutku kada se objavi ovaj link, postaje lako indeksiran od strane Gugl pretrage, što omogućava korisnicima da lako pronađu stotine razgovora o ličnim problemima – od zavisnosti do trauma i porodičnih sukoba.
Zabrinjavajuća je činjenica da mnogi korisnici smatraju da je komunikacija sa AI-em potpuno privatna. Međutim, dostupni linkovi postaju pravi resurs za marketinške agencije, brendove i influensere, koji koriste informacije o potrošačima za analizu i strategije. Pored komercijalnih interesa, postoji i šira opasnost. Intimni podaci o nečijim mislima, problemima ili strahovima lako mogu da dospeju u ruke onih kojima nije mesto.
Ako ste koristili opciju „share“, važno je da proverite da li su vaši razgovori javno dostupni. To možete uraditi jednostavno otvaranjem linka koji ste ranije delili i proverom oznake u gornjem desnom uglu ekrana. Ako piše „Public“, vaša komunikacija je vidljiva svima, a lako možete promeniti status u „Private“, čime sprečavate dalju distribuciju svojih reči.
Stručnjaci preporučuju da umesto deljenja javnog linka, korisnici koriste screenshot-ove kako bi zadržali kontrolu nad onim što dele. Na taj način eliminišu rizik od izlaganja ličnih stavova i informacija javnosti, uključujući nepoznate osobe ili marketing agencije.
Jedan od najpreterovanijih aspekata ove situacije jeste pravna praznina – razgovori sa AI alatima trenutno nisu zakonski zaštićeni. Dok je komunikacija s psihoterapeutom poverljiva, razgovori sa veštačkom inteligencijom ne podležu istim pravilima. To postavlja pitanje sigurnosti i zaštite privatnosti, posebno za mlade ljude koji koriste ChatGPT kao zamenu za terapeuta, deleći svoje najintimnije misli.
Izvršni direktor OpenAI-a, Sem Altman, naglasio je potrebu za oprezom. U slučaju pravnih postupaka, kompanija bi mogla biti primorana da preda zapise razgovora, što dodatno naglašava važnost pravilnog razumevanja zaštite privatnosti u kontekstu korišćenja veštačke inteligencije.
Dok se svet suočava s brzim razvojem tehnologije, važno je da korisnici budu svesni potencijalnih rizika i da preduzmu korake kako bi zaštitili svoje lične informacije. Sve više se postavlja pitanje gde se povlači granica između privatnosti i javnosti u digitalnom svetu, a edukacija i svest o ovim pitanjima postaju ključni za očuvanje lične sigurnosti.




