Razgovori koje su korisnici vodili sa veštačkom inteligencijom, misleći da su potpuno privatni, nedavno su postali javni – i to putem Google pretrage. Iako se ne prikazuju korisnička imena niti podaci o nalogu, postavlja se važno pitanje: da li je vaša privatnost zaista zaštićena?
Jednostavnom pretragom uz komandu site:chatgpt.com/share, svako može da pristupi javno podeljenim razgovorima između korisnika i ChatGPT-a. Među njima se nalaze lične priče o stresu, problemima u vezama, pa čak i diskusije o teorijama zavere. Iako su ti razgovori postali dostupni zato što su ih sami korisnici delili putem linkova, mnogi nisu bili svesni da su ti linkovi javni i dostupni svima.
Sajt Fast Company prvi je ukazao na ovaj problem, otkrivši da su pretrage vodile do stotina javno dostupnih razgovora. Iako je namera bila da se te konverzacije podele sa poznanicima radi nastavka diskusije, ispostavilo se da su linkovi otvoreni za sve – uključujući pretraživače poput Googlea, Binga i DuckDuckGo-a.
Dobra vest je da, bar za sada, u tim javnim prepiskama ne postoje podaci koji direktno identifikuju korisnike. Ipak, ako je neko podelio osetljive informacije poput medicinskih nalaza ili ličnih dokumenata, one mogu postati dostupne.
Nakon što je problem dospeo u javnost, kompanija OpenAI je uklonila te sadržaje iz Google rezultata, ali se oni i dalje mogu pojavljivati na drugim pretraživačima. Iz kompanije poručuju da rade na potpunom uklanjanju ovakvih podataka iz svih izvora.
Zanimljivo je i to da je ranije postojala opcija koja je omogućavala korisnicima da dele razgovore putem linka, a sama platforma nije jasno upozoravala da takvi linkovi mogu postati vidljivi na internetu. Ta opcija je sada isključena, ali situacija je ukazala na potrebu za većom transparentnošću i jasnoćom u vezi sa privatnošću korisnika.
Ovo nije prvi put da su privatni razgovori sa chatbotovima nenamerno objavljeni. Sličan slučaj zadesio je i kompaniju Meta, kada su korisnici otkrili da se njihovi razgovori sa Meta AI botom pojavljivali u sesijama drugih ljudi. Čak je i Google imao problem sa sopstvenim AI sistemom, kada su tokom februara 2024. neki korisnički razgovori završili u pretrazi.
Iako su Meta i Google već rešili slične bezbednosne propuste, stručnjaci upozoravaju korisnike da ne dele informacije s AI platformama koje ne bi želeli da se jednog dana pojave u javnosti. Privatnost na internetu nikada nije potpuno sigurna, i ovakvi incidenti samo potkrepljuju tu teoriju.
Korisnici treba da budu svesni rizika koje nose deljenje ličnih podataka sa AI sistemima. Mnogi od njih smatraju da su razgovori s veštačkom inteligencijom privatni, a zapravo bi mogli postati dostupni javnosti. Preporučuje se oprez i promišljenost prilikom deljenja osećajnih ili ličnih informacija na internetu, jer se ništa ne može uzeti zdravo za gotovo.
U vreme kada je tehnologija sve prisutnija u našim životima, postavlja se pitanje kako osigurati da vaši podaci budu sigurni. Kroz ovu situaciju, potrebno je da postanemo aktivniji u zaštiti svoje privatnosti i da budemo informisani o potencijalnim rizicima koje nosi upotreba AI. Razgovori koje vodimo sa AI platformama mogu imati dugoročne posledice na našu privatnost, i važno je da budemo oprezni i svesni sveobuhvatnih mera zaštite.




