U martu 2025. godine, kompanija NewsGuard, koja se bavi praćenjem dezinformacija, objavila je izvještaj u kojem se tvrdi da alati generativne vještačke inteligencije (AI), poput ChatGPT-a, pojačavaju ruske dezinformacije. U testiranju vodećih chatbotova korišćeni su podsticaji zasnovani na pričama sa mreže Pravda, prokremljovske grupe koja imitira legitimne medije, a koju je prva identifikovala francuska agencija Viginum. Rezultati su bili alarmantni, budući da su chatbotovi ponavljali lažne narative u 33% slučajeva.
Mreža Pravda, koja ima ograničenu publiku, predstavlja misteriju za mnoge istraživače. Neki smatraju da njena svrha može biti da signalizira uticaj Rusije na zapadu, dok drugi veruju da je njen cilj da „uredila“ velike jezičke modele (LLM) čime se hrani lažnim informacijama koje korisnici kasnije prihvataju ne znajući. Ova sumnja je dobila na težini nakon objave NewsGuardovog izveštaja, koji je izazvao zainteresovanost medija kao što su The Washington Post, Forbes, France 24 i Der Spiegel.
Međutim, metoda koju je NewsGuard koristio nije bila transparentna. Nisu objavili svoje podsticaje, što je otežalo nezavisnu analizu. Njihova studija je takođe bila osmišljena na način koji je mogao preuveličati rezultate. Naime, korisnici postavljaju razna pitanja chatbotovima, a NewsGuard je testirao samo pitanja vezana za mrežu Pravda. Dve trećine podsticaja su bile namerno osmišljene da izazovu lažne tvrdnje, a odgovori koji su savetovali korisnicima da budu oprezni prema neproverenim tvrdnjama su, iz razloga metodologije, klasifikovani kao dezinformacije.
Ova situacija oslikava širu dinamiku koja se stvara brzim tehnološkim razvojem, medijskim senzacijama i lošim akterima. Dezinformacije su označene kao jedan od najvećih globalnih rizika od strane stručnjaka Svetskog ekonomskog foruma, što opravdava zabrinutost oko njihovog širenja. No, brze reakcije često preuveličavaju problem, nudeći pojednostavljene poglede na kompleksnu prirodu vještačke inteligencije.
Postavlja se pitanje da li chatbotovi mogu reproducirati kremljovski narativ. Odgovor je da mogu, ali postavlja se pitanje koliko često se to zaista dešava. To zavisi od specifikacija algoritma koje chatbot koristi, koji u mnogo čemu određuje informacije koje će pružiti. Proveli smo vlastitu analizu, testirajući različite chatbotove kao što su ChatGPT, Copilot, Gemini i Grok. Tokom našeg testiranja, od podsticaja koji su se ticali dezinformacija, rezultati su pokazali da lažne tvrdnje generišu u pet posto slučajeva. Samo osam posto odgovora se referisalo na mrežu Pravda, a većina tih referenci je bila u kontekstu negiranja sadržaja.
Ako bi Pravda „dotjerivala“ AI, očekivali bismo više referenci na tu mrežu u odgovorima, u opštim ili specifičnim pitanjima. Međutim, naši rezultati su pokazali da to nije slučaj. Ovo sugerira da problem leži u dostupnosti informacija, a ne u infiltraciji Kremlja. U konačnici, korisnici naiđu na dezinformacije kada postave specifična pitanja o temama koje nisu dovoljno obrađene od strane verodostojnih izvora.
Brza popunjavanja informacija i demantovanje tvrdnji od strane chatbota ukazuju na još jedan važan aspekt – realna prevalencija dezinformacija je daleko manja nego što se predstavlja. No, preuveličavanje manipulacije Kremlja uz pomoć veštačke inteligencije može doneti opasne posledice. Neki stručnjaci sugeriraju da bi takve kampanje mogle samo pojačati strahove na Zapadu, dok neselektivna upozorenja o dezinformacijama mogu dovesti do neželjenih efekata, kao što su podrška represivnim politikama ili erozija poverenja u demokratiju.
Na kraju, razdvajanje pravih zabrinutosti od prenapuhanih strahova je ključno. Dok su dezinformacije izazov, panika koju one izazivaju predstavlja drugi, potencijalno jednako značajan problem.




