Google dugo nije imao pravu konkurenciju na tržištu pretraživanja, sve dok se nije pojavio ChatGPT, koji je drastično promenio način na koji korisnici pretražuju informacije. Umesto da traže odgovore kroz linkove koje im pruža pretraživač, korisnici sada imaju priliku da dobiju instant odgovore putem veštačke inteligencije. To znači da AI pretražuje internet i pruža odgovore na postavljena pitanja gotovo trenutno.
Međutim, uprkos popularnosti ChatGPT-a, njegovi odgovori nisu uvek tačni. Veštačka inteligencija može „halucinirati“, odnosno smišljati informacije koje nisu tačne. I pored ovoga, sve veći broj korisnika se odlučuje za korišćenje AI umesto tradicionalnog pretraživača, što je izazvalo zabrinutost kod Google-a, jer bi ovo moglo da ugrozi njihov poslovni model, posebno kada je reč o prihodima od oglašavanja.
Google je reagovao na ovu situaciju lansiranjem svog AI četbota, Geminija. Njegovo prvo predstavljanje nije bilo uspešno, jer su se pojavili problemi sa halucinacijama i pitanjima o njegovoj pravednosti. Na primer, Gemini je izbacivao fotografije tamnoputih Vikinga ili predstavljajuće pape kao ženu, što je izazvalo sarkastične komentare na mrežama, ali je istovremeno osramotilo kompaniju.
S obzirom na to, Google, kao i ostale kompanije koje se bave veštačkom inteligencijom, radili su na smanjenju halucinacija, ali one i dalje postoje. Razvoj AI sistema donosi i izazove. Google je predstavio AI Overviews, koji služi da direktno odgovara na upite na vrhu pretrage, čime se korisnicima omogućava brži i efikasniji pristup informacijama. Međutim, ovo može negativno uticati na sajmove, jer je zabeleženo da se broj klikova smanjuje za čak 40 do 60 procenata kada se prikaže Google-ov AI odgovor. Za korisnike, međutim, ovakav pristup može biti koristan, jer im štedi vreme.
Na papiru, AI alati kao što je Gemini deluju idealno, ali praksa pokazuje da i dalje nije imun na greške. Na primer, NY Post je izvestio o situaciji u kojoj je AI Overviews dao opasan savet o pravljenju pice, predlažući da se sir zalepi lepkom, što je potpuno neprihvatljivo i potencijalno opasno. Ovaj primer ilustruje rizik oslanjanja na veštačku inteligenciju za promociju grešaka.
Zabrinutost među stručnjacima raste, naročito zbog kompleksnih AI modela koji su skloniji greškama. OpenAI je nedavno potvrdio da njihovi novi modeli haluciniraju više nego prethodni, što ukazuje na izazove koji se javljaju sa napredovanjem tehnologije. Dok se očekuje da će AI aplikacije s vremenom postati bolje, uvek ostaje pitanje pouzdanosti i tačnosti njihovih odgovora.
U zaključku, iako veštačka inteligencija kao alat može značajno olakšati pretragu informacija, rizik od netačnih podataka i potencijalno opasnih saveta zahteva oprez. Kako se razvijaju nove AI tehnologije, važno je nastaviti sa radom na smanjenju grešaka i poboljšanju tačnosti, kako bi korisnici mogli s punim poverenjem da koriste ove alate za svakodnevne potrebe.




