Razvoj veštačke inteligencije (AI) doživljava ogroman napredak, ali sa tim napretkom dolazi i nova pitanja i izazovi. Jedan od najnovijih incidenata koji je izazvao zabrinutost u svetu AI tehnologija je kopiranje OpenAI o1 modela, poznatog kao „Reasoner“.
Kineski istraživači su uspeli da naprave kopiju ovog modela, koji je ključan za razvoj opšte veštačke inteligencije (AGI), koristeći tehniku poznatu kao reverzni inženjering. Tim istraživača sa Univerziteta Fudan i Šangajske laboratorije za AI koristili su slične tehnike kao OpenAI kako bi replikovali ovaj model, koji se bazira na učenju putem nagrađivanja, pretrazi rešenja i iterativnom učenju. Kineski istraživači su takođe koristili inovativne pristupe, poput upotrebe sintetičkih podataka za obuku modela, što je omogućilo brže učenje i veću fleksibilnost modela.
I dok su kineski istraživači bili sposobni da otvoreno podele svoj model, OpenAI je prešao na zatvoreni sistem, ne deleći svoje tehnologije i razvojne strategije kao ranije. Kompanija ističe visoke troškove i sigurnosne rizike kao glavni razlog za ovu promenu, dok kritičari upozoravaju da su ove mere omogućile drugim zemljama, poput Kine, da koriste reverzni inženjering za repliciranje tih tehnologija i širenje AI alata na globalnom nivou.
Ova situacija otvara ozbiljna pitanja o bezbednosti i etičnosti u distribuciji moćnih tehnologija. S obzirom na to da je kineski tim otvorio svoj model, sada se suočavamo s novim izazovima u pogledu kontrole i regulacije razvoja veštačke inteligencije. Balans između sigurnosti, konkurencije i etičkih principa u razvoju i primeni AI alata postaje ključan, jer pristup ovim tehnologijama ne bi trebalo da bude samo pitanje tehničke sposobnosti, već i odgovornosti prema globalnoj zajednici.




