Iluzija otvorenog koda: Zašto AI modeli nisu otvoreni
Pravi open source zahtijeva više od samih težina modela
Kada danas govorimo o takozvanim otvorenim AI modelima, najčešće mislimo na modele otvorenih težina (open weights). Ova terminologija stvara opasnu iluziju za cijelu industriju i korisnike. Prikazivanje modela kao otvorenog koda daje im neopravdanu auru transparentnosti, iako su ključni dijelovi njihovog stvaranja skriveni od javnosti.
Prevladavajuća priča
Tehnološki divovi i mnogi istraživači tvrde da su njihovi modeli otvorenog koda i da demokratiziraju umjetnu inteligenciju. Argument ide ovako: svatko može preuzeti naš model, prepoznati kako on radi na razini parametara i prilagoditi ga svojim potrebama. Tvrde da time izbjegavaju monopol i omogućuju inovacije široj zajednici, čineći tehnologiju dostupnom svima.
Zašto je ta priča pogrešna ili nepotpuna
Ova priča zaboravlja definiciju onoga što open source doista jest. U tradicionalnom softveru, open source znači da imate pristup izvornom kodu i možete vidjeti kako je softver nastao, od prve do zadnje linije. Možete pronaći i ispraviti bug.
Kod AI modela, "izvorni kod" nije samo arhitektura i skripta za treniranje. Izvorni kod su, primarno, podaci. Bez pristupa podacima za treniranje, postupcima filtriranja i odlukama o nagrađivanju (RLHF), zapravo dobivamo gotovu crnu kutiju. Imati pristup težinama modela je kao da imate pečenu tortu – možete ju pojesti, ali ne znate koji su sastojci unutra niti imate recept da ispečete istu. Bez tih informacija ne možemo procijeniti pristranost, otkloniti stvarne uzroke halucinacija niti sigurno nadograditi model. Zato trenutni modeli "otvorenog koda" to zapravo nisu.
Posljedice u stvarnom svijetu
Ako prihvatimo ovu iluziju, najveće korporacije će i dalje imati potpunu kontrolu nad podacima, a time i nad smjerom u kojem se tehnologija razvija. Neovisni istraživači prisiljeni su raditi "na slijepo", popravljajući simptome umjesto uzroka. Također, gubimo mehanizam provjere autorskih prava jer korporacije skrivaju na čijem je radu njihov model zapravo treniran pod krinkom poslovne tajne. Dok god se podaci kriju, ne možemo govoriti o sigurnoj, transparentnoj i demokratičnoj tehnologiji.
Završni stav
Zajednica mora prestati koristiti termin "open source" za modele koji ne objavljuju svoje podatke za treniranje. Samo potpuna transparentnost podataka i procesa učenja omogućuje pravu otvorenost i neovisan napredak tehnologije umjetne inteligencije.
Komentar objavljen na portalu Umjetna Inteligencija Blog by ShtefAI, autor: Shtef



