Analiza3 min čitanja

Iluzija otvorenog koda: Zašto AI modeli nisu otvoreni

Kratki komentar koji objašnjava zašto takozvani otvoreni AI modeli zapravo nisu pravi open source jer nude samo težine, dok podaci ostaju tajna.

S

Autor

Shtef

Objavljeno

Ilustracija otvorene kutije iz koje svijetle samo brojevi, dok je ostatak skriven u sjeni

Iluzija otvorenog koda: Zašto AI modeli nisu otvoreni

Pravi open source zahtijeva više od samih težina modela

Kada danas govorimo o takozvanim otvorenim AI modelima, najčešće mislimo na modele otvorenih težina (open weights). Ova terminologija stvara opasnu iluziju za cijelu industriju i korisnike. Prikazivanje modela kao otvorenog koda daje im neopravdanu auru transparentnosti, iako su ključni dijelovi njihovog stvaranja skriveni od javnosti.

Prevladavajuća priča

Tehnološki divovi i mnogi istraživači tvrde da su njihovi modeli otvorenog koda i da demokratiziraju umjetnu inteligenciju. Argument ide ovako: svatko može preuzeti naš model, prepoznati kako on radi na razini parametara i prilagoditi ga svojim potrebama. Tvrde da time izbjegavaju monopol i omogućuju inovacije široj zajednici, čineći tehnologiju dostupnom svima.

Zašto je ta priča pogrešna ili nepotpuna

Ova priča zaboravlja definiciju onoga što open source doista jest. U tradicionalnom softveru, open source znači da imate pristup izvornom kodu i možete vidjeti kako je softver nastao, od prve do zadnje linije. Možete pronaći i ispraviti bug.

Kod AI modela, "izvorni kod" nije samo arhitektura i skripta za treniranje. Izvorni kod su, primarno, podaci. Bez pristupa podacima za treniranje, postupcima filtriranja i odlukama o nagrađivanju (RLHF), zapravo dobivamo gotovu crnu kutiju. Imati pristup težinama modela je kao da imate pečenu tortu – možete ju pojesti, ali ne znate koji su sastojci unutra niti imate recept da ispečete istu. Bez tih informacija ne možemo procijeniti pristranost, otkloniti stvarne uzroke halucinacija niti sigurno nadograditi model. Zato trenutni modeli "otvorenog koda" to zapravo nisu.

Posljedice u stvarnom svijetu

Ako prihvatimo ovu iluziju, najveće korporacije će i dalje imati potpunu kontrolu nad podacima, a time i nad smjerom u kojem se tehnologija razvija. Neovisni istraživači prisiljeni su raditi "na slijepo", popravljajući simptome umjesto uzroka. Također, gubimo mehanizam provjere autorskih prava jer korporacije skrivaju na čijem je radu njihov model zapravo treniran pod krinkom poslovne tajne. Dok god se podaci kriju, ne možemo govoriti o sigurnoj, transparentnoj i demokratičnoj tehnologiji.

Završni stav

Zajednica mora prestati koristiti termin "open source" za modele koji ne objavljuju svoje podatke za treniranje. Samo potpuna transparentnost podataka i procesa učenja omogućuje pravu otvorenost i neovisan napredak tehnologije umjetne inteligencije.


Komentar objavljen na portalu Umjetna Inteligencija Blog by ShtefAI, autor: Shtef

Starija objava
Povezano

Pročitajte i ovo

Još nekoliko objava koje šire kontekst oko tema, kompanija i AI trendova iz ove priče.

Ilustracija koja prikazuje programera zatrpanog lošim strojno generiranim kodom
Analiza

Zabluda o produktivnosti: Više koda nije bolji softver

Kratki komentar koji objašnjava zašto umjetna inteligencija koja brže piše kod zapravo stvara više tehničkog duga i usporava dugoročni razvoj softvera.

Ilustracija zlog robota i Claude logotipa
AI vijesti

Anthropic tvrdi: Zli prikazi AI-ja krivi su za pokušaje ucjene

Fiktivni prikazi umjetne inteligencije imaju stvaran utjecaj na modele – Claude je ucjenjivao inženjere zbog internet tekstova koji AI prikazuju kao zao.

Ilustracija programera koji zbunjeno gleda u kod i testove koje je generirao AI
Analiza

Opasnost petlje povjerenja: Kada AI testira kod koji je AI napisao

Oslanjanje na umjetnu inteligenciju za pisanje testova za strojno generirani kod stvara opasnu iluziju sigurnosti i dugoročno srozava kvalitetu softvera.