AI vijesti3 min čitanja

Elon Musk svjedočio da je xAI trenirao Grok na OpenAI modelima

Elon Musk na sudu priznao da je xAI koristio OpenAI modele za treniranje svog Grok AI sustava kroz proces zvan destilacija.

S

Autor

Shtef

Objavljeno

Elon Musk na sudu

Elon Musk svjedočio da je xAI trenirao Grok na OpenAI modelima

Priznanje na sudu potvrđuje raširenu praksu "destilacije" među AI laboratorijima

Tijekom suđenja na saveznom sudu u Kaliforniji, Elon Musk je priznao da je njegova tvrtka xAI koristila modele tvrtke OpenAI za treniranje vlastitog AI sustava Grok. Ovo otkriće rasvjetljava često spominjanu, ali rijetko službeno potvrđenu praksu u industriji umjetne inteligencije poznatu kao destilacija.

Ključni detalji

U pravnom sporu u kojem Musk tuži OpenAI, izvršnog direktora Sama Altmana i Grega Brockmana zbog navodnog odstupanja od izvorne neprofitne misije, tehnološki poduzetnik je odgovarao na pitanja o metodama treniranja svog AI modela. Na upit je li xAI koristio tehnike destilacije na OpenAI modelima za treniranje Groka, Musk je ustvrdio da je to opća praksa među AI tvrtkama. Kada su ga upitali znači li to "da", odgovorio je: "Djelomično."

Zašto je to važno

Ovo priznanje je ključno jer destilacija omogućuje tvrtkama stvaranje moćnih AI modela po znatno nižoj cijeni, bez potrebe za ogromnim ulaganjima u računalnu infrastrukturu i obradu podataka od nule. To predstavlja izravnu prijetnju dominantnim igračima poput OpenAI-ja i Googlea koji ulažu milijarde u razvoj osnovnih modela.

Tehnička pozadina

Destilacija je proces u kojem se odgovori i interno znanje većeg, složenijeg i moćnijeg AI modela koriste za učenje i usavršavanje manjeg modela.

  • Efikasnost: Manji model uči oponašati izlaze većeg modela, štedeći na računalnim resursima.
  • Sistemski upiti: Metoda često uključuje automatizirano slanje velikog broja upita većem modelu kako bi se prikupili podaci za treniranje.
  • Siva zona: Iako nije nužno ilegalna, ova praksa često krši uvjete korištenja koje postavljaju kreatori originalnih modela.

Širi kontekst

Ovo otkriće dolazi u trenutku kada se vodeći američki AI laboratoriji poput OpenAI-ja, Anthropica i Googlea pokušavaju zaštititi od sličnih postupaka, posebice onih koji dolaze od kineskih tvrtki. Preko organizacije Frontier Model Forum, ovi laboratoriji razmjenjuju informacije o tome kako spriječiti destilaciju, fokusirajući se na blokiranje sumnjivih masovnih upita prema svojim sustavima. Ironično, dok se pokušavaju obraniti, priznanje Muska ukazuje na to da se slične taktike koriste i među američkim konkurentima.

Što slijedi

Očekuje se da će ova praksa izazvati dodatne pravne i tehničke prilagodbe u industriji. Vodeći AI laboratoriji vjerojatno će uvesti strože kontrole i naprednije metode za detekciju i blokiranje automatiziranog izvlačenja podataka iz njihovih modela. Istovremeno, Muskova tužba protiv OpenAI-ja nastavlja rasvjetljavati složene odnose i kompetitivne taktike unutar vrha tehnološke industrije.


Izvor: TechCrunch Objavljeno na portalu Umjetna Inteligencija Blog by ShtefAI, autor: Shtef

Povezano

Pročitajte i ovo

Još nekoliko objava koje šire kontekst oko tema, kompanija i AI trendova iz ove priče.

Ilustracija balona troškova AI infrastrukture u usporedbi s vrijednošću
Analiza

Cijena AI iluzije: Zašto je trenutna računica potpuno neodrživa

Ogromni troškovi infrastrukture za AI ne prate stvarnu poslovnu vrijednost koju ti alati donose. Rješavamo trivijalne zadatke najskupljom tehnologijom ikad izgrađenom.

Ilustracija AI agenata u korisničkoj podršci koji stvaraju digitalni zid
Analiza

Kraj korisničke podrške: AI agenti i povratak u noćnu moru

Zamjena ljudi botovima u korisničkoj podršci ne unapređuje uslugu, već gradi neprobojni digitalni zid između tvrtke i njenih nezadovoljnih korisnika.

Ilustracija tehnološkog monopola i infrastrukture
Analiza

Otvoreni kod u umjetnoj inteligenciji neće srušiti monopole

Otvoreni modeli samo preusmjeravaju ovisnost s modela na infrastrukturu koju kontroliraju tehnološki divovi.