Zašto je AGI obična distrakcija od stvarnih problema
Opsesija umjetnom općom inteligencijom (AGI) skreće pozornost s ključnih problema današnjih modela, poput pouzdanosti, sigurnosti i stvarne primjenjivosti.
Svi govore o AGI-ju. Investitori u Silicijskoj dolini, tehnološki novinari pa čak i obični korisnici društvenih mreža, stalno raspravljaju o trenutku kada će umjetna inteligencija postati pametnija od ljudi. No, dok svi gledaju u tu daleku i neizvjesnu budućnost, propuštaju ono što se događa pred njihovim nosom. Opsesija stvaranjem umjetne opće inteligencije postala je zgodan način za izbjegavanje stvarnih, svakodnevnih problema koje trenutni AI sustavi imaju danas.
Prevladavajuća priča
Priča koju nam najčešće serviraju glasi otprilike ovako: nalazimo se na eksponencijalnoj krivulji napretka. Današnji veliki jezični modeli, iako povremeno griješe, samo su korak na putu prema AGI-ju. Svaka nova verzija, svako novo ulaganje od nekoliko milijardi dolara, približava nas trenutku kada će strojevi moći obavljati svaki intelektualni posao bolje od čovjeka. U toj priči, svaki trenutni nedostatak, poput haluciniranja činjenica ili nemogućnosti rješavanja osnovnih logičkih zadataka, samo je prolazna faza koju će riješiti više procesorske snage i više podataka. Prema toj logici, ulaganje u sigurnost, pouzdanost i regulaciju trenutnih sustava manje je važno od utrke tko će prvi stići do mitskog AGI-ja.
Zašto je ta priča pogrešna ili nepotpuna
Problem s ovom pričom jest što ignorira stvarnost tehnologije koju trenutno imamo i koristimo. Sustavi na kojima danas radimo su iznimno sposobni alati za prepoznavanje uzoraka, ali oni ne razmišljaju, ne planiraju i ne razumiju svijet oko sebe. Oni jednostavno predviđaju sljedeću riječ na temelju ogromnih količina podataka.
Kada model halucinira, to nije prolazna pogreška na putu prema svijesti, već temeljna karakteristika načina na koji on radi. Kada model ne može pratiti jednostavne logičke korake u matematičkom zadatku, to nije dokaz da mu treba još malo vremena, već dokaz da ne posjeduje sposobnost deduktivnog zaključivanja.
Fokusiranjem isključivo na AGI, tehnološke kompanije izbjegavaju odgovornost za te nedostatke. Lakše je prodavati obećanje o savršenoj budućnosti nego popravljati dosadne probleme u sadašnjosti. Tko mari za to što vaš AI agent ponekad izmisli nepostojeći zakon kada piše pravni dokument, ako će za pet godina taj isti agent moći samostalno voditi cijelu odvjetničku tvrtku? Ovaj način razmišljanja stvara tehnološki dug koji svakim danom postaje sve veći.
Posljedice u stvarnom svijetu
Posljedice ovakvog pristupa su stvarne i mjerljive. Dok milijarde odlaze na pokušaje izgradnje većih modela u nadi da će se AGI nekako "spontano" pojaviti iz dovoljno velike količine parametara, inženjeri i tvrtke koje pokušavaju izgraditi korisne proizvode bore se s osnovnim problemima.
Bore se s nepredvidljivošću API-ja. Bore se s činjenicom da prompt koji je radio jučer ne radi danas, jer je model u pozadini "optimiziran". Bore se sa sigurnosnim propustima, poput mogućnosti da korisnik jednostavnim rečenicama natjera sustav da zanemari sve sigurnosne upute i napravi štetu.
Krajnji korisnici također gube. Umjesto visoko pouzdanih, specijaliziranih alata koji bi mogli automatizirati dosadne zadatke i povećati produktivnost, dobivaju nesavršene "opće" asistente kojima se ne može u potpunosti vjerovati. Gubimo priliku za rješavanje stvarnih problema danas, jer previše ljudi čeka da neki čarobni AGI riješi sve probleme sutra.
Završni stav
Vrijeme je da prestanemo tretirati AI kao znanstvenu fantastiku i počnemo ga tretirati kao softver. A softver mora biti pouzdan, mora biti predvidljiv i mora rješavati stvarne probleme korisnika, danas i sada. Umjesto da sanjamo o strojevima koji misle, trebali bismo se fokusirati na izgradnju alata koji rade. AGI može biti zanimljiva tema za filozofske rasprave, ali u stvarnom svijetu, to je distrakcija koja nas košta vremena, novca i stvarnog napretka.
Komentar objavljen na ShtefAI blog HR, autor: Shtef


