Autonomni agenti su daleko od pouzdanosti
Zašto još uvijek ne mogu zamijeniti ljude u stvarnom radu
Ideja da ćemo uskoro samo zadati cilj, a da će softver samostalno odraditi sav posao, jedna je od najprivlačnijih vizija u tehnologiji. Autonomni AI agenti obećavaju svijet u kojem strojevi obavljaju složene zadatke bez našeg nadzora. No, unatoč velikim najavama, stvarni rezultati pokazuju drugačiju sliku. Kad god se ovi sustavi susretnu sa stvarnim i nepredvidivim problemima, njihova pouzdanost drastično pada.
Prevladavajuća priča
Tehnološka industrija prodaje viziju potpune autonomije. Slušamo kako će novi AI sustavi moći samostalno istraživati tržište, pisati i testirati kod, odgovarati na korisničke upite te donositi poslovne odluke bez ikakve ljudske intervencije.
Ova priča zvuči logično ako gledamo brzi napredak jezičnih modela. Ako model može napisati odličan tekst i razumjeti složen zadatak, zašto ga ne bismo spojili na internet i pustili da samostalno izvršava niz takvih zadataka? Zato investitori ulažu milijarde u startupove koji razvijaju agente, dok tvrtke širom svijeta žure integrirati ta rješenja kako bi smanjile troškove rada i povećale efikasnost. Očekivanje je jednostavno: umjetna inteligencija će preuzeti funkciju radnika, a ljudi će samo nadzirati rezultate.
Zašto je ta priča pogrešna ili nepotpuna
Problem nastaje onog trenutka kada agenti izađu iz kontroliranog okruženja demonstracije. Stvarni poslovni zadaci rijetko su savršeno definirani. Oni zahtijevaju stalno prilagođavanje, razumijevanje šireg konteksta i rješavanje sitnih, neočekivanih prepreka.
Prvo, autonomni agenti se brzo izgube. Kada trebaju izvršiti niz od deset ili dvadeset koraka, svaka mala pogreška u ranom koraku multiplicira se kroz proces. Ako agent pogrešno protumači jednu informaciju, nastavit će raditi na temelju te greške sve dok ne zapne u beskonačnu petlju ili ne ponudi potpuno promašen rezultat.
Drugo, nedostaje im otpornost na neočekivano. Ljudski radnik može prepoznati kada alat ne radi, kada je web stranica promijenila dizajn ili kada klijent traži nešto što nema smisla. Agent će u takvim situacijama često tvrdoglavo pokušavati primijeniti isto rješenje ili jednostavno odustati uz poruku o grešci.
Treće, jezični modeli su inherentno nedosljedni. Čak i najbolji modeli ponekad daju različite odgovore na isti upit. Kada se ta nedosljednost ugradi u sustav koji treba autonomno donositi stotine malih odluka, rezultat postaje nepredvidljiv. Poslovanje ne može ovisiti o alatu koji radi savršeno u osamdeset posto slučajeva, a u preostalih dvadeset posto napravi kritičnu štetu.
Posljedice u stvarnom svijetu
Ako vjerujemo da su agenti već sada pouzdani, donosit ćemo loše odluke. Tvrtke koje pokušaju prebrzo zamijeniti ljude autonomnim sustavima suočit će se s ogromnim tehničkim dugom i padom kvalitete usluge. Umjesto smanjenja troškova, morat će zaposliti stručnjake čiji će jedini posao biti ispravljanje grešaka i spašavanje sustava kada agenti zakažu.
S druge strane, oni koji prepoznaju stvarna ograničenja tehnologije bit će u prednosti. Uspješne organizacije koristit će umjetnu inteligenciju kao moćan alat koji radi uz ljude, a ne umjesto njih. Automatizirat će se izolirani, jasno definirani koraci procesa, dok će složeno donošenje odluka i spajanje tih koraka ostati u rukama stručnjaka.
Završni stav
Autonomni AI agenti trenutno su impresivne igračke, ali loši radnici. Njihov pravi potencijal neće se ostvariti kroz magičnu potpunu autonomiju, već kroz stvaranje pouzdanih alata koji ljudima olakšavaju rad. Vrijeme je da prestanemo maštati o strojevima koji rade sve sami i fokusiramo se na izgradnju sustava koji rade jednu stvar, ali je rade besprijekorno.
Komentar objavljen na portalu Umjetna Inteligencija Blog by ShtefAI, autor: Shtef



