U svijetu generativne umjetne inteligencije, gdje se utrka za većim, bržim i pametnijim modelima neprestano ubrzava, istraživači s prestižnog instituta MIT (Massachusetts Institute of Technology) upravo su predstavili rješenje koje bi moglo temeljito promijeniti pravila igre. Njihova nova metoda, predstavljena znanstvenoj zajednici ovog tjedna, ne fokusira se na puko povećanje veličine modela, već na drastično pametnije korištenje resursa kojima ti modeli već raspolažu.
Problem s kojim se industrija do sada suočavala bio je prilično bizaran, ali stvaran: većina velikih jezičnih modela (LLM) pristupa svakom pitanju s istom "količinom" razmišljanja. Bilo da korisnik pita "Koliko je 2 plus 2?" ili traži složenu analizu geopolitičke situacije u 19. stoljeću, standardni modeli često alociraju fiksni računalni budžet. To rezultira golemim rasipanjem energije na trivijalne upite, dok istovremeno složeni problemi ne dobivaju dovoljno "kognitivne" pažnje potrebne za točno rješavanje.
Upravo tu na scenu stupa tim s MIT-a i njihov revolucionarni pristup nazvan "skaliranje prilagođeno instanci" (instance-adaptive scaling). Njihova metoda omogućuje umjetnoj inteligenciji nešto što ljudi rade instinktivno – sposobnost procjene težine problema prije i tijekom samog rješavanja te dinamičko prilagođavanje truda potrebnog za dolazak do točnog odgovora.
Zašto je "razmišljanje" skupo?
Da bismo razumjeli značaj ovog otkrića, moramo se osvrnuti na način na koji moderni jezični modeli funkcioniraju. Kako bi odgovorili na teža pitanja, istraživači su nedavno počeli primjenjivati tehniku poznatu kao "skaliranje u vremenu zaključivanja" (inference-time scaling). Ova tehnika omogućuje modelu da provede više vremena generirajući potencijalna rješenja, istražujući različite puteve zaključivanja ili lančane reakcije misli (chain-of-thought), prije nego što isporuči konačan odgovor.
Međutim, dosadašnji pristupi bili su kruti. Oni su postavljali fiksni računalni proračun za svaki problem, bez obzira na njegovu složenost. To je značilo da bi model mogao trošiti dragocjene resurse grafičkih procesora (GPU) na jednostavna pitanja koja zahtijevaju trenutačan odgovor, ili, što je još gore, ne bi imao dovoljno resursa da se uhvati u koštac s problemima koji zahtijevaju duboku logiku i višestruke korake provjere.
Novi algoritam koji su razvili istraživači s MIT-a omogućuje modelu da dinamički prilagodi svoj proračun. U praksi, to znači da model može "stati na loptu", procijeniti težinu pitanja i vjerojatnost da će trenutni smjer razmišljanja dovesti do točnog rješenja, te na temelju toga odlučiti treba li uložiti više truda ili je odgovor već spreman.
Revolucionarni rezultati: Manje je ponekad više
Rezultati testiranja ove metode su impresivni. Istraživački tim otkrio je da njihov pristup omogućuje velikim jezičnim modelima da koriste čak 50 posto manje računalnih resursa u usporedbi s postojećim metodama, a da pritom zadrže istu razinu točnosti na širokom spektru pitanja različitih težina.
Možda još značajnije otkriće jest činjenica da ova metoda demokratizira snagu umjetne inteligencije. Naime, istraživanje je pokazalo da manji, resursno manje zahtjevni modeli, kada su opremljeni ovim adaptivnim algoritmom, mogu parirati ili čak nadmašiti performanse znatno većih i skupljih modela na kompleksnim problemima. Ovo otvara vrata primjeni napredne AI tehnologije na uređajima s ograničenim resursima, poput pametnih telefona ili prijenosnih računala, bez potrebe za stalnom vezom s masivnim podatkovnim centrima.
Kako funkcionira "digitalna metakognicija"?
Srž ovog sustava leži u sposobnosti modela da "zna što ne zna". Navid Azizan, profesor na Odsjeku za strojarstvo i Institutu za podatke, sustave i društvo (IDSS) na MIT-u te stariji autor studije, ističe važnost ovog koncepta.
"Računalni trošak zaključivanja (inference) brzo je postao glavno usko grlo za pružatelje najnaprednijih modela, koji aktivno pokušavaju pronaći načine za poboljšanje računalne učinkovitosti po korisničkom upitu," objašnjava Azizan. "Na primjer, nedavno izdanje modela GPT-5.1 naglašava učinkovitost pristupa 'adaptivnog zaključivanja' koji naš rad predlaže. Omogućavanjem modelima da prepoznaju svoje granice znanja, možemo im dopustiti da troše više računalne snage na najteže probleme i najperspektivnije puteve rješavanja, a znatno manje tokena na one jednostavne. To čini proces zaključivanja pouzdanijim i daleko učinkovitijim."
Tehnički gledano, okvir koristi komponentu poznatu kao Process Reward Model (PRM) ili model nagrađivanja procesa. Ovaj "nadzorni" model ocjenjuje svaki potencijalni korak u rješavanju problema. Zamislite ga kao strogog učitelja koji gleda učenika dok rješava zadatak iz matematike. PRM procjenjuje težinu pitanja i pomaže glavnom modelu (LLM-u) da odluči koliko resursa treba alocirati.
Rješavanje problema pretjeranog samopouzdanja
Jedan od ključnih izazova s kojim su se istraživači suočili bila je sklonost postojećih modela nagrađivanja (PRM) da budu previše optimistični. Često bi precijenili vjerojatnost da je određeni korak u rješavanju točan, što bi navelo sustav da prerano zaključi proces "razmišljanja" i isporuči pogrešan odgovor.
"Da smo jednostavno vjerovali trenutnim PRM-ovima, koji često precjenjuju šansu za uspjeh, naš bi sustav previše agresivno smanjio računalni budžet," objašnjava Young-Jin Park, doktorand na MIT-u i glavni autor studije. "Zato smo prvo morali pronaći način kako bolje kalibrirati te modele kako bismo skaliranje u vremenu zaključivanja učinili učinkovitijim i pouzdanijim."
Rješenje je pronađeno u novoj metodi kalibracije. Umjesto da PRM daje jednostavnu binarnu procjenu (dobro/loše) ili jednu brojčanu vrijednost, istraživači su ga naučili da generira raspon vjerojatnosti. Na taj način, sustav dobiva realniju sliku nesigurnosti. Ako je model "siguran" da je na dobrom putu, smanjuje broj alternativnih scenarija koje istražuje, štedeći resurse. Ako je nesiguran, proširuje potragu.
Hao Wang, istraživač u laboratoriju MIT-IBM Watson AI Lab i član tima, povlači zanimljivu paralelu s ljudskim razmišljanjem: "Ovo je zapravo način na koji ljudi rješavaju probleme. Smislimo neka djelomična rješenja, a zatim odlučujemo: trebam li nastaviti s nekim od njih, ili stati i revidirati, ili se čak vratiti na prethodni korak i nastaviti rješavanje problema od tamo?"
Budućnost AI agenata i autonomnih sustava
Ovo istraživanje, koje se ovog tjedna, početkom prosinca 2025., predstavlja na prestižnoj konferenciji Neural Information Processing Systems (NeurIPS), ima implikacije koje sežu daleko izvan akademske zajednice. Smanjenje energetske potrošnje generativnih AI sustava ključno je za održivost industrije, posebice u svjetlu sve veće zabrinutosti oko ugljičnog otiska velikih podatkovnih centara.
Osim ekološkog aspekta, ova tehnika otvara vrata za korištenje LLM-ova u situacijama visokog rizika i vremenske osjetljivosti. Kristjan Greenewald, istraživač u MIT-IBM Watson AI Labu, ističe dinamičnu prirodu njihovog rješenja: "Ljepota našeg pristupa je u tome što se ta prilagodba događa u hodu, dok se problem rješava, umjesto da se događa odjednom na početku procesa."
Gledajući u budućnost, istraživači planiraju primijeniti ovu tehniku na druga područja, poput automatskog generiranja programskog koda i razvoja autonomnih AI agenata. Kalibracija modela nagrađivanja (PRM) također bi mogla naći primjenu u učenju potkrepljenjem (reinforcement learning) i finom podešavanju modela.
Akash Srivastava, direktor i glavni arhitekt za Core AI u IBM Softwareu, koji nije izravno sudjelovao u radu, ali prati njegov razvoj, naglašava transformativni potencijal ove tehnologije za radnu snagu budućnosti:
"Ljudski zaposlenici uče na poslu — neki izvršni direktori čak su počeli kao pripravnici — ali današnji AI agenti ostaju uglavnom statični komadi vjerojatnosnog softvera. Rad poput ovog članka važan je korak prema promjeni toga: pomaganje agentima da shvate što ne znaju i izgradnja mehanizama za kontinuirano samopoboljšanje. Te su sposobnosti ključne ako želimo agente koji mogu raditi sigurno, prilagoditi se novim situacijama i isporučiti dosljedne rezultate u velikim razmjerima."
Suradnja divova za pametniju budućnost
Važno je napomenuti da je ovo istraživanje rezultat suradnje nekih od najjačih imena u tehnološkom svijetu i akademiji. Projekt su, između ostalih, financirali MIT-IBM Watson AI Lab, MIT-Amazon Science Hub, MIT-Google Program for Computing Innovation te tvrtka MathWorks.
U trenutku kada se svijet suočava s pitanjem granica rasta umjetne inteligencije, MIT-ov tim dokazuje da rješenje nije uvijek u "većem čekiću", već u preciznijem udarcu. Uvođenjem elementa metakognicije – razmišljanja o vlastitom razmišljanju – umjetna inteligencija postaje ne samo učinkovitija, već i sličnija biološkim sustavima koje pokušava oponašati.
Za krajnje korisnike, to bi uskoro moglo značiti brže odgovore na jednostavna pitanja, dublje i točnije analize na kompleksne upite, te AI asistente na našim mobitelima koji ne crpe bateriju u nekoliko minuta. U svijetu gdje je računalna snaga nova valuta, sposobnost štednje te valute mogla bi biti najvrjednija inovacija ove godine.
Kreirano: petak, 05. prosinca, 2025.
Pronađite smještaj u blizini