Razvijanje tehnike za procjenu pouzdanosti foundation modela prije primjene na specifične zadatke s MIT-a i MIT-IBM Watson AI Laboratorija

Istraživači sa MIT-a i MIT-IBM Watson AI Laboratorija razvili su novu tehniku za procjenu pouzdanosti foundation modela prije njihove primjene na specifične zadatke, koristeći algoritam za procjenu dosljednosti modela. Ovo rješenje može pomoći u smanjenju grešaka u sigurnosno kritičnim situacijama i omogućiti bolji odabir modela bez potrebe za testiranjem na stvarnim podacima.

Razvijanje tehnike za procjenu pouzdanosti foundation modela prije primjene na specifične zadatke s MIT-a i MIT-IBM Watson AI Laboratorija
Photo by: Domagoj Skledar/ arhiva (vlastita)

Istraživači sa MIT-a i MIT-IBM Watson AI Laboratorija razvili su tehniku za procjenu pouzdanosti foundation modela prije nego se primijene na određeni zadatak. Oni to postižu analizirajući skup foundation modela koji se međusobno malo razlikuju. Algoritam procjenjuje dosljednost reprezentacija koje svaki model nauči o istom testnom podatku. Ako su reprezentacije dosljedne, model se smatra pouzdanim.

Uspoređujući svoju tehniku sa najsuvremenijim metodama, istraživači su otkrili da je njihova metoda bolja u hvatanju pouzdanosti foundation modela na raznim zadacima klasifikacije.

Ova tehnika omogućava korisnicima da odluče treba li model primijeniti u određenom okruženju, bez potrebe za testiranjem na stvarnim podacima. To je posebno korisno u situacijama gdje podaci možda nisu dostupni zbog problema privatnosti, poput zdravstvenih podataka. Uz to, tehnika može rangirati modele prema rezultatima pouzdanosti, omogućujući korisnicima odabir najboljeg modela za njihov zadatak.

„Svi modeli mogu pogriješiti, ali modeli koji znaju kada su u krivu su korisniji. Problem kvantificiranja nesigurnosti ili pouzdanosti je izazovniji za ove foundation modele jer su njihove apstraktne reprezentacije teško usporedive. Naša metoda omogućava kvantificiranje koliko je pouzdana reprezentacija modela za bilo koji ulazni podatak,” kaže glavni autor Navid Azizan, profesor na MIT-u i član Laboratorija za informacije i sustave odlučivanja (LIDS).

Uz njega na radu su radili i glavni autor Young-Jin Park, doktorand na LIDS-u; Hao Wang, znanstveni istraživač u MIT-IBM Watson AI Laboratoriju; i Shervin Ardeshir, viši znanstveni istraživač u Netflixu. Rad će biti predstavljen na Konferenciji o nesigurnosti u umjetnoj inteligenciji.

Mjerenje konsenzusa
Tradicionalni modeli strojnog učenja trenirani su za obavljanje specifičnog zadatka. Ovi modeli obično daju konkretnu predikciju na temelju ulaza. Na primjer, model može reći sadrži li određena slika mačku ili psa. U ovom slučaju, procjena pouzdanosti može biti jednostavna kao provjera konačne predikcije.

Ali foundation modeli su drugačiji. Model se prethodno trenira koristeći opće podatke, u okruženju gdje njegovi tvorci ne znaju sve zadatke na koje će se primijeniti. Korisnici ga prilagođavaju svojim specifičnim zadacima nakon što je već treniran.

Za procjenu pouzdanosti foundation modela, istraživači su koristili pristup ansambla treniranjem nekoliko modela koji dijele mnoge osobine, ali se malo razlikuju.

„Naša ideja je poput mjerenja konsenzusa. Ako svi ti foundation modeli daju dosljedne reprezentacije za bilo koje podatke u našem skupu podataka, onda možemo reći da je taj model pouzdan,” kaže Park.

Ali suočili su se s problemom: kako usporediti apstraktne reprezentacije?
„Ovi modeli samo daju vektor, sastavljen od nekih brojeva, pa ih ne možemo lako usporediti,” dodaje.

Problem su riješili korištenjem ideje zvane dosljednost susjedstva.

Za svoj pristup, istraživači pripremaju skup pouzdanih referentnih točaka za testiranje na ansamblu modela. Zatim, za svaki model, istražuju referentne točke koje se nalaze blizu reprezentacije modela za testnu točku.

Gledajući dosljednost susjednih točaka, mogu procijeniti pouzdanost modela.

Poravnavanje reprezentacija
Foundation modeli mapiraju podatkovne točke u ono što je poznato kao prostor reprezentacije. Jedan način razmišljanja o ovom prostoru je kao o sferi. Svaki model mapira slične podatkovne točke na isto mjesto u svojoj sferi, tako da slike mačaka idu na jedno mjesto, a slike pasa na drugo.

Ali svaki model bi različito mapirao životinje u svojoj sferi, pa dok bi mačke mogle biti grupirane blizu Južnog pola jedne sfere, drugi model bi mogao mapirati mačke negdje u Sjevernoj hemisferi.

Istraživači koriste susjedne točke kao sidra za poravnanje tih sfera kako bi mogli usporediti reprezentacije. Ako su susjedi podatkovne točke dosljedni u više reprezentacija, onda možemo biti sigurni u pouzdanost modela za tu točku.

Kada su testirali ovaj pristup na širokom rasponu zadataka klasifikacije, otkrili su da je bio puno dosljedniji od osnovnih metoda. Osim toga, nije bio zbunjen izazovnim testnim točkama koje su druge metode zbunjivale.

Štoviše, njihov pristup se može koristiti za procjenu pouzdanosti za bilo koje ulazne podatke, tako da se može procijeniti koliko dobro model funkcionira za određenu vrstu pojedinca, kao što je pacijent s određenim karakteristikama.

„Čak i ako svi modeli imaju prosječne performanse, iz individualne perspektive, preferirat ćete onaj koji najbolje funkcionira za tog pojedinca,” kaže Wang.

Jedno ograničenje dolazi iz činjenice da moraju trenirati ansambl foundation modela, što je računalno skupo. U budućnosti planiraju pronaći učinkovitije načine za izgradnju više modela, možda korištenjem malih perturbacija jednog modela.

„S trenutnim trendom korištenja foundation modela za njihove reprezentacije kako bi podržali razne zadatke — od finog podešavanja do generiranja s obogaćenjem iz pretraživanja — tema kvantificiranja nesigurnosti na razini reprezentacije postaje sve važnija, ali izazovna, jer same reprezentacije nemaju utemeljenje. Umjesto toga, važno je kako su reprezentacije različitih ulaza međusobno povezane, ideja koju ovaj rad uredno obuhvaća kroz predloženi skor dosljednosti susjedstva,” kaže Marco Pavone, izvanredni profesor na Odjelu za aeronautiku i astronautiku na Sveučilištu Stanford, koji nije bio uključen u ovaj rad. „Ovo je obećavajući korak prema visokokvalitetnom kvantificiranju nesigurnosti za modele reprezentacije, i uzbuđen sam vidjeti buduće proširenja koja mogu funkcionirati bez potrebe za ansambliranjem modela kako bi se ovaj pristup stvarno omogućio u modelima veličine foundation.”

Ovaj rad je djelomično financiran od strane MIT-IBM Watson AI Laboratorija, MathWorks-a i Amazona.

PRONAĐITE SMJEŠTAJ U BLIZINI

Kreirano: srijeda, 17. srpnja, 2024.
VIŠE S WEB-a

AI Lara Teč

AI Lara Teč je inovativna AI novinarka našeg globalnog portala, specijalizirana za pokrivanje najnovijih trendova i dostignuća u svijetu znanosti i tehnologije. Svojim stručnim znanjem i analitičkim pristupom, Lara pruža dubinske uvide i objašnjenja o najsloženijim temama, čineći ih pristupačnima i razumljivima za sve čitatelje diljem svijeta.

Stručna analiza i jasna objašnjenja Lara koristi svoju ekspertizu kako bi analizirala i objasnila složene znanstvene i tehnološke teme, fokusirajući se na njihovu važnost i utjecaj na svakodnevni život. Bilo da se radi o najnovijim tehnološkim inovacijama, probojima u istraživanjima ili trendovima u digitalnom svijetu, Lara pruža temeljite analize i objašnjenja, ističući ključne aspekte i potencijalne implikacije za čitatelje.

Vaš vodič kroz svijet znanosti i tehnologije Larini članci su dizajnirani da vas vode kroz kompleksni svijet znanosti i tehnologije, pružajući jasna i precizna objašnjenja. Njezina sposobnost da razloži složene koncepte na razumljive dijelove čini njezine članke nezaobilaznim resursom za sve koji žele biti u toku s najnovijim znanstvenim i tehnološkim dostignućima.

Više od AI - vaš prozor u budućnost AI Lara Teč nije samo novinarka; ona je prozor u budućnost, pružajući uvid u nove horizonte znanosti i tehnologije. Njeno stručno vodstvo i dubinska analiza pomažu čitateljima da shvate i cijene složenost i ljepotu inovacija koje oblikuju naš svijet. Sa Larom, ostanite informirani i inspirirani najnovijim dostignućima koje svijet znanosti i tehnologije ima za ponuditi.

NAPOMENA ZA NAŠE ČITATELJE
Karlobag.eu pruža vijesti, analize i informacije o globalnim događanjima i temama od interesa za čitatelje širom svijeta. Sve objavljene informacije služe isključivo u informativne svrhe.
Naglašavamo da nismo stručnjaci u znanstvenim, medicinskim, financijskim ili pravnim područjima. Stoga, prije donošenja bilo kakvih odluka temeljenih na informacijama s našeg portala, preporučujemo da se konzultirate s kvalificiranim stručnjacima.
Karlobag.eu može sadržavati poveznice na vanjske stranice trećih strana, uključujući affiliate linkove i sponzorirane sadržaje. Ako kupite proizvod ili uslugu putem ovih poveznica, možemo ostvariti proviziju. Nemamo kontrolu nad sadržajem ili politikama tih stranica te ne snosimo odgovornost za njihovu točnost, dostupnost ili bilo kakve transakcije koje obavite putem njih.
Ako objavljujemo informacije o događajima ili prodaji ulaznica, napominjemo da mi ne prodajemo ulaznice niti izravno niti preko posrednika. Naš portal isključivo informira čitatelje o događajima i mogućnostima kupnje putem vanjskih prodajnih platformi. Povezujemo čitatelje s partnerima koji nude usluge prodaje ulaznica, ali ne jamčimo njihovu dostupnost, cijene ili uvjete kupnje. Sve informacije o ulaznicama preuzete su od trećih strana i mogu biti podložne promjenama bez prethodne najave. Preporučujemo da prije bilo kakve kupnje temeljito provjerite uvjete prodaje kod odabranog partnera, budući da portal Karlobag.eu ne preuzima odgovornost za transakcije ili uvjete prodaje ulaznica.
Sve informacije na našem portalu podložne su promjenama bez prethodne najave. Korištenjem ovog portala prihvaćate da čitate sadržaj na vlastitu odgovornost.