U svijetu koji sve više ovisi o automatizaciji, sposobnost robota da razumiju i interagiraju s fizičkim objektima u svojoj okolini postaje presudna. Nova istraživanja otvaraju vrata budućnosti u kojoj strojevi mogu procijeniti svojstva predmeta, poput težine ili mekoće, jednostavnim podizanjem i protresanjem, slično kako to čine ljudi. Ovaj napredak, proizašao iz suradnje znanstvenika s uglednih institucija kao što su Massachusetts Institute of Technology (MIT), Amazon Robotics i Sveučilište Britanske Kolumbije, obećava revoluciju u načinu na koji roboti uče i djeluju u složenim okruženjima.
Osjetila iznutra: Nova paradigma u robotskoj percepciji
Tradicionalno, roboti su se uvelike oslanjali na vanjske senzore, poput kamera i sustava za računalni vid, kako bi prikupili informacije o objektima. Međutim, nova metoda pomiče fokus na interne senzore, omogućujući robotima da "osjete" fizička svojstva predmeta. Ova tehnika ne zahtijeva skupe vanjske mjerne alate niti kamere, čineći je iznimno korisnom u situacijama gdje je vidljivost ograničena ili gdje bi kamere mogle biti manje učinkovite. Zamislite robota koji sortira predmete u mračnom podrumu ili raščišćava ruševine nakon potresa – upravo u takvim scenarijima ova inovacija pokazuje svoj puni potencijal.
Srž ovog pristupa leži u korištenju propriocepcije, sposobnosti robota (ili čovjeka) da osjeti vlastiti pokret i položaj u prostoru. Baš kao što čovjek koji podiže uteg u teretani osjeća njegovu težinu kroz mišiće i zglobove ruke, robot može "osjetiti" težinu objekta kroz višestruke zglobove svoje robotske ruke. Istraživači ističu da, iako ljudi nemaju iznimno precizna mjerenja kutova zglobova ili točne količine momenta koji primjenjuju, roboti posjeduju te sposobnosti zahvaljujući naprednim senzorima ugrađenim u njihove motore.
Kako roboti "uče" dodirom?
Kada robot podigne predmet, sustav prikuplja signale iz enkodera zglobova. Enkoderi su senzori koji detektiraju rotacijski položaj i brzinu zglobova tijekom pokreta. Većina modernih robota već posjeduje enkodere unutar motora koji pokreću njihove pomične dijelove, što ovu tehniku čini troškovno učinkovitijom u usporedbi s pristupima koji zahtijevaju dodatne komponente poput taktilnih senzora ili složenih sustava za praćenje vidom.
Sustav se oslanja na dva ključna modela za procjenu svojstava objekta tijekom interakcije: jedan koji simulira samog robota i njegove pokrete te drugi koji simulira dinamiku objekta. Peter Yichen Chen, postdoktorand na MIT-u i vodeći autor rada o ovoj tehnici, naglašava važnost posjedovanja točnog "digitalnog blizanca" stvarnog svijeta za uspjeh metode. Algoritam promatra kretanje robota i objekta tijekom fizičke interakcije i koristi podatke iz enkodera zglobova kako bi unatrag izračunao i identificirao svojstva objekta. Primjerice, teži će se objekt kretati sporije od lakšeg ako robot primijeni istu količinu sile.
Ovaj proces omogućuje robotu da u svega nekoliko sekundi točno procijeni parametre poput mase objekta. Istraživački tim je pokazao da je njihova tehnika jednako dobra u pogađanju mase objekta kao i neke složenije i skuplje metode koje uključuju računalni vid. Dodatna prednost je robusnost pristupa koji je učinkovit s podacima i sposoban nositi se s mnogim vrstama neviđenih scenarija, gdje robot nailazi na objekte koje prethodno nije "susreo".
Moć diferencijabilne simulacije
Ključni element koji omogućuje ovu brzu i preciznu procjenu jest tehnika nazvana diferencijabilna simulacija. Ovaj napredni simulacijski proces omogućuje algoritmu da predvidi kako male promjene u svojstvima objekta, poput mase ili mekoće, utječu na krajnji položaj zglobova robota. Drugim riječima, simulacija može "razlikovati" učinke različitih fizičkih parametara na kretanje robota.
Za izgradnju ovih složenih simulacija, istraživači su koristili NVIDIA Warp biblioteku, alat otvorenog koda za razvojne programere koji podržava diferencijabilne simulacije. Warp omogućuje programerima pisanje GPU-ubrzanih programa za simulaciju, umjetnu inteligenciju i strojno učenje izravno u Pythonu, nudeći performanse usporedive s nativnim CUDA kodom uz zadržavanje produktivnosti Pythona. Jednom kada se diferencijabilna simulacija uskladi sa stvarnim pokretima robota, sustav je uspješno identificirao ispravno svojstvo. Algoritam to može postići u nekoliko sekundi i treba mu samo jedna putanja robota u pokretu iz stvarnog svijeta da izvrši izračune.
Chao Liu, također postdoktorand na MIT-u i jedan od koautora studije, pojašnjava: "Tehnički, sve dok poznajete model objekta i kako robot može primijeniti silu na taj objekt, trebali biste moći shvatiti parametar koji želite identificirati." Iako su se istraživači primarno fokusirali na učenje mase i mekoće objekta, njihova tehnika ima potencijal odrediti i druga svojstva, poput momenta inercije ili viskoznosti tekućine unutar spremnika.
Prednosti i budući smjerovi
Jedna od značajnih prednosti ovog pristupa jest njegova neovisnost o opsežnim skupovima podataka za obuku, za razliku od nekih metoda koje se oslanjaju na računalni vid ili vanjske senzore. To ga čini manje podložnim neuspjehu kada se suoči s nepoznatim okruženjima ili novim objektima. Roboti opremljeni ovom sposobnošću mogli bi biti znatno prilagodljiviji i snalažljiviji.
U budućnosti, istraživački tim planira kombinirati svoju metodu s računalnim vidom kako bi stvorili multimodalnu tehniku opažanja koja bi bila još moćnija. "Ovaj rad ne pokušava zamijeniti računalni vid. Obje metode imaju svoje prednosti i nedostatke. Ali ovdje smo pokazali da i bez kamere već možemo shvatiti neka od ovih svojstava," kaže Chen. Integracija različitih senzorskih modaliteta mogla bi dovesti do robota s izuzetno sofisticiranom percepcijom okoline.
Također postoji interes za istraživanje primjena s kompliciranijim robotskim sustavima, poput mekih robota (soft robots), čija fleksibilna tijela predstavljaju jedinstvene izazove i mogućnosti za senzorsku interakciju. Jednako tako, planira se proširiti tehniku na složenije objekte, uključujući tekućine koje se prevrću (sloshing liquids) ili granulirane medije poput pijeska. Razumijevanje dinamike takvih materijala samo kroz interakciju dodirom bio bi značajan korak naprijed.
Dugoročni cilj je primijeniti ovu tehniku za poboljšanje učenja robota, omogućujući budućim generacijama robota da brzo razvijaju nove vještine manipulacije i prilagođavaju se promjenama u svojim okruženjima. "Određivanje fizičkih svojstava objekata iz podataka dugo je bio izazov u robotici, posebno kada su dostupna samo ograničena ili bučna mjerenja," komentirao je Miles Macklin, viši direktor tehnologije simulacija u tvrtki NVIDIA, koji nije bio uključen u ovo istraživanje. "Ovaj rad je značajan jer pokazuje da roboti mogu točno zaključiti svojstva poput mase i mekoće koristeći samo svoje interne zglobne senzore, bez oslanjanja na vanjske kamere ili specijalizirane mjerne alate."
Ovaj napredak otvara viziju robota koji samostalno istražuju svijet, dodiruju i pomiču predmete u svom okruženju te na taj način uče o svojstvima svega s čime dolaze u interakciju. Takva sposobnost ne samo da bi unaprijedila industrijsku automatizaciju, već bi imala i dubok utjecaj na područja poput pomoći u kućanstvu, medicinske skrbi i istraživanja u opasnim okolišima. Sposobnost robota da "osjete" i razumiju svijet oko sebe na intuitivniji, ljudskiji način, ključna je za njihovu potpuniju integraciju u naš svakodnevni život. Financiranje ovog obećavajućeg rada djelomično su osigurali Amazon i GIST-CSAIL istraživački program, signalizirajući interes industrije za praktičnim primjenama ovakvih tehnologija.
Razvoj ovakvih tehnologija također potiče razmišljanja o budućnosti interakcije čovjeka i robota. Kako roboti postaju sve sposobniji percipirati i reagirati na svoju okolinu na suptilne načine, tako se otvaraju nove mogućnosti za suradnju i zajednički rad. Zamisao Petera Yichena Chena o robotima koji samostalno istražuju i uče o svojstvima objekata dodirom nije samo tehnički cilj, već i korak prema stvaranju inteligentnijih i autonomnijih sustava koji mogu pomoći čovječanstvu u rješavanju složenih problema.
Izvor: Massachusetts Institute of Technology
Kreirano: petak, 09. svibnja, 2025.