„MIT Vision System“ moko robotus suprasti savo kūną

Estimated read time 7 min read

3D atspausdinta robotinė ranka laiko pieštuką, nes ji treniruojasi naudojant atsitiktinius judesius ir vieną fotoaparatą-naujos valdymo sistemos, vadinamos nervų Jokūbo laukais (NJF), dalis. Užuot pasikliaudamas jutikliais ar rankomis užkoduotais modeliais, NJF leidžia robotams sužinoti, kaip jų kūnas juda reaguojant į variklio komandas vien tik iš vizualinio stebėjimo, siūlant kelią į lankstesnius, prieinamus ir savarankiškus robotus. | Kreditas: MIT

MIT informatikos ir dirbtinio intelekto laboratorijos (CSAIL) biure minkšta robotinė ranka atsargiai garbanoja pirštus, kad suvoktų mažą daiktą. Intriguojanti dalis nėra mechaninis dizainas ar įterpti jutikliai – iš tikrųjų rankoje nėra. Vietoj to, visa sistema priklauso nuo vienos kameros, kuri stebi roboto judesius ir naudoja tuos vaizdinius duomenis, kad ją valdytų.

Ši galimybė atsiranda dėl naujos sistemos, kurią sukūrė „Csail“ mokslininkai, siūlantys kitokią robotų kontrolės perspektyvą. Užuot naudojęs rankomis suprojektuotus modelius ar sudėtingus jutiklių masyvus, jis leidžia robotams sužinoti, kaip jų kūnai reaguoja į valdymo komandas, tik per regėjimą. Šis požiūris, vadinamas nervų Jokūbo laukais (NJF), suteikia robotams savotišką kūno savimonę. Buvo paskelbtas atviros prieigos dokumentas apie kūrinį Prigimtis birželio 25 d.

„Šis darbas nurodo perėjimą nuo robotų programavimo prie robotų mokymo“, – sako Sizhe Lester Li, MIT doktorantė elektros inžinerijos ir informatikos mokslų srityje, „CSAL“ filiale ir pagrindiniame darbo tyrėjoje. „Šiandien daugeliui robotikos užduočių reikia išsamios inžinerijos ir kodavimo. Ateityje mes įsivaizduojame, kad parodome robotą, ką daryti, ir leisdami jam išmokti, kaip autonomiškai pasiekti tikslą.“

Motyvacija kyla iš paprasto, bet galingo pertvarkymo: pagrindinė kliūtis įperkamą, lanksčią robotiką nėra aparatinė įranga – tai yra galimybių kontrolė, kurią būtų galima pasiekti įvairiais būdais. Tradiciniai robotai yra sukurti kaip tvirti ir turtingi jutikliais, todėl lengviau sukonstruoti skaitmeninį dvynį, tikslią matematinę kopiją, naudojamą valdymui. Bet kai robotas yra minkštas, deformuojamas ar netaisyklingos formos, šios prielaidos subyrėja. Užuot privertęs robotus suderinti mūsų modelius, NJF apverčia scenarijų – suteikdamas robotams galimybę išmokti savo vidinį modelį iš stebėjimo.

Žiūrėk ir mokykis

Šis modeliavimo ir aparatinės įrangos dizaino atsiejimas galėtų žymiai išplėsti robotikos projektavimo erdvę. Minkštame ir biologiniuose robotuose dizaineriai dažnai įterpia jutiklius arba sustiprina konstrukcijos dalis, kad modeliavimas būtų įmanomas. NJF pakelia tą suvaržymą. Sistemai nereikia laive esančių jutiklių ar dizaino patarimų, kad būtų galima valdyti. Dizaineriai laisvai tyrinėja netradicines, nevaržomas morfologijas, nesijaudindami, ar vėliau galės juos modeliuoti, ar valdyti.

„Pagalvokite apie tai, kaip išmoksite valdyti pirštus: jūs vingiuojate, stebite, prisitaikote“, – sakė Li. “Štai ką daro mūsų sistema. Tai eksperimentuoja su atsitiktiniais veiksmais ir išsiaiškina, kurie kontroliuoja, kurios roboto dalys perkelia.”

Sistema pasirodė tvirta įvairių tipų robotų rūšimis. Komanda išbandė NJF ant pneumatinės minkštos robotinės rankos, galinčios suspausti ir sugriebti, standžią alegro ranką, 3D atspausdintą robotinę ranką ir net besisukančią platformą be įterptų jutiklių. Kiekvienu atveju sistema išmoko ir roboto formą, ir tai, kaip ji reagavo į valdymo signalus, tik iš regėjimo ir atsitiktinio judesio.

Tyrėjai mato potencialą toli už laboratorijos ribų. Robotai, turintys NJF, vieną dieną galėtų atlikti žemės ūkio užduotis su centimetro lygio lokalizacijos tikslumu, veikti statybvietėse be sudėtingų jutiklių matricų arba naršyti dinamiškose aplinkose, kur tradiciniai metodai nutrūksta.



NJF esmė yra neuroninis tinklas, kuriame užfiksuoti du susipynę roboto įkūnijimo aspektai: jo trimatė geometrija ir jos jautrumas kontrolės įvestims. Sistema remiasi nervinių spinduliuotės laukais (Nerf) – technika, kuri rekonstruoja 3D scenas iš vaizdų, sudarant erdvines koordinates su spalvų ir tankio vertėmis. NJF praplečia šį požiūrį išmokdamas ne tik roboto formą, bet ir Jokūbo lauką – funkciją, kuri prognozuoja, kaip bet kuris roboto kūno taškas juda reaguojant į variklio komandas.

Norėdami išmokyti modelį, robotas atlieka atsitiktinius judesius, o kelios kameros užfiksuoja rezultatus. Nereikia jokios žmogaus priežiūros ar ankstesnių žinių apie roboto struktūrą – sistema tiesiog nustato ryšį tarp valdymo signalų ir judesio stebint.

Kai treniruotės bus baigtos, robotui reikia tik vienos monokulinės kameros, kad būtų galima kontroliuoti realaus laiko ribą, veikiantį maždaug 12 „Hertz“. Tai leidžia nuolat stebėti save, planuoti ir veikti reaguojant. Dėl šio greičio NJF yra perspektyvesnis nei daugelis fizikos pagrįstų modelių, pagrindžiančių minkštus robotus, kurie dažnai yra per daug skaičiuojami, kad būtų galima naudoti realiuoju laiku.

Ankstyvuose modeliavimuose net paprasti 2D pirštai ir slankikliai sugebėjo išmokti šį žemėlapį, naudodami tik keletą pavyzdžių. Modeliuodamas, kaip konkretūs taškai deformuojasi ar poslinkis reaguodami į veiksmą, NJF sukuria tankų valdymo žemėlapį. Šis vidinis modelis leidžia apibendrinti judesį per roboto kūną, net kai duomenys yra triukšmingi ar neišsamūs.

„Tikrai įdomu tai, kad sistema pati išsiaiškina, kuri varikliai kontroliuoja, kurios roboto dalys“, – sakė Li. „Tai nėra užprogramuota – tai natūraliai atsiranda mokantis, panašiai kaip žmogus, atradęs mygtukus naujame įrenginyje.“

Ateitis yra minkšta

Dešimtmečius robotika palankiai įvertino griežtas, lengvai modeliuotas mašinas, tokias kaip gamyklose esančios pramonės ginklai, nes jų savybės supaprastina valdymą. Tačiau laukas judėjo link minkštų, biologiškai įkvėptų robotų, kurie gali sklandžiau prisitaikyti prie realaus pasaulio. Kompromisas? Šiuos robotus sunkiau modeliuoti.

„Šiandien robotika dažnai jaučiasi nepasiekiama dėl brangių jutiklių ir sudėtingo programavimo. Mūsų tikslas su neuroniniais Jokūbo laukais yra sumažinti barjerą, todėl robotika tampa prieinama, pritaikoma ir prieinama daugiau žmonių.„ Vision “yra atspari, patikimas jutiklis“, – sakė vyresnysis autorius ir MIT padėjėjas Vincentas Sitzmannas, kuris vadovauja scenos reprezentacijų grupei. „Tai atveria duris robotams, kurie gali veikti nepatogioje, nestruktūrizuotoje aplinkoje, nuo ūkių iki statybinių vietų, be brangios infrastruktūros.“

„Vien tik regėjimas gali pateikti lokalizacijos ir valdymo užuominas-pašalinti GPS, išorinių sekimo sistemų ar sudėtingų jutiklių poreikį. Tai atveria duris tvirtam, adaptyviam elgesiui nestruktūrizuotame aplinkoje, pradedant nuo dronų, net ir požeminių robotų, o ne žemėlapiais, be žemėlapių, be žemėlapių. RUS, MIT elektros inžinerijos ir informatikos profesorius bei CSAIL direktorius. „Mokydamiesi iš vaizdinių atsiliepimų, šios sistemos sukuria vidinius savo judesio ir dinamikos modelius, leisdamos lanksčią, savarankišką operaciją, kai tradiciniai lokalizacijos metodai nepavyks“.

Nors mokant NJF šiuo metu reikia kelių fotoaparatų, ir kiekvienam robotui reikia perdaryti, tyrėjai jau įsivaizduoja prieinamesnę versiją. Ateityje mėgėjai savo telefonu galėtų įrašyti atsitiktinius roboto judesius, panašiai kaip prieš važiuodami, naudodami tą filmuotą medžiagą, naudodami tą filmuotą medžiagą, kad sukurtumėte valdymo modelį, be išankstinių žinių ar specialios įrangos.

Sistema dar nėra apibendrinta skirtinguose robotuose, ir jai trūksta jėgos ar lytėjimo jutimo, ribojant jos efektyvumą atliekant turtingus kontaktus. Tačiau komanda tyrinėja naujus būdus, kaip pašalinti šiuos apribojimus: gerinant apibendrinimą, tvarkant okliuzijas ir išplėsti modelio sugebėjimą pagrįsti ilgesnį erdvinį ir laiko horizontą.

„Kaip žmonės ugdo intuityvų supratimą apie tai, kaip jų kūnas juda ir reaguoja į komandas, NJF suteikia robotams tokį įkūnytą savimonę vien per regėjimą“,-sakė Li. “Šis supratimas yra lanksčios manipuliavimo ir kontrolės realaus pasaulio aplinkoje pagrindas. Mūsų darbas iš esmės atspindi platesnę robotikos tendenciją: nutolti nuo rankiniu būdu programuojant išsamius modelius, kaip mokyti robotus stebint ir sąveikaujant.”

Redaktoriaus pastaba: Šis straipsnis buvo pakartotinai paskelbtas iš „MIT News“.

Nuoroda į informacijos šaltinį

Jums tai gali patikti

Daugiau iš autoriaus