AI2 sako

Estimated read time 6 min read

AI2 teigė, kad jo „Molmoact“ modelis yra saugus, interpretuojamas, pritaikomas ir tikrai atviras. | Šaltinis: AI2, „Adobe Stock“

„Allen“ AI institutas, dar žinomas kaip AI2, vakar paskelbė apie „Molmoact 7B“, įkūnyto AI modelio, kuris, jo teigimu, išleido moderniausius dirbtinio intelekto modelius į fizinį pasaulį.

Užuot samprotavęs kalbą ir paverčiant ją judėjimu, AI2 teigė, kad Molmoactas iš tikrųjų mato savo aplinką; supranta erdvės, judėjimo ir laiko santykius; ir atitinkamai planuoja savo judesius. Modelis sukuria vaizdinius samprotavimo žetonus, kurie paverčia 2D vaizdo įvestis į 3D erdvinius planus, leidžiančius robotams naršyti fizinį pasaulį su didesniu intelektu ir kontrole.

„Įsikūnijusią AI reikia naujo pagrindų, kuriuose prioritetas teikia prioritetą, skaidrumą ir atvirumą“, – teigė AI2 generalinis direktorius Ali Farhadi. „Naudodamiesi„ Molmoact “, mes ne tik išleidžiame modelį; mes klojame pagrindą naujai AI erai, įtraukdami galingų AI modelių intelektą į fizinį pasaulį. Tai yra žingsnis link AI, kuris gali pagrįsti ir naršyti po pasaulį tokiais būdais, kurie labiau suderinami su tuo, kaip žmonės daro – ir bendradarbiauja su mus saugiai ir efektyviai“.

AI2 yra Sietle įsikūrusi ne pelno siekiantis AI tyrimų institutas, turintis misiją sukurti AI, kad išspręstų didžiausias pasaulyje problemas. AI2, kurį 2014 m. Įkūrė velionis „Microsoft“ įkūrėjas Paulius G. Allenas, teigė, kad jis kuria pagrindinius AI tyrimus ir naujas programas, naudodamas didelio masto atvirų modelių, atvirų duomenų, robotikos, apsaugos platformų ir dar daugiau.

AI2 teiginiai, kad „Molmoact“ yra pirmasis „veiksmo samprotavimo modelis“

Nors erdviniai samprotavimai nėra nauji, dauguma šiuolaikinių sistemų priklauso nuo uždarų, iki galo architektūros, apmokytos pagal masinius patentuotus duomenų rinkinius. Remiantis AI2, šiems modeliams sunku atkurti, brangiai vertinti ir dažnai veikia kaip nepermatomos juodos dėžutės.

Institutas teigė, kad „Molmoact“ siūlo iš esmės kitokį požiūrį. Modelis yra mokomas visiškai remiantis atvirais duomenimis, yra skirtas skaidrumui ir yra sukurtas realaus pasaulio apibendrinimui. Jos nuoseklios vizualinės samprotavimai suteikia vartotojams galimybę peržiūrėti, ką robotas planuoja daryti, ir realiu laiku valdyti savo elgesį, kai keičiasi sąlygos, sakė AI2.

AI2 pavadino „Molmoact“ „veiksmo samprotavimo modeliu“ (ARM), nurodydamas, kad jis gali interpretuoti aukšto lygio natūralios kalbos instrukcijas ir protą atlikdamas fizinių veiksmų seką, kad juos atliktų realiame pasaulyje.

Tradiciniai robotikos modeliai nuo galo iki galo traktuoja užduotis kaip vieną nepermatomą žingsnį, sakė institutas. Vietoj to, ginklai aiškina aukšto lygio instrukcijas ir suskaidykite jas į skaidrią erdvės pagrįstų sprendimų grandinę:

  • 3D suvokimas: Roboto supratimo apie jo aplinką pagrindimas naudojant gylį ir erdvinį kontekstą
  • Vizualinio kelio taško planavimas: išsamiai aprašytas užduoties trajektorija vaizdo erdvėje
  • Veiksmo dekodavimas: Plano konvertavimas į tikslias, robotui specifines valdymo komandas

Šis sluoksniuotas samprotavimas leidžia „Molmoact“ interpretuoti tokias komandas kaip „rūšiuoti šią šiukšlių krūvą“ ne kaip vieną žingsnį, o kaip struktūrizuotą subdž Distų seriją. Modelis atpažįsta sceną, grupės yra objektai pagal tipą, sugriebia juos po vieną ir pakartoja.

https://www.youtube.com/watch?v=-_wag1x25oe

AI2 sukuria molmoaktą, kad greitai mastelį

„Molmoact 7B“, pirmasis savo modelio šeimoje, buvo apmokytas kuruojamame duomenų rinkinyje, kuriame yra maždaug 12 000 „robotų epizodų“ iš realaus pasaulio aplinkos, tokios kaip virtuvės ir miegamieji. AI2 šias demonstracijas pavertė robotų gavimo sekomis, parodančiomis, kaip sudėtingos instrukcijos žemėlapiai yra pagrįsti, į tikslą nukreipti veiksmai.

Kartu su modeliu įmonė išleidžia „Molmoact“ po mokymo duomenų rinkinį, kuriame yra ~ 12 000 skirtingų „robotų epizodų“. AI2 tyrėjai praleido mėnesius kurdami robotų vaizdo įrašus, atlikdami veiksmus įvairiose namų ūkio vietose. Tai apima bet ką, pradedant pagalvių sutvirtinimu ant svetainės sofos iki skalbinių dedimo į miegamąjį.

Nepaisant stipraus rezultatų, AI2 teigė, kad jis efektyviai treniravosi „Molmoact“. Tam prireikė tik 18 milijonų pavyzdžių, išankstinių 256 „NVIDIA H100“ grafikos apdorojimo įrenginių (GPU) maždaug 24 valandas ir patobulinant 64 GPU, tik dar dviem.

Priešingai, daugeliui komercinių modelių reikia šimtų milijonų mėginių ir kur kas labiau apskaičiuoti. Vis dėlto „Molmoact“ daugelį šių sistemų aplenkė pagrindiniuose etalonuose, įskaitant 71,9% sėkmės procentą, palyginti su paprastesniu. Tai parodė, kad aukštos kokybės duomenys ir apgalvotas dizainas gali aplenkti modelius, apmokytus daug daugiau duomenų ir apskaičiuoti, sakė AI2.

AI2 palaiko molmoaktą atvirą ir skaidrų

AI2 teigė, kad jis sukūrė „Molmoact“ skaidrumą. Vartotojai gali peržiūrėti suplanuotus modelio judesius prieš vykdydami, kai judesio trajektorijos yra uždengtos fotoaparato vaizduose.

Be to, vartotojai gali pakoreguoti šiuos planus naudodamiesi natūralia kalba ar greito eskizų pataisomis jutikliniame ekrane-teikdami smulkiagrūdį valdymą ir padidindami saugumą realiame pasaulyje, tokiose kaip namai, ligoninės ir sandėliai.

Remiantis AI2 misija, „Molmoact“ yra visiškai atviro kodo ir atkuriamas. Institutas išleidžia viską, ko reikia norint sukurti, paleisti ir išplėsti modelį: mokymo vamzdynai, duomenų rinkiniai prieš ir po mokymo, modelio kontrolės punktai ir vertinimo etalonai.

Modelio ir modelio artefaktus, įskaitant mokymo kontrolės taškus ir EVAL, galite įsigyti iš AI2 „Hugning Face“ saugyklos.

Sužinokite apie naujausią AI „Robobusiness“

https://www.youtube.com/watch?v=o6x1_gqq1zy

Šių metų „Robobusiness“, kuris vyks spalio 15 ir 16 dienomis Santa Klaroje, Kalifornijoje, pasirodys fizinio AI forumas. Šiame takelyje bus kalbėta apie daugybę temų, įskaitant pokalbius apie saugą ir AI, modeliavimo ir realybės armatūros mokymus, duomenų kuravimą, AI varomų robotų diegimą ir dar daugiau.

Dalyviai gali išgirsti iš miklumo ekspertų, „ABB“ robotikos, UC Berkeley, roboto, „Graymatter“ robotikos, kruopštų robotikos ir „Dexman AI“. Be to, pasirodymas prasidės pagrindiniu „Deepu Talla“, robotikos viceprezidentu Nvidijoje, apie tai, kaip fizinė AI įveda naują robotikos erą.

„Robovusiness“ yra svarbiausias renginys, skirtas komercinių robotų kūrėjams ir tiekėjams. Renginį rengia „WTWH Media“, kuris taip pat sukuria Roboto ataskaita, automatinis sandėlisir robotikos viršūnių susitikimas ir paroda.

Šių metų konferencijoje dalyvaus daugiau nei 60 pranešėjų, startuolių seminaras, kasmetinė „Pitchfire“ konkurencija ir daugybė tinklų kūrimo galimybių. Daugiau nei 100 parodų dalyvių parodų aukšte parodys savo naujausias įgalinančias technologijas, produktus ir paslaugas, kurios padės išspręsti jūsų robotikos kūrimo iššūkius.

Registracija dabar atvira „Robobusiness 2025“.



Svetainės skelbimas 2025 m.

Nuoroda į informacijos šaltinį

Jums tai gali patikti

Daugiau iš autoriaus