Dirbtinis integruotas pažinimas arba AIC gali suteikti sertifikuojamą fizikos architektūrą. Šaltinis: Hidayat AI, per Adobe Stock
Robotikos pramonė yra kryžkelėje. Europos Sąjungos Dirbtinio intelekto įstatymas verčia robotikos pramonę atsisakyti nepermatomų, nuo galo iki galo neuroninių tinklų ir sukurti skaidrias, fizika pagrįstas dirbtinio integruoto pažinimo arba AIC architektūras.
Robotikos erdvė įžengia į patį kritiškiausią etapą nuo pramoninės automatikos gimimo. Vienoje pusėje matome kvapą gniaužiančius humanoidų demonstracijas, kurias maitina didžiuliai neuroniniai tinklai.
Kita vertus, susiduriame su nepajudinama tikrove: reguliavimu. ES AI įstatymas neklausia, kaip įspūdingai atrodo robotas, o ar jo elgesį galima paaiškinti, patikrinti ir sertifikuoti.
„Aklo milžino“ rizika
Juodosios dėžės AI modeliai sukuria tai, ką galima apibūdinti kaip „aklą milžinišką problemą“: nepaprastą našumą be supratimo. Tokios sistemos negali paaiškinti sprendimų, garantuoti riboto elgesio ar užtikrinti teismo ekspertizės atskaitomybę po incidentų. Dėl to jie iš esmės nesuderinami su didelės rizikos, reguliuojamu robotų diegimu.
Kodėl neuronų valdymas nuo galo iki galo neišgyvens reguliavimo
Nuo galo iki galo neuroninis valdymas sujungia suvokimą, pažinimą ir veiksmus į vieną nepermatomą funkciją. Sertifikavimo požiūriu šis metodas neleidžia atskirti gedimo režimų, įrodyti stabilumo ribas ir atkurti priežastinių sprendimų grandines. Be vidinės struktūros AI negali būti tikrinamas.
AI reikia skaidrios misijai svarbios robotikos architektūros. Kreditas: Guiseppe Marino, Nano Banana
AIC siūlo kitokią paradigmą
Dirbtinis integruotas pažinimas yra pagrįstas fizikos pagrįsta dinamika, funkciniu moduliavimu ir nuolatiniu vidiniu stebėjimu. Pažinimas atsiranda iš matematiškai apribotų sistemų, kurios prieš imdamosi veiksmų atskleidžia savo vidinę būseną, darną ir pasitikėjimą. Dėl to AIC iš esmės suderinamas su sertifikavimo sistemomis.
Nuo mokymosi iki žinojimo, ką darai
AIC pakeičia aklos optimizavimą atspindinčiu valdymu. Užuot veikusi vien siekdama maksimalaus atlygio, sistema įvertina, ar veiksmas yra nuoseklus, stabilus ir paaiškinamas atsižvelgiant į dabartinę vidinę būseną. Šis vidinis stebėtojas užtikrina funkcinę atskaitomybę.
Kodėl reguliavimo institucijos pirmenybę teiks fizikai, o ne statistikai
Reguliuotojai pasitiki lygtimis, ribomis ir deterministiniu elgesiu esant apribojimams. Fizika pagrįstos kognityvinės architektūros suteikia formalius patikrinimo kelius, nuspėjamą degradaciją ir aiškias atsakomybės grandines – ypatybių, kurių negali pasiūlyti statistiniai juodosios dėžės modeliai.

Komercinės AIC pasekmės
Įspūdingiausi šių dienų robotai gali niekada nepasiekti rinkos, jei nebus sertifikuoti. Sertifikavimas, o ne našumo demonstravimas, nulems diegimą realiame pasaulyje. Sistemos, sukurtos aiškinimui nuo 1 dienos, tyliai, bet ryžtingai dominuos reguliuojamoje aplinkoje.
Žvalgyba turi tapti atskaitinga AIC
Robotikos ateitį lems intelektas, kuriuo galima pasitikėti, kurį galima paaiškinti ir sertifikuoti. Dirbtinis integruotas pažinimas nėra alternatyvi tendencija – tai vienintelis perspektyvus kelias į priekį. Aklųjų milžinų era baigiasi. Prasidėjo atsakingos žvalgybos era.
Apie autorę
Giuseppe Marino yra QBI-CORE AIC įkūrėjas ir generalinis direktorius. Jis yra kognityvinės robotikos ir aiškinamojo AI (XAI) tyrinėtojas ir ekspertas, daugiausia dėmesio skiriantis ES AI įstatymo, skirto didelės rizikos robotizuotoms sistemoms, atitikčiai natūraliai.
Šis straipsnis iš naujo paskelbtas gavus leidimą.
Apie autorę