Kas kaltas, kai dirbtinis intelektas tampa nesąžiningas? JT tylus įspėjimas, kuris pasidarė labai garsus

Estimated read time 3 min read

Nuo Silicio slėnio iki JT klausimas, kaip priskirti kaltę, kai dirbtinis intelektas suklysta, nebėra ezoterinis reguliavimo klausimas, o geopolitinės reikšmės klausimas.

Šią savaitę Jungtinių Tautų Generalinis Sekretorius uždavė šį klausimą, pabrėždamas klausimą, kuris yra esminis diskusijose apie AI etiką ir reguliavimą. Jis suabejojo, kas turėtų būti laikomas atsakingas, kai dirbtinio intelekto sistemos daro žalą, diskriminuoja arba spiraliai viršija žmogaus ketinimus.

Šie komentarai buvo aiškus įspėjimas nacionaliniams lyderiams, taip pat technologijų pramonės vadovams, kad dirbtinio intelekto galimybės viršija reglamentus, kaip buvo pranešta anksčiau.

Tačiau nuostabus buvo ne tik įspėjimas. Taip pat buvo tonas. Apėmė susierzinimo jausmas.

Netgi neviltis. Jei dirbtinio intelekto valdomos mašinos naudojamos priimant sprendimus, susijusius su gyvybe ir mirtimi, pragyvenimo šaltiniais, sienomis ir saugumu, tada kažkas negali tiesiog nusiraminti sakydamas, kad viskas per daug sudėtinga.

Generalinis sekretorius sakė, kad atsakomybę „turi pasidalyti kūrėjai, diegėjai ir reguliavimo institucijos“.

Ši sąvoka rezonuoja su ilgalaikiais JT įtarimais dėl nežabotos technologinės jėgos, kuri sklinda per JT svarstymus dėl skaitmeninio valdymo ir žmogaus teisių.

Tas laikas yra svarbus. Vyriausybei bandant parengti dirbtinio intelekto reglamentus šiuo metu, kai technologijos taip sparčiai keičiasi, Europa jau ėmėsi iniciatyvos priimti ambicingus įstatymus, kurie bus taikomi didelės rizikos dirbtinio intelekto produktams, nustatydama reguliavimo standartą, kuris greičiausiai taps švyturiu (arba įspėjamuoju pasakojimu) kitoms šalims.

Tačiau atvirai kalbant: puslapyje esantys įstatymai nepakeis galios dinamikos. Generalinio sekretoriaus žodžiai patenka į pasaulį, kai susiduria su AI, kurios šiuo metu naudojamos atliekant imigracijos patikrinimą, nuspėjamą policijos veiklą, kreditingumą ir karinius pasirinkimus.

Pilietinė visuomenė perspėjo apie AI pavojų, jei nebus atsakomybės. Tai bus tobulas atpirkimo ožiukas žmogaus sprendimų priėmimui, turintis labai žmogiškų pasekmių: „algoritmas privertė mane tai padaryti“.

Taip pat turėtume paminėti, kad yra ir geopolitinė problema, apie kurią beveik nekalbama: kas atsitiks, jei AI paaiškinamumo taisyklės vienoje šalyje nesuderinamos su kaimyninės šalies taisyklėmis?

Kas atsitiks, kai AI peržengs ribas? Ar galime kalbėti apie teises eksportuoti AI? JT generalinis sekretorius Antonio Guterresas kalbėjo apie visuotinių gairių poreikį kuriant ir naudojant AI, panašiai kaip tai daroma su branduoliniais ir klimato įstatymais.

Ir tai nėra lengva užduotis pasaulyje, kuriame svyruoja tarptautiniai santykiai ir tarptautiniai susitarimai, kuris artėja prie visiško reguliavimo panaikinimo.

Mano interpretacija? Tai buvo ne diplomatija. Tai buvo tiesinė kalba. Tai nebuvo sudėtinga žinutė, net jei tai sudėtinga problema, kurią reikia išspręsti: AI nėra atleidžiamas nuo atsakomybės vien todėl, kad jis protingas, greitas ar pelningas.

Turi būti subjektas, kuriam jis yra atskaitingas už savo rezultatus. Ir kuo daugiau laiko pasaulis praleis spręsdamas, koks bus tas subjektas, tuo sprendimas bus skausmingesnis ir sudėtingesnis.

Nuoroda į informacijos šaltinį

Jums tai gali patikti

Daugiau iš autoriaus