Sekite ZDNET: Pridėkite mus kaip pageidaujamą šaltinį „Google“.
Pagrindiniai ZDNET pasiūlymai
- IT, inžinerijos, duomenų ir AI komandos dabar vadovauja atsakingai dirbtinio intelekto pastangoms.
- PwC rekomenduoja trijų pakopų „gynybos“ modelį.
- Įdėkite viską, nesistenkite, atsakingas AI.
„Atsakingas dirbtinis intelektas“ šiais laikais yra labai karšta ir svarbi tema, o technologijų vadybininkams ir profesionalams tenka pareiga užtikrinti, kad jų atliekamas dirbtinio intelekto darbas kurtų pasitikėjimą ir atitiktų verslo tikslus.
Penkiasdešimt šeši procentai iš 310 vadovų, dalyvaujančių naujame PwC tyrime, teigia, kad jų pirmosios eilės komandos – IT, inžinerija, duomenys ir dirbtinis intelektas – dabar vadovauja atsakingoms dirbtinio intelekto pastangoms. „Šis poslinkis priartina atsakomybę prie AI kuriančių komandų ir mato, kad valdymas vyksta ten, kur priimami sprendimai, perorientuojant atsakingą AI nuo pokalbio dėl atitikties prie pokalbio apie kokybės užtikrinimą“, – teigia PwC autoriai.
Taip pat: vartotojai labiau linkę mokėti už „atsakingus“ AI įrankius, sakoma Deloitte apklausoje
Remiantis PwC apklausa, atsakingas dirbtinis intelektas, susijęs su šališkumo pašalinimu ir sąžiningumo, skaidrumo, atskaitomybės, privatumo ir saugumo užtikrinimu, taip pat yra svarbus verslo gyvybingumui ir sėkmei. „Atsakingas dirbtinis intelektas tampa verslo vertės varikliu, didina investicijų grąžą, efektyvumą ir inovacijas, kartu stiprinant pasitikėjimą.
„Atsakingas dirbtinis intelektas yra komandinis sportas“, – aiškina ataskaitos autoriai. „Dabar būtini aiškūs vaidmenys ir griežtas perdavimas, kad būtų galima saugiai ir užtikrintai keistis, nes spartėja AI pritaikymas. Siekdama išnaudoti atsakingo AI pranašumus, PwC rekomenduoja dirbtinio intelekto programas diegti veikiančioje struktūroje su trimis „gynybos linijomis“.
- Pirma eilutė: kuria ir dirba atsakingai.
- Antroji eilutė: apžvalgos ir valdymas.
- Trečia eilutė: užtikrina ir auditas.
Iššūkis siekiant atsakingo DI, kurį nurodė pusė apklausos respondentų, yra atsakingų AI principų pavertimas „pakeičiamais, kartojamais procesais“, nustatė PwC.
Maždaug šeši iš dešimties „PwC“ apklausos respondentų (61 proc.) teigia, kad atsakingas DI yra aktyviai integruotas į pagrindines operacijas ir sprendimų priėmimą. Maždaug vienas iš penkių (21 %) praneša, kad yra mokymo etape, daugiausia dėmesio skiriantis darbuotojų mokymui, valdymo struktūroms ir praktiniam vadovavimui. Likę 18 % teigia, kad jie dar tik pradeda kurti pagrindines politikos kryptis ir sistemas.
Taip pat: „SaaS“ taip ilgai: kodėl dirbtinis intelektas baigiasi programinės įrangos licencijų galiojimo vietai – ir kas bus toliau
Visoje pramonės šakoje vyksta diskusijos apie tai, kaip griežtai turėtų būti valdomos AI, kad būtų užtikrintas atsakingas pritaikymas. „Neabejotinai pasitaiko situacijų, kai dirbtinis intelektas gali suteikti didelę vertę, tačiau retai kada įmonės toleruoja riziką“, – sakė buvęs JAV Nacionalinės saugumo agentūros įsilaužėlis ir IANS tyrimų fakulteto narys Jake'as Williamsas. “LLM, kurios yra daugumos agentų ir AI sprendimų pagrindas, nesukuria nuoseklios produkcijos, todėl kyla nenuspėjama rizika. Įmonės vertina pakartojamumą, tačiau dauguma LLM įgalintų programų geriausiu atveju yra beveik ištaisytos.”
Dėl šio neapibrėžtumo „matome, kad vis daugiau organizacijų atsisako DI iniciatyvų, nes suvokia, kad negali veiksmingai sumažinti rizikos, ypač tų, dėl kurių atsiranda reguliavimo poveikio“, – tęsė Williamsas. “Kai kuriais atvejais dėl to bus pakeista programų apimtis ir naudojimo atvejai, siekiant išvengti reguliavimo rizikos. Kitais atvejais bus atsisakyta ištisų projektų.”
8 atsakingo AI ekspertų gairės
Pramonės ekspertai siūlo šias atsakingo AI kūrimo ir valdymo gaires:
1. Sukurkite atsakingą AI nuo pradžios iki pabaigos: Padarykite atsakingą AI sistemos kūrimo ir diegimo dalimi, o ne paskubomis.
„Technologijų lyderiams ir vadybininkams rūpinimasis, kad dirbtinis intelektas būtų atsakingas, prasideda nuo to, kaip jis sukurtas“, – ZDNET sakė Rohanas Senas, „PwC US“ kibernetinių, duomenų ir technologijų rizikos vadovas ir tyrimo ataskaitos bendraautoris.
„Siekdami sukurti pasitikėjimą ir saugiai išplėsti AI, sutelkite dėmesį į atsakingo AI įtraukimą į kiekvieną AI kūrimo etapą ir įtraukite pagrindines funkcijas, pvz., kibernetinį, duomenų valdymą, privatumą ir taisyklių laikymąsi“, – sakė senatorius. „Įdėkite valdymą anksti ir nuolat.
Taip pat: 6 pagrindinės taisyklės, kaip panaudoti AI programinės įrangos kūrimo procese – ir rizika Nr. 1
2. Suteikite AI tikslą, o ne tik diegti dirbtinį intelektą dėl AI: „Per dažnai lyderiai ir jų technologijų komandos AI laiko eksperimentavimo įrankiu, generuojančiu daugybę duomenų baitų vien todėl, kad gali“, – sakė „Meta“ vyresnioji programinės įrangos architektė Danielle An.
“Naudokite technologijas pagal skonį, discipliną ir tikslą. Naudokite dirbtinį intelektą, kad paaštrintumėte žmogaus intuiciją – kad patikrintumėte idėjas, nustatytumėte silpnąsias vietas ir paspartintumėte pagrįstus sprendimus. Kurkite sistemas, kurios pagerintų žmogaus sprendimą, o ne jį pakeistų.”
3. Iš anksto pabrėžkite atsakingo AI svarbą: Pasak Josepho Logano, „iManage“ vyriausiojo informacijos pareigūno, atsakingos AI iniciatyvos „turėtų prasidėti nuo aiškios politikos, kuri apibrėžia priimtiną AI naudojimą ir paaiškina, kas yra draudžiama“.
„Pradėkite nuo etinio naudojimo vertės teiginio“, – sakė Loganas. „Nuo čia pirmenybę teikite periodiniams auditams ir apsvarstykite iniciatyvinį komitetą, apimantį privatumą, saugą, teisinius, IT ir viešuosius pirkimus. Nuolatinis skaidrumas ir atviras bendravimas yra svarbiausi, kad vartotojai žinotų, kas patvirtinta, kas laukiama ir kas draudžiama. Be to, investavimas į mokymus gali padėti sustiprinti atitiktį ir etišką naudojimą.
4. Padarykite atsakingą AI pagrindine darbo dalimi: Atsakinga AI praktika ir priežiūra turi būti toks pat prioritetas, kaip saugumas ir atitiktis, sakė Mike'as Blandina, „Snowflake“ vyriausiasis informacijos pareigūnas. “Užtikrinkite, kad modeliai būtų skaidrūs, paaiškinami ir be žalingo šališkumo.”
Taip pat labai svarbios tokios pastangos yra valdymo sistemos, atitinkančios reguliavimo institucijų, valdybų ir klientų reikalavimus. „Šios sistemos turi apimti visą AI gyvavimo ciklą – nuo duomenų gavimo, modelių mokymo, diegimo ir stebėjimo.
Taip pat: geriausi nemokami AI kursai ir kvalifikacijos tobulinimo sertifikatai – ir aš juos visus išbandžiau
5. Visais etapais stebėkite žmones: Teikti pirmenybę „nuolat diskutuoti, kaip atsakingai naudoti AI, kad būtų padidinta vertė klientams, kartu užtikrinant, kad būtų atsižvelgta ir į duomenų saugumą, ir į IP problemas“, – sakė Tony Morgan, „Priority Designs“ vyresnysis inžinierius.
“Mūsų IT komanda peržiūri ir kruopščiai tikrina kiekvieną mūsų patvirtintą AI platformą, kad įsitikintų, jog ji atitinka mūsų ir mūsų klientų apsaugos standartus. Siekdami gerbti naują ir esamą IP, užtikriname, kad mūsų komanda būtų išmokyta apie naujausius modelius ir metodus, kad galėtų juos taikyti atsakingai.”
6. Venkite pagreičio rizikos: Daugelis technologijų komandų „norėjo pradėti gaminti generatyvųjį dirbtinį intelektą, kol komanda negavo atsakymo į klausimą X arba rizikuoja Y“, – sakė „Epiic“ įkūrėjas ir generalinis direktorius Andy Zenkevich.
“Nauja AI galimybė bus tokia įdomi, kad projektai bus apmokestinami, kad jį būtų galima naudoti gamyboje. Rezultatas dažnai yra įspūdingas demonstracinis variantas. Tada viskas nutrūksta, kai tikrieji vartotojai pradeda ja pasikliauti. Galbūt yra neteisinga skaidrumo spraga. Galbūt neaišku, kas bus atsakingas, jei grąžinsite ką nors nelegalaus. Skirkite daugiau laiko rizikos žemėlapiui arba patikrinkite modelio paaiškinimą. Verslo praradimas yra teisingas pradinio paaiškinimo trūkumas.
Taip pat: visi mano, kad dirbtinis intelektas pakeis jų verslą, tačiau tik 13 proc
7. Dokumentas, dokumentas, dokumentas: Idealiu atveju „kiekvienas AI priimtas sprendimas turėtų būti užregistruotas, lengvai paaiškinamas, tikrinamas ir turi aiškų pėdsaką, kurį žmonės galėtų sekti“, – sakė McGehee. „Bet koks veiksmingas ir tvarus AI valdymas apims peržiūros ciklą kas 30–90 dienų, kad būtų tinkamai patikrintos prielaidos ir atlikti būtini koregavimai.
8. Patikrinkite savo duomenis: “Tai, kaip organizacijos gauna mokymo duomenis, gali turėti reikšmingų saugumo, privatumo ir etinių pasekmių“, – sakė Fredrikas Nilssonas, „Axis Communications“ Amerikos viceprezidentas.
“Jei dirbtinio intelekto modelis nuolat rodo šališkumo požymius arba buvo apmokytas naudoti autorių teisių saugomą medžiagą, klientai gali gerai pagalvoti prieš naudodami šį modelį. Mokydamos dirbtinio intelekto modelius įmonės turėtų naudoti savo, kruopščiai patikrintus duomenų rinkinius, o ne išorinius šaltinius, kad išvengtų neskelbtinos informacijos ir duomenų įsiskverbimo ir išfiltravimo. Kuo labiau valdysite modelių naudojamus duomenis, tuo lengviau susirūpinti.
Kiekvieną dieną į gautuosius gaukite svarbiausias ryto istorijas naudodami mūsų „Tech Today“ naujienlaiškis.