Ką iš tikrųjų reiškia kovoti su nesąžiningu AI įmonėje šiandien

Estimated read time 4 min read

Žinoma, niekam, kuris kreipia dėmesį į spartų AI plitimą visoje įmonėje, neturiu pasakyti, kad tai toli gražu nėra įprastas pranešimas apie naują produktą.

Mes tikrai esame nepatogioje tarpinėje fazėje, kai AI gali atrodyti kaip šiek tiek nevaldomas gyvūnas: labai galingas, šiek tiek nenuspėjamas ir kartais šiek tiek neapgalvotas.

Atsižvelgiant į tai, šiandien pristatome naują Agent Commander platformą – platformą, kuri žada ne tik nustatyti AI problemas, bet ir „atšaukti“ AI pagrįstas klaidas.

Nors prie to visi esame pripratę kitose IT srityse daugelį metų, kalbant apie dirbtinio intelekto saugą, dauguma iš mūsų to dar net nematė žaidimo knygelėje.

Atsižvelgiant į tai, nesunku suprasti, kodėl Veeam sulaukia didelio susidomėjimo savo nauja platforma. Kai dirbtinio intelekto agentai priima savo sprendimus šviesos greičiu, akivaizdu, kad negalėsite laukti valandų, kol aptiksite problemą, ir dienų, kol ją išspręsite.

Tai buvo tikra problema, kurią daugelis saugumo srityje matė iš pirmų lūpų. Susijaudinimą dėl „Agent Commander“ kelia tai, kad daugelis CTO ir kitų įmonių technologijų lyderių šiek tiek jaudinasi – „Veeam“ žada atlikti visus tris veiksmus: aptikti AI riziką, apsaugoti dirbtinio intelekto darbo krūvius ir anuliuoti AI veiksmus.

Aplinkoje, kurioje dauguma mūsų įrankių buvo sukurti aptikti ir apsaugoti, tai įdomi idėja. „Veeam“ metodas yra pasiūlyti saugos komandoms vieną duomenų, tapatybės ir AI veiklos vaizdą realiuoju laiku.

Daugelis esamų įrankių atlieka kai kurias iš šių užduočių, bet ne visas arba ne realiuoju laiku. Beveik įsivaizduoju diskusiją, kuri šiandien vyksta CTO lygio darbuotojų susitikimuose: „Taip, taip, AI grėsmių aptikimas yra puikus dalykas.

Bet ką daryti, kai dirbtinio intelekto agentas jau padarė tai, ko neturėtų daryti? O kaip tada, kai kai kuriais jautriais duomenimis jau piktnaudžiaujama? Esu tikras, kad daugelis apsaugos komandų jau keletą mėnesių grumiasi su šiuo klausimu.

Remiantis apklausomis, didelė dalis įmonių jau patyrė su AI susijusių saugumo problemų. Esami įrankiai čia neatlieka savo darbo. Štai kodėl IT komandos, su kuriomis kalbėjausi, nebekalba tik apie saugumą; jie kalba apie pasitikėjimą.

Jie nori pakankamai pasitikėti dirbtinio intelekto agentais, kad galėtų ir toliau taikyti DI, kad gautų visą galingą naudą, kurią jis gali suteikti jų organizacijoms, nesibaimindami, kad kitą duomenų pažeidimą įvyks jų AI sistemos.

Nors Veeam Agent Commander nėra panacėja, jos pažadas priskirti AI veiklą ir pasirinktinai jas pakeisti gali būti pradžia to, ko šios komandos ieškojo.

Tačiau, nors manau, kad tai yra didelis dalykas, taip pat manau, kad svarbu žengti žingsnį atgal ir suprasti, kad tai dar vienas didesnės AI tikrovės ženklas: oficialiai esame „agentiško“ AI amžiuje, kai AI agentai ne tik atsako į užklausas ir užklausas, bet ir aktyviai imasi nepriklausomų veiksmų, dažnai susietų paslaugų ir duomenų grandinėmis.

Jie priima sprendimus tokiu greičiu ir tokiu mastu, kad žmonėms sunku suspėti. Dėl to kyla visiškai naujų pavojų, todėl įrankiai ir sistemos, sukurti ankstesnės kartos statinėms programoms, šiandien atrodo taip pasenę.

„Veeam“ šiandieninis pranešimas yra mažiau naujo produkto pristatymas, o labiau pareiškimas, kad dirbtinis intelektas yra kitoks. Taigi kur tai palieka mus šiandien? Manau, kad naujasis „Veeam“ agentas vadas yra svarbus priminimas, kad dirbtinis intelektas nėra tik kažkas, kam turėsime ruoštis – tai kažkas, ką turėsime kontroliuoti.

Ir nors neabejotinai turėsime daug daugiau klausimų, kai šie autonominiai AI agentai ir toliau tobulės, manau, kad tai puiki pokalbio pradžia. Ir kas žino? Galbūt vieną dieną iš tikrųjų turėsime dirbtinį intelektą, kuris padės mums valdyti save.

Nuoroda į informacijos šaltinį

Jums tai gali patikti

Daugiau iš autoriaus