AI saugumo būklė 2025 m .: Pagrindinės „Cisco“ ataskaitos įžvalgos

Estimated read time 7 min read

Kadangi vis daugiau įmonių priima AI, supratimas apie jo saugumo riziką tapo svarbesnė nei bet kada. PG keičia pramonės šakas ir darbo eigas, tačiau joje taip pat pateikiami nauji saugumo iššūkiai, į kuriuos turi spręsti organizacijos. AI sistemų apsauga yra būtina norint išlaikyti pasitikėjimą, apsaugoti privatumą ir užtikrinti sklandžias verslo operacijas. Šiame straipsnyje apibendrinamos pagrindinės įžvalgos iš naujausios „Cisco“ AI būklės saugumo 2025 m. Ataskaitos. Tai siūlo apžvalgą, kur šiandien yra AI saugumas ir į tai, ką įmonės turėtų atsižvelgti į ateitį.

Didėjanti grėsmė AI

Jei 2024 m. Mums ko nors išmokė, tai yra tai, kad AI priėmimas juda greičiau, nei daugelis organizacijų gali tai užtikrinti. „Cisco“ pranešime teigiama, kad apie 72% organizacijų dabar naudoja AI savo verslo funkcijose, tačiau tik 13% jaučiasi visiškai pasirengę saugiai maksimaliai padidinti savo galimybes. Šį atotrūkį tarp įvaikinimo ir pasirengimo daugiausia lemia saugumo problemos, kurios išlieka pagrindine kliūtimi platesnei įmonių AI naudojimui. Ši situacija dar labiau susijusi su tuo, kad AI pateikia naujų rūšių grėsmes, kurias tradiciniai kibernetinio saugumo metodai nėra visiškai pritaikyti. Skirtingai nuo įprasto kibernetinio saugumo, kuris dažnai apsaugo fiksuotas sistemas, AI kelia dinamišką ir adaptyviąsias grėsmes, kurias sunkiau numatyti. Ataskaitoje pabrėžiama, kad kelios kylančios grėsmės organizacijos turėtų žinoti:

  • Infrastruktūros atakos: PG infrastruktūra tapo pagrindiniu užpuolikų taikiniu. Svarbus pavyzdys yra „NVIDIA“ konteinerių įrankių rinkinio kompromisas, kuris leido užpuolikams pasiekti failų sistemas, paleisti kenksmingą kodą ir padidinti privilegijas. Panašiai Ray, atvirojo kodo AI sistema GPU valdymui, buvo pažeista vienoje iš pirmųjų realaus pasaulio AI sistemos išpuolių. Šie atvejai parodo, kaip AI infrastruktūros trūkumai gali paveikti daugelį vartotojų ir sistemų.
  • Tiekimo grandinės rizika: PG tiekimo grandinės pažeidžiamumas kelia dar vieną didelį susirūpinimą. Maždaug 60% organizacijų priklauso nuo atvirojo kodo AI komponentų ar ekosistemų. Tai sukelia riziką, nes užpuolikai gali kompromituoti šias plačiai naudojamas įrankius. Ataskaitoje minima technika, vadinama „mieguistu marinatu“, kuri leidžia priešininkams sugadinti AI modelius net po paskirstymo. Tai labai apsunkina aptikimą.
  • AI specifinės atakos: Nauji puolimo būdai greitai vystosi. Metodai, tokie kaip greita injekcija, kalėjimas ir mokymo duomenų gavyba, leidžia užpuolikams apeiti saugos kontrolę ir pasiekti neskelbtiną informaciją, esančią mokymo duomenų rinkiniuose.

Ataka vektoriai, nukreipti į AI sistemas

Ataskaitoje pabrėžiamas atakų vektorių atsiradimas, kurį kenkėjiški veikėjai naudoja naudodamiesi AI sistemų silpnybėmis. Šios atakos gali įvykti įvairiuose AI gyvavimo ciklo etapuose nuo duomenų rinkimo ir modelio mokymo iki diegimo ir išvadų. Tikslas dažnai yra priversti AI elgtis nenumatytais būdais, nutekėti privatūs duomenys arba atlikti kenksmingus veiksmus.

Pastaraisiais metais šie atakos metodai tapo tobulesni ir sunkesni. Ataskaitoje pabrėžiami kelių tipų atakų vektoriai:

  • Kalėjimas: Ši technika apima prieštaringų raginimus, apeinančius modelio saugos priemones. Nepaisant AI gynybos patobulinimų, „Cisco“ tyrimai rodo, kad net paprasti „Jailbreaks“ lieka veiksmingi prieš pažangius modelius, tokius kaip „Deepseek R1“.
  • Netiesioginis greitas injekcija: Skirtingai nuo tiesioginių atakų, šis atakos vektorius apima manipuliavimą įvesties duomenimis arba kontekstu, kurį AI modelis naudoja netiesiogiai. Užpuolikai gali pateikti pažeistą šaltinio medžiagą, tokią kaip kenksmingi PDFS ar tinklalapiai, todėl AI sukuria nenumatytus ar kenksmingus rezultatus. Šie išpuoliai yra ypač pavojingi, nes jiems nereikia tiesioginės prieigos prie AI sistemos, leidžiančios užpuolikams apeiti daugybę tradicinių gynybos.
  • Duomenų ištraukimo ir apsinuodijimo mokymas: „Cisco“ tyrėjai pademonstravo, kad pokalbių programas galima apgauti atskleidžiant jų mokymo duomenų dalis. Tai kelia rimtą susirūpinimą dėl duomenų privatumo, intelektinės nuosavybės ir atitikties. Užpuolikai taip pat gali apsinuodyti mokymo duomenimis, švirkščiant kenkėjiškus įvestis. Nerimą kelia tai, kad apsinuodijimas tik 0,01% didelių duomenų rinkinių, tokių kaip „LaIon-400m“ ar „Coyo-700M“, gali paveikti modelio elgesį, ir tai gali būti padaryta su nedideliu biudžetu (apie 60 USD), todėl šie atakos yra prieinamos daugeliui blogų veikėjų.

Ataskaitoje pabrėžiamas rimtas susirūpinimas dėl dabartinės šių atakų būklės, kai tyrėjai pasiekė 100% sėkmės procentą prieš pažangius modelius, tokius kaip „Deepseeek R1“ ir „LLAMA 2“. Tai atskleidžia kritinius saugumo pažeidžiamumus ir potencialią riziką, susijusią su jų naudojimu. Be to, ataskaitoje nurodoma naujų grėsmių, tokių kaip balso pagrindu sukurtos „Jailbreaks“, atsiradimo, kuris yra specialiai skirtas nukreipti į multimodalinius AI modelius.

„Cisco“ AI saugumo tyrimų išvados

„Cisco“ tyrimų komanda įvertino įvairius AI saugumo aspektus ir atskleidė keletą pagrindinių išvadų:

  • Algoritminis kalėjimas: Tyrėjai parodė, kad net aukščiausius AI modelius galima automatiškai apgauti. Naudodamiesi metodu, vadinamu atakų medžiu su genėjimu (TAP), tyrėjai apeina apsaugą ant GPT-4 ir LLAMA 2.
  • Rizika tobulinant: Daugelis įmonių tikslinės fondo modeliai, siekdami pagerinti konkrečių sričių aktualumą. Tačiau tyrėjai nustatė, kad tikslinimas gali susilpninti vidinius apsaugos apsaugos priemones. Patobulintos versijos buvo daugiau nei tris kartus labiau pažeidžiamos „Jaillwreaking“ ir 22 kartus labiau linkusios gaminti kenksmingą turinį nei originalūs modeliai.
  • Mokymo duomenų ištraukimas: „Cisco“ tyrėjai panaudojo paprastą skilimo metodą, norėdami apgauti pokalbių programas į naujienų straipsnių fragmentus, leidžiančius jiems rekonstruoti medžiagos šaltinius. Tai kelia riziką atskleisti jautrius ar patentuotus duomenis.
  • Apsinuodijimas duomenimis: Apsinuodijimas duomenimis: „Cisco“ komanda parodo, kaip lengva ir nebrangu apsinuodyti didelio masto žiniatinklio duomenų rinkiniais. Maždaug už 60 USD tyrėjams pavyko apsinuodyti 0,01% duomenų rinkinių, tokių kaip „LaIon-400m“ ar „Coyo-700M“. Be to, jie pabrėžia, kad šio apsinuodijimo lygio pakanka, kad būtų pastebimi modelio elgesio pokyčiai.

PG vaidmuo kibernetiniuose nusikaltimuose

PG nėra tik taikinys – tai taip pat tampa kibernetinių nusikaltėlių įrankiu. Ataskaitoje pažymima, kad automatizavimas ir AI orientuota socialinė inžinerija padarė išpuolius veiksmingesnes ir sunkiau pastebėtas. Nuo sukčiavimo sukčiavimo iki balso klonavimo, AI padeda nusikaltėliams kurti įtikinančias ir individualizuotas išpuolius. Ataskaitoje taip pat nurodoma kenksmingų AI įrankių, tokių kaip „Dargpt“, kilimą, skirtą specialiai padėti kibernetiniams nusikaltimams generuojant sukčiavimo el. Laiškus ar išnaudojant pažeidžiamumus. Tai, kas daro šias priemones, ypač susijusias su jų prieinamumu. Net žemos kvalifikacijos nusikaltėliai dabar gali sukurti labai individualizuotus išpuolius, kurie išvengtų tradicinės gynybos.

Geriausia AI užtikrinimo praktika

Atsižvelgiant į nepastovų AI saugumo pobūdį, „Cisco“ rekomenduoja keletą praktinių žingsnių organizacijoms:

  1. Tvarkykite riziką visame AI gyvavimo cikle: Labai svarbu nustatyti ir sumažinti riziką kiekviename AI gyvavimo ciklo etape nuo duomenų tiekimo ir modelio mokymo iki diegimo ir stebėjimo. Tai taip pat apima trečiųjų šalių komponentų apsaugą, stiprių apsauginių turėklų taikymą ir griežtai valdymą prieigos taškus.
  2. Naudokite nusistovėjusią kibernetinio saugumo praktiką: Nors AI yra unikali, tradicinė geriausia kibernetinio saugumo praktika vis dar yra būtina. Technikos, tokios kaip prieigos kontrolė, leidimų valdymas ir duomenų praradimo prevencija, gali atlikti gyvybiškai svarbų vaidmenį.
  3. Sutelkite dėmesį į pažeidžiamas sritis: Organizacijos turėtų sutelkti dėmesį į sritis, kurios greičiausiai bus nukreiptos, tokios kaip tiekimo grandinės ir trečiųjų šalių AI programos. Supratę, kur slypi pažeidžiamumai, verslas gali įgyvendinti tikslingesnę gynybą.
  4. Šviekite ir mokykite darbuotojus: Kai AI įrankiai tampa plačiai paplitę, svarbu mokyti vartotojus atsakingam AI naudojimui ir rizikos supratimui. Gerai informuota darbo jėga padeda sumažinti atsitiktinį duomenų poveikį ir netinkamą naudojimą.

Žvilgsnis į priekį

PG priėmimas augs, o kartu su juo vystysis saugumo rizika. Vyriausybės ir organizacijos visame pasaulyje pripažįsta šiuos iššūkius ir pradeda kurti politiką bei reglamentus, kuriais vadovaujasi PG sauga. Kaip pabrėžia „Cisco“ ataskaita, pusiausvyra tarp AI saugos ir pažangos apibrėžs kitą AI kūrimo ir diegimo erą. Organizacijos, kurios teikia pirmenybę saugumui kartu su naujovėmis, bus geriausiai pasirengusios spręsti iššūkius ir patraukti kylančias galimybes.

Nuoroda į informacijos šaltinį

Jums tai gali patikti

Daugiau iš autoriaus