Tamsioji AI pusė: atskleistos priešiškos grėsmės

Tamsioji AI pusė: atskleistos priešiškos grėsmės

Neseniai pranešti nustatė, kad saugumo pareigūnų tikslai nesutampa su jų veikla apsaugoti dirbtinį intelektą ir MLO.

Daugelis IT vadovų, 97%, mano, kad dirbtinio intelekto ir sistemų apsauga yra labai svarbios, tačiau tik 61% yra įsitikinę, kad gaus reikalingus pinigus. Nors 77% apklaustų IT lyderių patyrė su DI susijusį pažeidimą (ne ypač modeliams), tik 30% įtraukė rankinę apsaugą nuo priešiškų išpuolių į esamą AI kūrimą, įskaitant MLOps vamzdynus. 

Tokiems išpuoliams ruošiasi arba testuojasi tik 14 proc. MLOps „Amazon Web Services“ apibrėžia kaip „praktikos rinkinį, kuris automatizuoja ir supaprastina mašininio mokymosi (ML) darbo eigą ir diegimą“.

IT vadovai vis labiau priklauso nuo dirbtinio intelekto modelių, todėl jie tampa patraukliu įvairiausių grėsmingų AI atakų taikiniu. 

IT lyderių organizacijos gamina vidutiniškai 1,689 98 modelius, o XNUMX % mano, kad kai kurie jų AI modeliai yra labai svarbūs jų sėkmei. Aštuoniasdešimt trys procentai teigia, kad tai plačiai taikoma visose savo organizacijų komandose. „Pramonė sunkiai dirba, kad paspartintų dirbtinio intelekto pritaikymą neįgyvendindama nuosavybės apsaugos priemonių“, – rašė ataskaitos ekspertai.

„HiddenLayer“ AI grėsmės kraštovaizdis Ataskaitoje pateikiama išsami grėsmių, su kuriomis susiduria dirbtinio intelekto sistemos, analizė, taip pat DI ir MLOps vamzdynų apsaugos pokyčiai.

Apibrėžkite priešingą AI

Konkurencinio DI tikslas yra tyčia suklaidinti AI ir mašininio mokymosi (ML) sistemas, paliekant jas bevertes tikslams, kuriems jos buvo sukurtos. Priešingas AI apibrėžiamas kaip „dirbtinio intelekto metodų naudojimas manipuliuoti ar apgauti dirbtinio intelekto sistemas“. Tai tarsi apsukrus šachmatininkas, besinaudojantis varžovo silpnybėmis. Šie sumanūs priešai gali nugalėti įprastas kibernetinės gynybos sistemas, taikydami sudėtingus algoritmus ir strategijas, kad išvengtų tikslinių atakų aptikimo ir vykdymo.

„HiddenLayer“ tyrimas nustato tris pagrindines priešiško AI rūšis, kaip nurodyta toliau:

Priešingos mašininio mokymosi atakos. Šios atakos formos, kuria siekiama išnaudoti algoritmų trūkumus, tikslai – nuo ​​įtakos didesnės dirbtinio intelekto programos ar sistemos veikimui iki aptikimo DI pagrįstomis aptikimo ir atsako sistemomis arba pagrindinės technologijos vagystės. Nacionalinės valstybės šnipinėja siekdamos finansinės ir politinės naudos, bandydamos pakeisti modelius, kad gautų modelio duomenis, kartu panaudodamos modelį savo tikslams.

Atakos iš generatyvių AI sistemų. Šios atakos dažnai nukreiptos į filtrus, apsauginius turėklus ir ribas, būtinus siekiant apsaugoti generuojamuosius AI modelius, įskaitant visus duomenų šaltinius ir didelių kalbų modelius (LLM), kuriais jie remiasi. „VentureBeat“ teigimu, tautinių valstybių puolimui ir toliau naudojami LLM kaip ginklai.

Užpuolikai mano, kad įprasta praktika apeiti turinio apribojimus ir laisvai generuoti uždraustą medžiagą, kurią modelis kitu atveju blokuotų, pvz., gilius klastojimus, apgaulę ir kitas žalingos skaitmeninės laikmenos formas. Nacionalinės valstybės vis dažniau naudoja „Gen AI“ sistemos puolimą, kad paveiktų JAV ir kitus demokratinius rinkimus visame pasaulyje. Pagal JAV žvalgybos bendruomenės 2024 m. metinis grėsmių įvertinimas, „Kinija demonstruoja didesnį įmantrumo laipsnį savo įtakos veikloje, įskaitant eksperimentavimą su generatyviuoju dirbtiniu intelektu“, o „Kinijos Liaudies Respublika (KLR) gali bandyti tam tikru lygiu paveikti 2024 m. JAV rinkimus, nes nori nustumti kritikus į šalį. Kiniją ir padidinti JAV visuomenės susiskaldymą“.

MLOps ir programinės įrangos tiekimo grandinės atakos. Tai dažnai yra nacionalinės valstybės ir stambios e. nusikalstamumo sindikato operacijos, skirtos sistemoms, tinklams ir platformoms, naudojamoms dirbtinio intelekto sistemoms kurti ir įdiegti. Atakos taktika apima MLOps dujotiekio komponentų atakavimą, kad į AI sistemą būtų įterptas kenkėjiškas kodas. Apnuodyti duomenų rinkiniai pateikiami naudojant programinės įrangos paketus, savavališko kodo vykdymą ir kenkėjiškų programų platinimo metodus.    

Keturi būdai apsisaugoti nuo priešiškos AI atakos

Kuo daugiau tarpų tarp DevOps ir CI/CD konvejerių, tuo labiau pažeidžiamas AI ir ML modelių kūrimas. Modelių apsauga tebėra sunkiai suprantamas, besikeičiantis taikinys, kurį apsunkina kartos dirbtinio intelekto ginklų panaudojimas.

Tačiau tai tik keletas veiksmų, kurių organizacijos gali imtis, kad apsisaugotų nuo agresyvaus AI puolimo. Jie apima:

Padarykite raudoną komandą ir rizikos vertinimą savo organizacijos raumenų atminties arba DNR dalimi. Nesistenkite su raudonųjų komandų sudarymu retkarčiais arba, dar blogiau, tiesiog tada, kai užpuolimas sukelia atnaujintą skubos ir sąmoningumo jausmą. Red teaming turi tapti bet kurio DevSecOps, palaikančio MLOps, DNR dalimi. Tikslas yra iš anksto aptikti sistemos ir vamzdynų trūkumus, taip pat nustatyti pirmenybę ir sustiprinti bet kokius atakos vektorius, atsirandančius per MLOps sistemos kūrimo gyvavimo ciklo (SDLC) procedūras.

Sekite naujienas ir įdiekite DI gynybinę architektūrą, kuri yra efektyviausia jūsų organizacijai. Leiskite „DevSecOps“ komandos nariui gauti naujausią informaciją apie daugybę šiandien prieinamų apsaugos sistemų. Žinojimas, kuris iš jų geriausiai atitinka organizacijos poreikius, gali padėti apsaugoti MLO, sutaupyti laiko ir apsaugoti bendrą SDLC ir CI/CD konvejerį. Pavyzdžiui, NIST AI rizikos valdymo sistema ir OWASP AI saugos ir privatumo vadovas.

Integruokite biometrinius būdus ir autentifikavimo be slaptažodžio mechanizmus į kiekvieną tapatybės prieigos valdymo sistemą, kad sumažintumėte sintetinių duomenų atakų riziką. „VentureBeat“ išsiaiškino, kad sintetiniai duomenys vis dažniau naudojami apsimetinėti žmonėmis ir gauti prieigą prie šaltinio kodo ir modelių saugyklų. Apsvarstykite galimybę derinti biometrinius būdus, tokius kaip veido atpažinimas, pirštų atspaudų nuskaitymas ir balso atpažinimas, su prieigos be slaptažodžio technologijomis, kad apsaugotumėte sistemas visose MLO. Gen AI parodė savo gebėjimą padėti kurti sintetinius duomenis. MLOps komandos vis dažniau susidurs su giliomis klastotėmis, todėl pakopinė prieigos apsaugos strategija greitai tampa būtina. 

Atliekami atsitiktiniai ir dažni patikros sistemų auditai, kad prieigos teisės būtų aktualios. Kadangi sintetinės tapatybės atakos tampa vienu iš sunkiausiai išvengiamų pavojų, svarbu nuolat atnaujinti tikrinimo sistemas dėl pataisų ir jas tikrinti. „VentureBeat“ teigimu, kita tapatybės užpuolimo banga labai priklausys nuo netikrų duomenų, kurie buvo apibendrinti, kad būtų panašūs į tikrus.

Šaltinis- VentureBeat

Palikti atsakymą

Jūsų elektroninio pašto adresas nebus skelbiamas. Privalomi laukai yra pažymėti *