The Dark Side of AI: Adversarial Threats Revealed

The Dark Side of AI: Adversarial Threats Revealed

En fersk rapporterer fant at sikkerhetstjenestemennenes mål ikke samsvarer med deres aktiviteter for å beskytte AI og MLOps.

Et stort antall IT-ledere, 97 %, mener at beskyttelse av AI og sikring av systemer er avgjørende, men bare 61 % er sikre på at de vil motta pengene de trenger. Selv om 77 % av IT-lederne som ble intervjuet hadde opplevd et AI-relatert brudd (ikke spesielt for modeller), hadde bare 30 % inkludert et manuelt forsvar for motstandsangrep i deres eksisterende AI-utvikling, inkludert MLOps-rørledninger. 

Bare 14 % forbereder eller tester for slike overgrep. MLOps er definert av Amazon Web Services som "et sett med praksiser som automatiserer og forenkler maskinlæring (ML) arbeidsflyter og distribusjoner."

IT-ledere er i økende grad avhengige av AI-modeller, noe som gjør dem til et attraktivt mål for et bredt spekter av truende AI-angrep. 

IT-ledernes organisasjoner har et gjennomsnitt på 1,689 modeller i produksjon, med 98 % som mener at noen av deres AI-modeller er avgjørende for deres suksess. Åttitre prosent rapporterer utbredt bruk på tvers av alle team i organisasjonene deres. "Bransjen jobber hardt for å akselerere AI-adopsjon uten å ha eiendomssikkerhetstiltakene på plass," skrev rapportens eksperter.

HiddenLayers AI Threat Landscape Rapporten presenterer en dybdeanalyse av truslene som AI-baserte systemer står overfor, samt utviklingen i å beskytte AI- og MLOps-rørledninger.

Definer Adversarial AI

Målet med kontradiktorisk AI er å villede AI og maskinlæringssystemer (ML) med vilje, og etterlate dem verdiløse for formålene de ble bygget for. Motstridende AI er definert som "bruken av kunstig intelligens-teknikker for å manipulere eller lure AI-systemer." Det er som en klok sjakkspiller som utnytter motstanderens svakheter. Disse smarte motstanderne kan beseire typiske cyberforsvarssystemer ved å bruke komplekse algoritmer og strategier for å unngå oppdagelse og utføre målrettede angrep.

HiddenLayers studie etablerer tre hovedtyper av motstridende AI, som angitt nedenfor:

Motstridende maskinlæringsangrep. Målet med denne formen for angrep, som tar sikte på å utnytte svakheter i algoritmer, spenner fra å påvirke oppførselen til en større AI-applikasjon eller et større AI-system til å unnslippe deteksjon med AI-baserte deteksjons- og responssystemer eller å stjele den underliggende teknologien. Nasjonalstater engasjerer seg i spionasje for økonomisk og politisk fordel, og forsøker å reversere modeller for å skaffe modelldata samtidig som de distribuerer modellen til deres formål.

Angrep fra generative AI-systemer. Disse angrepene er ofte rettet mot filtre, rekkverk og grenser som er nødvendige for å beskytte generative AI-modeller, inkludert alle datakilder og store språkmodeller (LLM) som de er avhengige av. Ifølge VentureBeat fortsetter nasjonalstatsangrep å bruke LLM-er som våpen.

Angripere anser det som standard praksis å omgå innholdsbegrensninger for fritt å generere forbudt materiale som modellen ellers ville blokkert, for eksempel deepfakes, bedrag og andre former for destruktive digitale medier. Nasjonalstater bruker i økende grad Gen AI-systemangrep for å påvirke amerikanske og andre demokratiske valg over hele verden. Ifølge US Intelligence Communitys årlige trusselvurdering for 2024, "Kina viser en høyere grad av sofistikert påvirkningsaktivitet, inkludert eksperimentering med generativ kunstig intelligens," og "Folkerepublikken Kina (PRC) kan forsøke å påvirke det amerikanske valget i 2024 på et eller annet nivå på grunn av ønsket om å sidestille kritikere av Kina og forstørre amerikanske samfunnsskiller.»

MLOps og programvareforsyningskjedeangrep. Dette er ofte nasjonalstatlige og store e-krimsyndikatoperasjoner som fokuserer på å stenge ned rammeverkene, nettverkene og plattformene som brukes til å designe og distribuere AI-systemer. Angrepstaktikker inkluderer å angripe MLOps-rørledningskomponenter for å injisere ondsinnet kode i AI-systemet. Forgiftede datasett leveres ved hjelp av programvarepakker, kjøring av vilkårlig kode og distribusjonsmetoder for skadelig programvare.    

Fire metoder for å beskytte mot et kontradiktorisk AI-angrep

Jo flere gap mellom DevOps- og CI/CD-pipelines, jo mer sårbar AI- og ML-modellutvikling blir. Å beskytte modeller forblir et unnvikende, skiftende mål, gjort vanskeligere av våpniseringen av generasjon AI.

Dette er imidlertid bare en håndfull av de mange handlingene som organisasjoner kan ta for å beskytte seg mot et aggressivt AI-angrep. De inkluderer følgende:

Gjør red teaming og risikovurdering til en del av organisasjonens muskelminne eller DNA. Ikke ta et oppgjør med røde lag på sporadisk basis, eller enda verre, akkurat når et overfall forårsaker en fornyet følelse av at det haster og er bevisst. Red teaming må bli en del av DNAet til alle DevSecOps som støtter MLOps fremover. Målet er å oppdage system- og rørledningsfeil på forhånd, samt å prioritere og herde eventuelle angrepsvektorer som dukker opp gjennom MLOps' System Development Lifecycle (SDLC) prosedyrer.

Hold deg oppdatert og implementer den defensive arkitekturen for AI som er mest effektiv for organisasjonen din. La et medlem av DevSecOps-teamet holde seg oppdatert på de mange beskyttende rammeverkene som er tilgjengelige i dag. Å vite hvilken som best oppfyller en organisasjons behov kan hjelpe til med å sikre MLOps, spare tid og beskytte den generelle SDLC- og CI/CD-pipelinen. Eksempler inkluderer NIST AI Risk Management Framework og OWASP AI Security and Privacy Guide.

Integrer biometriske modaliteter og passordløse autentiseringsmekanismer i hvert administrasjonssystem for identitetstilgang for å redusere risikoen for syntetiske databaserte angrep. VentureBeat har oppdaget at syntetiske data i økende grad blir brukt til å etterligne mennesker og få tilgang til kildekode og modelllager. Vurder å kombinere biometriske modaliteter som ansiktsgjenkjenning, fingeravtrykkskanning og stemmegjenkjenning med passordløse tilgangsteknologier for å beskytte systemer gjennom MLOps. Gen AI har vist sin evne til å hjelpe til med å lage syntetiske data. MLOps-team vil i økende grad møte deepfake-risikoer, derfor blir en lagdelt strategi for å beskytte tilgang snart viktig. 

Tilfeldige og hyppige revisjoner av verifikasjonssystemer utføres for å opprettholde tilgangsrettighetene oppdatert. Siden syntetiske identitetsangrep dukker opp som en av de vanskeligste farene å forhindre, er det viktig å holde bekreftelsessystemene oppdatert på rettelser og revidere dem. I følge VentureBeat vil den neste bølgen av identitetsangrep i stor grad stole på falske data som har blitt samlet for å ligne ekte.

Kilde- VentureBeat

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket *