Tekoälyn synkkä puoli: vastakkaisia ​​uhkia paljastettu

Tekoälyn synkkä puoli: vastakkaisia ​​uhkia paljastettu

Viime raportti havaitsi, että turvallisuusviranomaisten tavoitteet eivät vastaa heidän toimiaan tekoälyn ja MLO:iden suojelemiseksi.

Suuri osa IT-johtajista, 97 %, uskoo, että tekoälyn ja järjestelmien turvaaminen on tärkeää, mutta vain 61 % on varma, että he saavat tarvitsemansa rahat. Vaikka 77 % haastatelluista IT-johtajista oli kokenut tekoälyyn liittyvän rikkomuksen (ei varsinkaan malleihin), vain 30 % oli sisällyttänyt manuaalisen suojauksen vastustavia hyökkäyksiä vastaan ​​olemassa olevaan tekoälykehitykseensä, mukaan lukien MLOps-putkistot. 

Vain 14 prosenttia valmistautuu tai testaa tällaisia ​​pahoinpitelyjä. MLOps Amazon Web Services määrittelee sen "käytännöiksi, jotka automatisoivat ja yksinkertaistavat koneoppimisen (ML) työnkulkuja ja käyttöönottoja."

IT-johtajat ovat yhä enemmän riippuvaisia ​​tekoälymalleista, mikä tekee niistä houkuttelevan kohteen monille uhkaaville tekoälyhyökkäyksille. 

IT-johtajien organisaatioilla on keskimäärin 1,689 98 mallia tuotannossa, ja XNUMX % uskoo, että jotkin heidän tekoälymalleistaan ​​ovat kriittisiä niiden menestykselle. XNUMX prosenttia ilmoittaa laajan käyttöönoton kaikissa organisaatioissaan olevissa tiimeissä. "Teollisuus työskentelee lujasti nopeuttaakseen tekoälyn käyttöönottoa ilman omaisuuden turvatoimia", kirjoittivat raportin asiantuntijat.

HiddenLayerin tekoälyn uhkamaisema Raportissa esitetään syvällinen analyysi tekoälypohjaisten järjestelmien kohtaamista uhista sekä kehitystä tekoäly- ja MLOps-putkien suojaamisessa.

Määrittele Adversarial AI

Kilpailevan tekoälyn tavoitteena on tahallisesti johtaa tekoäly- ja koneoppimisjärjestelmiä harhaan jättäen ne arvottomiksi niihin tarkoituksiin, joita varten ne on rakennettu. Vastakkainen AI määritellään "tekoälytekniikoiden käytöksi tekoälyjärjestelmien manipuloimiseen tai pettämiseen". Se on kuin taitava shakinpelaaja, joka käyttää hyväkseen vastustajansa heikkouksia. Nämä älykkäät vastustajat voivat kukistaa tyypilliset kyberpuolustusjärjestelmät käyttämällä monimutkaisia ​​algoritmeja ja strategioita välttääkseen kohdistettujen hyökkäysten havaitsemisen ja suorittamisen.

HiddenLayerin tutkimus määrittelee kolme päätyyppiä kilpailevaa tekoälyä, kuten alla on todettu:

Haitalliset koneoppimishyökkäykset. Tämän algoritmien heikkouksien hyödyntämiseen tähtäävän hyökkäyksen tavoitteet vaihtelevat suuremman tekoälysovelluksen tai -järjestelmän toimintaan vaikuttamisesta tekoälypohjaisten tunnistus- ja vastausjärjestelmien havaitsemisen välttämiseen tai taustalla olevan teknologian varastamiseen. Kansallisvaltiot harjoittavat vakoilua saadakseen taloudellista ja poliittista hyötyä, yrittäen kääntää malleja mallitietojen saamiseksi samalla kun ne käyttävät mallia omiin tarkoituksiinsa.

Hyökkäykset generatiivisista tekoälyjärjestelmistä. Nämä hyökkäykset kohdistuvat usein suodattimiin, suojakaiteisiin ja rajoituksiin, joita tarvitaan suojaamaan generatiivisia tekoälymalleja, mukaan lukien kaikki tietolähteet ja suuret kielimallit (LLM), joihin ne perustuvat. VentureBeatin mukaan kansallisvaltioiden hyökkäykset käyttävät edelleen LLM:itä aseena.

Hyökkääjät pitävät tavanomaisena käytäntönä ohittaa sisältörajoitukset ja luoda vapaasti kiellettyä materiaalia, jonka malli muuten estäisi, kuten syväväärennöksiä, petoksia ja muita tuhoavan digitaalisen median muotoja. Kansallisvaltiot käyttävät yhä enemmän Gen AI -järjestelmän hyökkäyksiä vaikuttaakseen Yhdysvaltojen ja muihin demokraattisiin vaaleihin maailmanlaajuisesti. Mukaan Yhdysvaltain tiedusteluyhteisön vuoden 2024 vuotuinen uhka-arvio, "Kiina osoittaa suurempaa kehittyneisyyttä vaikutustoiminnassaan, mukaan lukien generatiivisen tekoälyn kokeileminen", ja "Kiinan kansantasavalta (Kiina) saattaa yrittää vaikuttaa jollain tasolla Yhdysvaltain vuoden 2024 vaaleihin, koska se haluaa jättää kriitikot sivuun. Kiinasta ja suurentaa Yhdysvaltain yhteiskunnan jakautumista."

MLOps ja ohjelmistojen toimitusketjun hyökkäykset. Nämä ovat usein kansallisvaltioita ja suuria sähköisen rikollisuuden syndikaattioperaatioita, jotka keskittyvät tekoälyjärjestelmien suunnittelussa ja käyttöönotossa käytettyjen puitteiden, verkkojen ja alustojen sulkemiseen. Hyökkäystaktiikoihin kuuluu hyökkääminen MLOps-putken komponentteihin syöttääkseen haitallista koodia tekoälyjärjestelmään. Myrkytetyt tietojoukot tarjotaan käyttämällä ohjelmistopaketteja, mielivaltaista koodin suorittamista ja haittaohjelmien jakelumenetelmiä.    

Neljä tapaa suojautua kilpailevalta tekoälyhyökkäykseltä

Mitä enemmän aukkoja DevOps- ja CI/CD-putkien välillä on, sitä haavoittuvammaksi tekoäly- ja ML-mallikehityksestä tulee. Mallien suojaaminen on edelleen vaikeasti vaihtuva kohde, jota vaikeuttaa sukupolven tekoälyn aseistaminen.

Nämä ovat kuitenkin vain kourallinen lukuisista toimista, joihin organisaatiot voivat ryhtyä suojautuakseen aggressiiviselta tekoälyhyökkäykseltä. Niihin kuuluvat seuraavat:

Tee punaisesta tiimityöstä ja riskien arvioinnista osa organisaatiosi lihasmuistia tai DNA:ta. Älä tyydy punaiseen ryhmittymiseen satunnaisesti tai, mikä vielä pahempaa, juuri silloin, kun hyökkäys saa aikaan uuden kiireellisen ja tietoisuuden tunteen. Red teamingin on tultava osaksi kaikkien MLOps:ia tukevan DevSecOpsin DNA:ta jatkossa. Tavoitteena on löytää järjestelmä- ja putkistojen puutteet etukäteen sekä priorisoida ja vahvistaa kaikki MLOpsin System Development Lifecycle (SDLC) -menettelyjen aikana ilmenevät hyökkäysvektorit.

Pysy ajan tasalla ja ota käyttöön keinoälyn puolustusarkkitehtuuri, joka on tehokkain organisaatiollesi. Pyydä DevSecOps-tiimin jäsentä pysymään ajan tasalla monista nykyään saatavilla olevista suojakehyksistä. Organisaation tarpeita parhaiten vastaavan tietäminen voi auttaa turvaamaan MLOps, säästämään aikaa ja suojaamaan koko SDLC- ja CI/CD-putkistoa. Esimerkkejä ovat NIST AI Risk Management Framework ja OWASP AI Security and Privacy Guide.

Integroi biometriset menetelmät ja salasanattomat todennusmekanismit jokaiseen identiteetin pääsynhallintajärjestelmään synteettisten tietoihin perustuvien hyökkäysten riskin vähentämiseksi. VentureBeat on havainnut, että synteettistä dataa käytetään yhä useammin esiintymään ihmisinä ja pääsemään lähdekoodiin ja mallivarastoihin. Harkitse biometristen menetelmien, kuten kasvojentunnistuksen, sormenjälkien skannauksen ja äänentunnistuksen yhdistämistä salasanattomiin pääsytekniikoihin järjestelmien suojaamiseksi MLOpsissa. Gen AI on osoittanut kykynsä auttaa synteettisten tietojen luomisessa. MLOps-tiimit kohtaavat yhä useammin deepfake-riskejä, joten porrastettu strategia pääsyn suojaamiseen on pian välttämätön. 

Varmennusjärjestelmien satunnaisia ​​ja toistuvia tarkastuksia suoritetaan käyttöoikeuksien pitämiseksi ajan tasalla. Koska synteettiset identiteettihyökkäykset ovat nousseet yhdeksi vaikeimmin ehkäistävissä olevista vaaroista, on tärkeää pitää vahvistusjärjestelmät ajan tasalla korjausten suhteen ja auditoida ne. VentureBeatin mukaan seuraava identiteettihyökkäysten aalto nojaa vahvasti väärennettyihin tietoihin, jotka on koottu muistuttamaan todellista.

Lähde- VentureBeat

Jätä vastaus

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *