Partea întunecată a inteligenței artificiale: amenințările adverse dezvăluite

Partea întunecată a inteligenței artificiale: amenințările adverse dezvăluite

Un recent raportează a constatat că obiectivele oficialilor de securitate nu se potrivesc cu activitățile lor de a proteja AI și MLOps.

Un număr mare de directori IT, 97%, consideră că protejarea AI și protejarea sistemelor este esențială, dar doar 61% sunt siguri că vor primi banii de care au nevoie. Deși 77% dintre liderii IT intervievați s-au confruntat cu o încălcare legată de AI (nu în special la modele), doar 30% au inclus o apărare manuală pentru atacurile adverse în dezvoltarea lor existentă de AI, inclusiv conductele MLOps. 

Doar 14% se pregătesc sau testează pentru astfel de atacuri. MLOps este definit de Amazon Web Services ca „un set de practici care automatizează și simplifică fluxurile de lucru și implementările de învățare automată (ML).

Directorii IT depind din ce în ce mai mult de modelele AI, făcându-le o țintă atrăgătoare pentru o gamă largă de atacuri AI amenințătoare. 

Organizațiile liderilor IT au o medie de 1,689 de modele în producție, 98% consideră că unele dintre modelele lor AI sunt esențiale pentru succesul lor. Optzeci și trei la sută raportează o adoptare pe scară largă în toate echipele din organizațiile lor. „Industria lucrează din greu pentru a accelera adoptarea AI fără a avea măsuri de securitate a proprietății”, au scris experții raportului.

Peisajul amenințărilor AI de la HiddenLayer Raportul prezintă o analiză aprofundată a amenințărilor cu care se confruntă sistemele bazate pe AI, precum și evoluțiile în protejarea conductelor AI și MLOps.

Definiți AI adversar

Scopul AI adversar este să inducă în eroare intenționat AI și sistemele de învățare automată (ML), lăsându-le fără valoare pentru scopurile pentru care au fost construite. AI adversar este definită ca „folosirea tehnicilor de inteligență artificială pentru a manipula sau înșela sistemele AI”. Este ca un jucător de șah priceput care profită de slăbiciunile adversarului său. Acești adversari inteligenți pot învinge sistemele tipice de apărare cibernetică prin folosirea de algoritmi și strategii complexe pentru a evita detectarea și a executa atacuri direcționate.

Studiul lui HiddenLayer stabilește trei tipuri majore de IA adversă, după cum se precizează mai jos:

Atacurile adverse de învățare automată. Obiectivele acestei forme de atac, care urmăresc să exploateze punctele slabe ale algoritmilor, variază de la influențarea comportamentului unei aplicații sau a unui sistem AI mai mare până la scăparea de detecție prin sistemele de detectare și răspuns bazate pe AI sau furtul tehnologiei de bază. Statele-națiune se angajează în spionaj pentru avantaje financiare și politice, încercând să modifice modelele pentru a obține date model, în timp ce implementează modelul în scopurile lor.

Atacurile din sistemele AI generative. Aceste atacuri vizează adesea filtre, balustrade și limite necesare pentru a proteja modelele AI generative, inclusiv toate sursele de date și modelele de limbaj mari (LLM) pe care se bazează. Potrivit VentureBeat, atacurile statelor naționale continuă să folosească LLM-urile ca arme.

Atacatorii consideră că este o practică standard de a ocoli limitările de conținut pentru a genera în mod liber material interzis pe care modelul l-ar bloca altfel, cum ar fi deepfake-urile, înșelăciunea și alte forme de media digitală distructivă. Statele-națiune folosesc din ce în ce mai mult atacurile sistemului Gen AI pentru a influența alegerile din SUA și alte alegeri democratice din întreaga lume. In conformitate cu Evaluarea anuală a amenințărilor din 2024 a Comunității de Informații din SUA, „China demonstrează un grad mai mare de sofisticare în activitatea sa de influență, inclusiv experimentând cu inteligență artificială generativă” și „Republica Populară Chineză (RPC) ar putea încerca să influențeze alegerile din SUA din 2024 la un anumit nivel din cauza dorinței sale de a-i lăsa pe marginea criticilor. a Chinei și amplifica diviziunile societale din SUA.”

MLOps și atacuri la lanțul de aprovizionare cu software. Acestea sunt adesea operațiuni ale statelor naționale și mari sindicate de criminalitate electronică axate pe închiderea cadrelor, rețelelor și platformelor utilizate pentru proiectarea și implementarea sistemelor AI. Tacticile de atac includ atacarea componentelor conductei MLOps pentru a injecta cod rău intenționat în sistemul AI. Seturile de date otrăvite sunt furnizate folosind pachete software, execuție de cod arbitrar și metode de distribuire a malware.    

Patru metode de protecție împotriva unui atac AI advers

Cu cât sunt mai mari decalajele între conductele DevOps și CI/CD, cu atât dezvoltarea modelelor AI și ML devine mai vulnerabilă. Protejarea modelelor rămâne o țintă evazivă, schimbătoare, îngreunată de armonizarea generației AI.

Cu toate acestea, acestea sunt doar câteva dintre numeroasele acțiuni pe care organizațiile le pot întreprinde pentru a se proteja împotriva unui atac agresiv AI. Acestea includ următoarele:

Faceți echipele roșii și evaluarea riscurilor o parte din memoria musculară sau ADN-ul organizației dvs. Nu vă mulțumiți cu o echipă roșie pe o bază sporadică sau, mai rău, doar atunci când un atac provoacă un sentiment reînnoit de urgență și conștientizare. Echipa roșie trebuie să devină parte din ADN-ul oricărui DevSecOps care sprijină MLOps în viitor. Obiectivul este de a descoperi din timp defectele sistemului și ale conductelor, precum și să prioritizeze și să întărească orice vectori de atac care apar pe parcursul procedurilor MLOps System Development Lifecycle (SDLC).

Rămâneți la curent și implementați arhitectura defensivă pentru AI care este cea mai eficientă pentru organizația dvs. Rugați un membru al echipei DevSecOps să rămână la curent cu numeroasele cadre de protecție disponibile astăzi. A ști care dintre ele corespunde cel mai bine nevoilor unei organizații poate ajuta la securizarea MLO-urilor, la economisirea timpului și la protejarea întregului canal SDLC și CI/CD. Exemplele includ Cadrul de management al riscului NIST AI și Ghidul de securitate și confidențialitate OWASP AI.

Integrați modalități biometrice și mecanisme de autentificare fără parolă în fiecare sistem de gestionare a accesului la identitate pentru a reduce riscul atacurilor sintetice bazate pe date. VentureBeat a descoperit că datele sintetice sunt din ce în ce mai folosite pentru a uzurpa identitatea oamenilor și pentru a avea acces la codul sursă și depozitele de modele. Luați în considerare combinarea modalităților biometrice, cum ar fi recunoașterea feței, scanarea amprentei și recunoașterea vocii cu tehnologii de acces fără parolă pentru a proteja sistemele pe parcursul MLOps. Gen AI și-a demonstrat capacitatea de a ajuta la crearea de date sintetice. Echipele MLOps se vor confrunta din ce în ce mai mult cu riscuri false profunde, prin urmare, o strategie pe niveluri pentru protejarea accesului devine în curând esențială. 

Sunt efectuate audituri aleatorii și frecvente ale sistemelor de verificare pentru a menține drepturile de acces actuale. Având în vedere că atacurile de identitate sintetice devin unul dintre cele mai dificile pericole de prevenit, este important să menținem sistemele de verificare la zi cu privire la remedieri și să le auditezi. Potrivit VentureBeat, următorul val de atacuri de identitate se va baza în mare măsură pe date false care au fost agregate pentru a semăna cu cele reale.

Sursă- VentureBeat

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate *