A mesterséges intelligencia sötét oldala: Felfedezett ellenséges fenyegetések

A mesterséges intelligencia sötét oldala: Felfedezett ellenséges fenyegetések

Egy nemrégiben jelentést megállapította, hogy a biztonsági tisztviselők céljai nem egyeznek a mesterséges intelligencia és az MLOp védelmére irányuló tevékenységükkel.

Az IT-vezetők nagy része, 97%-a úgy gondolja, hogy a mesterséges intelligencia és a rendszerek védelme kritikus fontosságú, ugyanakkor mindössze 61%-uk biztos abban, hogy megkapja a szükséges pénzt. Bár a megkérdezett IT-vezetők 77%-a tapasztalt mesterséges intelligencia-sértést (nem különösen a modellek esetében), mindössze 30%-uk építette be az ellenséges támadások elleni manuális védelmet meglévő mesterségesintelligencia-fejlesztésébe, beleértve az MLOps-folyamatokat is. 

Mindössze 14%-uk készül ilyen támadásokra vagy tesztel. MLOps az Amazon Web Services meghatározása szerint „olyan gyakorlatok összessége, amelyek automatizálják és egyszerűsítik a gépi tanulási (ML) munkafolyamatokat és telepítéseket”.

Az informatikai vezetők egyre inkább függenek az AI-modellektől, így vonzó célponttá válnak számos fenyegető AI-támadáshoz. 

Az IT-vezetők szervezetei átlagosan 1,689 modellt gyártanak, és 98%-uk úgy gondolja, hogy egyes mesterségesintelligencia-modelljeik kulcsfontosságúak a sikerük szempontjából. XNUMX százalékuk arról számolt be, hogy szervezetük összes csapatában széles körben alkalmazzák. „Az iparág keményen dolgozik azon, hogy felgyorsítsa a mesterséges intelligencia elterjedését anélkül, hogy az ingatlanbiztonsági intézkedéseket bevezetnék” – írták a jelentés szakértői.

A HiddenLayer mesterséges intelligencia fenyegetett tájképe A jelentés részletes elemzést mutat be az AI-alapú rendszerek fenyegetéseiről, valamint az AI és az MLOps csővezetékek védelmével kapcsolatos fejleményekről.

Az Adversarial AI meghatározása

Az ellenséges mesterséges intelligencia célja, hogy szándékosan félrevezesse az AI-t és a gépi tanulási (ML) rendszereket, értéktelenné téve azokat abból a célból, amelyre építették. Ellenálló AI meghatározása szerint „mesterséges intelligencia technikák alkalmazása mesterséges intelligencia rendszerek manipulálására vagy megtévesztésére”. Olyan ez, mint egy agyafúrt sakkozó, aki kihasználja ellenfele gyengeségeit. Ezek az okos ellenfelek képesek legyőzni a tipikus kibervédelmi rendszereket összetett algoritmusok és stratégiák alkalmazásával a célzott támadások észlelésének és végrehajtásának elkerülése érdekében.

A HiddenLayer tanulmánya az ellenséges mesterséges intelligencia három fő típusát állapítja meg, az alábbiak szerint:

Ellenálló gépi tanulási támadások. Ennek a támadási formának, amely az algoritmusok gyengeségeit kívánja kihasználni, a célja egy nagyobb mesterségesintelligencia-alkalmazás vagy -rendszer viselkedésének befolyásolása, a mesterséges intelligencia-alapú észlelési és válaszrendszerek általi észlelés elkerülése vagy a mögöttes technológia ellopása. A nemzetállamok pénzügyi és politikai előnyök érdekében kémkedést folytatnak, megkísérlik a modellek visszafejtését, hogy modelladatokat szerezzenek, miközben a modellt saját céljaikra alkalmazzák.

A generatív AI-rendszerek támadásai. Ezek a támadások gyakran a generatív mesterséges intelligencia modellek védelméhez szükséges szűrőket, korlátokat és korlátokat célozzák, beleértve az összes adatforrást és nagy nyelvi modelleket (LLM), amelyekre támaszkodnak. A VentureBeat szerint a nemzetállami támadások továbbra is fegyverként használják az LLM-eket.

A támadók bevett gyakorlatnak tekintik a tartalmi korlátozások megkerülését, és szabadon generálnak tiltott anyagokat, amelyeket a modell egyébként blokkolna, például mélyhamisítást, megtévesztést és a romboló digitális média egyéb formáit. A nemzetállamok egyre gyakrabban alkalmazzák a Gen AI rendszer elleni támadásokat az Egyesült Államok és más demokratikus választások befolyásolására világszerte. Szerint a Az Egyesült Államok hírszerző közösségének 2024-es éves fenyegetésértékelése, „Kína magasabb fokú kifinomultságot mutat befolyási tevékenységében, beleértve a generatív mesterséges intelligencia kísérletezését”, és „a Kínai Népköztársaság (KNK) megkísérelheti valamilyen szinten befolyásolni a 2024-es amerikai választásokat, mert a kritikusokat félre akarja állítani. Kínát, és felerősíti az Egyesült Államok társadalmi megosztottságát.”

MLOps és szoftver ellátási lánc támadások. Ezek gyakran nemzetállami és nagy e-bűnügyi szindikátusi műveletek, amelyek az AI-rendszerek tervezéséhez és telepítéséhez használt keretrendszerek, hálózatok és platformok leállítására összpontosítanak. A támadási taktikák közé tartozik az MLOps folyamatelemeinek megtámadása, hogy rosszindulatú kódot fecskendezzenek be az AI-rendszerbe. A mérgezett adatkészleteket szoftvercsomagok, tetszőleges kódvégrehajtás és rosszindulatú programok terjesztési módszerei segítségével biztosítják.    

Négy módszer az ellenséges mesterséges intelligencia támadások elleni védekezésre

Minél nagyobb a hézag a DevOps és a CI/CD folyamatok között, annál sérülékenyebbé válik az AI és az ML modellek fejlesztése. A modellek védelme továbbra is megfoghatatlan, változó célpont, amelyet megnehezít a generációs mesterséges intelligencia fegyveresítése.

Ez azonban csak egy maroknyi intézkedés a számos szervezet közül, amelyeket a szervezetek megtehetnek, hogy megvédjék magukat egy agresszív mesterséges intelligencia-támadástól. Ezek a következők:

Tegye a red teaminget és a kockázatértékelést szervezete izommemóriájának vagy DNS-ének részévé. Ne elégedjen meg a szórványos vörös csapatokkal, vagy ami még rosszabb, csak akkor, amikor egy támadás a sürgősség és a tudatosság újbóli érzését okozza. A Red teamingnek minden olyan DevSecOps DNS-ének részévé kell válnia, amely támogatja az MLOp-okat a jövőben. A cél a rendszer- és folyamathibák idő előtti felfedezése, valamint az MLOps System Development Lifecycle (SDLC) eljárásai során felbukkanó támadási vektorok rangsorolása és megerősítése.

Legyen naprakész, és alkalmazza az AI védekező architektúráját, amely a leghatékonyabb szervezete számára. Kérje meg a DevSecOps csapat egy tagját, hogy mindig értesüljön a ma elérhető számos védelmi keretrendszerről. Annak ismerete, hogy melyik felel meg a legjobban a szervezet igényeinek, segíthet az MLOp-k biztonságában, időt takaríthat meg, és megvédheti a teljes SDLC- és CI/CD-folyamatot. Ilyen például a NIST AI kockázatkezelési keretrendszer és az OWASP AI biztonsági és adatvédelmi útmutató.

Integrálja a biometrikus módozatokat és a jelszó nélküli hitelesítési mechanizmusokat minden identitás-hozzáférés-kezelő rendszerbe, hogy csökkentse a szintetikus adatalapú támadások kockázatát. A VentureBeat felfedezte, hogy egyre gyakrabban használnak szintetikus adatokat mások megszemélyesítésére, valamint forráskódokhoz és modelltárolókhoz való hozzáféréshez. Fontolja meg a biometrikus módozatok, például az arcfelismerés, az ujjlenyomat-szkennelés és a hangfelismerés kombinálását a jelszó nélküli hozzáférési technológiákkal a rendszerek védelme érdekében az MLO-kon keresztül. A Gen AI megmutatta, hogy képes segíteni a szintetikus adatok létrehozásában. Az MLOps csapatai egyre gyakrabban szembesülnek a mélyhamisítás kockázatával, ezért a hozzáférés védelmének többszintű stratégiája hamarosan elengedhetetlenné válik. 

Az ellenőrző rendszerek véletlenszerű és gyakori auditja a hozzáférési jogok naprakészen tartása érdekében történik. Mivel a szintetikus személyazonossági támadások az egyik legnehezebben megelőzhető veszély, fontos, hogy az ellenőrző rendszereket naprakészen tartsuk a javításokkal kapcsolatban, és ellenőrizzük azokat. A VentureBeat szerint a személyazonosság elleni támadások következő hulláma nagymértékben hamis adatokra fog támaszkodni, amelyeket úgy összesítettek, hogy valódiakhoz hasonlítsanak.

Forrás- VentureBeat

Hagy egy Válaszol

E-mail címed nem kerül nyilvánosságra. Kötelező kitölteni *