Yapay Zekanın Karanlık Yüzü: Düşmanca Tehditler Ortaya Çıktı

Yapay Zekanın Karanlık Yüzü: Düşmanca Tehditler Ortaya Çıktı

son zamanlarda rapor güvenlik yetkililerinin amaçlarının yapay zeka ve MLOps'u koruma faaliyetleriyle eşleşmediğini buldu.

Çok sayıda BT yöneticisinin (yüzde 97'si) yapay zeka ve sistemleri korumanın kritik öneme sahip olduğuna inanmasına rağmen yalnızca yüzde 61'i ihtiyaç duydukları parayı alacaklarından emin. Görüşülen BT liderlerinin %77'si yapay zeka ile ilgili bir ihlal yaşamış olsa da (özellikle modellerde değil), yalnızca %30'u, MLOps ardışık düzenleri de dahil olmak üzere mevcut yapay zeka geliştirmelerine karşı saldırılara karşı manuel bir savunma eklemişti. 

Sadece %14'ü bu tür saldırılara hazırlanıyor veya test ediyor. MLO'lar Amazon Web Services tarafından "makine öğrenimi (ML) iş akışlarını ve dağıtımlarını otomatikleştiren ve basitleştiren bir dizi uygulama" olarak tanımlanıyor.

BT yöneticileri giderek daha fazla yapay zeka modellerine bağımlı hale geliyor ve bu da onları çok çeşitli tehditkar yapay zeka saldırıları için çekici bir hedef haline getiriyor. 

BT liderlerinin kuruluşlarının üretimde ortalama 1,689 modeli var ve %98'i bazı yapay zeka modellerinin başarıları için kritik öneme sahip olduğuna inanıyor. Yüzde seksen üçü kuruluşlarındaki tüm ekiplerde yaygın olarak benimsendiğini bildiriyor. Raporun uzmanları, "Sektör, mülk güvenliği önlemleri alınmadan yapay zekanın benimsenmesini hızlandırmak için çok çalışıyor" diye yazdı.

HiddenLayer'ın Yapay Zeka Tehdit Ortamı Rapor, yapay zeka tabanlı sistemlerin karşılaştığı tehditlerin yanı sıra yapay zeka ve MLOps işlem hatlarının korunmasına yönelik gelişmelerin derinlemesine bir analizini sunuyor.

Rekabetçi Yapay Zekayı Tanımlayın

Rakip yapay zekanın amacı, yapay zeka ve makine öğrenimi (ML) sistemlerini kasıtlı olarak yanıltarak, onları oluşturuldukları amaçlar açısından değersiz bırakmaktır. düşman yapay zeka “Yapay zeka sistemlerini manipüle etmek veya aldatmak için yapay zeka tekniklerinin kullanılması” olarak tanımlanmaktadır. Bu, rakibinin zayıflıklarından yararlanan kurnaz bir satranç oyuncusu gibidir. Bu akıllı düşmanlar, hedefli saldırıların tespit edilmesini ve yürütülmesini önlemek için karmaşık algoritmalar ve stratejiler kullanarak tipik siber savunma sistemlerini yenebilir.

HiddenLayer'ın çalışması, aşağıda belirtildiği gibi üç ana rakip yapay zeka türünü ortaya koyuyor:

Çekişmeli makine öğrenimi saldırıları. Algoritmalardaki zayıflıklardan yararlanmayı amaçlayan bu saldırı biçiminin amaçları, daha büyük bir yapay zeka uygulamasının veya sisteminin davranışını etkilemekten, yapay zeka tabanlı algılama ve yanıt sistemleri tarafından tespitten kaçmaya veya temeldeki teknolojiyi çalmaya kadar uzanır. Ulus-devletler finansal ve politik avantaj için casusluk yapıyor, model verilerini elde etmek için modellere tersine mühendislik yapmaya çalışırken aynı zamanda modeli kendi amaçları için kullanıyor.

Üretken yapay zeka sistemlerinden gelen saldırılar. Bu saldırılar genellikle, güvendikleri tüm veri kaynakları ve büyük dil modelleri (LLM'ler) dahil olmak üzere üretken yapay zeka modellerini korumak için gerekli olan filtreleri, korkulukları ve sınırları hedef alır. VentureBeat'e göre ulus devlet saldırıları yüksek lisans eğitimlerini silah olarak kullanmaya devam ediyor.

Saldırganlar, derin sahtekarlık, aldatma ve diğer yıkıcı dijital medya biçimleri gibi normalde modelin engelleyeceği yasaklı materyalleri özgürce oluşturmak için içerik sınırlamalarını atlamanın standart bir uygulama olduğunu düşünüyor. Ulus devletler, ABD'yi ve dünya çapındaki diğer demokratik seçimleri etkilemek için giderek daha fazla Nesil Yapay Zeka sistem saldırılarını kullanıyor. Göre ABD İstihbarat Topluluğunun 2024 Yıllık Tehdit Değerlendirmesi, "Çin, üretken yapay zeka deneyleri de dahil olmak üzere nüfuz faaliyetlerinde daha yüksek derecede karmaşıklık sergiliyor" ve "Çin Halk Cumhuriyeti (ÇHC), eleştirmenleri kenarda tutma arzusu nedeniyle 2024'teki ABD seçimlerini bir düzeyde etkilemeye çalışabilir" Çin'i büyütüyor ve ABD'deki toplumsal bölünmeleri büyütüyoruz."

MLOps ve yazılım tedarik zinciri saldırıları. Bunlar genellikle yapay zeka sistemlerini tasarlamak ve dağıtmak için kullanılan çerçeveleri, ağları ve platformları kapatmaya odaklanan ulus devlet ve büyük e-suç örgütü operasyonlarıdır. Saldırı taktikleri, yapay zeka sistemine kötü amaçlı kod enjekte etmek için MLOps boru hattı bileşenlerine saldırmayı içerir. Zehirli veri kümeleri, yazılım paketleri, rastgele kod yürütme ve kötü amaçlı yazılım dağıtım yöntemleri kullanılarak sağlanır.    

Düşmanca bir yapay zeka saldırısına karşı korunmanın dört yöntemi

DevOps ve CI/CD ardışık düzenleri arasındaki boşluklar arttıkça yapay zeka ve makine öğrenimi model geliştirmesi daha savunmasız hale gelir. Modellerin korunması, yakalanması zor ve değişken bir hedef olmaya devam ediyor ve yapay zeka kuşağının silah haline getirilmesiyle daha da zorlaşıyor.

Ancak bunlar, kuruluşların saldırgan bir yapay zeka saldırısına karşı kendilerini korumak için gerçekleştirebilecekleri sayısız eylemden yalnızca birkaçıdır. Aşağıdakileri içerirler:

Kırmızı ekip oluşturmayı ve risk değerlendirmesini kuruluşunuzun kas hafızasının veya DNA'sının bir parçası haline getirin. Bir saldırının yenilenmiş bir aciliyet ve farkındalık hissine neden olduğu durumlarda, ara sıra veya daha kötüsü kırmızı takımlarla yetinmeyin. Kırmızı ekip oluşturma, MLOps'un ilerlemesini destekleyen herhangi bir DevSecOps'un DNA'sının bir parçası haline gelmelidir. Amaç, sistem ve boru hattı kusurlarını önceden keşfetmenin yanı sıra, MLOps'un Sistem Geliştirme Yaşam Döngüsü (SDLC) prosedürleri boyunca ortaya çıkan saldırı vektörlerini önceliklendirmek ve güçlendirmektir.

Güncel kalın ve kuruluşunuz için en etkili olan yapay zekaya yönelik savunma mimarisini uygulayın. DevSecOps ekibinin bir üyesinin bugün mevcut olan birçok koruyucu çerçeve hakkında güncel bilgilere sahip olmasını sağlayın. Hangisinin bir kuruluşun ihtiyaçlarını en iyi karşıladığını bilmek, MLOps'un güvenliğini sağlamaya, zamandan tasarruf etmeye ve genel SDLC ve CI/CD hattını korumaya yardımcı olabilir. Örnekler arasında NIST Yapay Zeka Risk Yönetimi Çerçevesi ve OWASP Yapay Zeka Güvenlik ve Gizlilik Kılavuzu yer alır.

Sentetik veri tabanlı saldırı riskini azaltmak için biyometrik yöntemleri ve parolasız kimlik doğrulama mekanizmalarını her kimlik erişim yönetimi sistemine entegre edin. VentureBeat, sentetik verilerin giderek daha fazla insanların kimliğine bürünmek ve kaynak koduna ve model havuzlarına erişim sağlamak için kullanıldığını keşfetti. Sistemleri MLOps genelinde korumak için yüz tanıma, parmak izi taraması ve ses tanıma gibi biyometrik yöntemleri parolasız erişim teknolojileriyle birleştirmeyi düşünün. Gen AI, sentetik veri oluşturmaya yardımcı olma yeteneğini gösterdi. MLOps ekipleri giderek daha fazla deepfake riskleriyle karşı karşıya kalacak, bu nedenle erişimi korumaya yönelik katmanlı bir strateji yakında zorunlu hale gelecek. 

Erişim haklarını güncel tutmak için doğrulama sistemlerinin rastgele ve sık denetimleri gerçekleştirilir. Sentetik kimlik saldırıları, önlenmesi en zor tehlikelerden biri olarak ortaya çıkarken, doğrulama sistemlerinin düzeltmeler konusunda güncel tutulması ve denetlenmesi önemlidir. VentureBeat'e göre, bir sonraki kimlik saldırıları dalgası büyük ölçüde gerçeğe benzeyecek şekilde bir araya getirilen sahte verilere dayanacak.

Kaynak- VentureBeat

Yorum bırak

E-posta hesabınız yayımlanmayacak. Gerekli alanlar işaretlenmişlerdir. *