الجانب المظلم للذكاء الاصطناعي: الكشف عن التهديدات العدائية

الجانب المظلم للذكاء الاصطناعي: الكشف عن التهديدات العدائية

A الأخيرة تقرير وجدت أن أهداف مسؤولي الأمن لا تتطابق مع أنشطتهم لحماية الذكاء الاصطناعي وعمليات MLOs.

يعتقد عدد كبير من المديرين التنفيذيين لتكنولوجيا المعلومات، 97%، أن حماية الذكاء الاصطناعي وأنظمة الحماية أمر بالغ الأهمية، ومع ذلك فإن 61% فقط متأكدون من أنهم سيحصلون على الأموال التي يحتاجونها. على الرغم من أن 77% من قادة تكنولوجيا المعلومات الذين تمت مقابلتهم قد تعرضوا لاختراق يتعلق بالذكاء الاصطناعي (وليس على وجه الخصوص النماذج)، إلا أن 30% فقط قاموا بتضمين دفاع يدوي ضد الهجمات العدائية في تطوير الذكاء الاصطناعي الحالي لديهم، بما في ذلك خطوط أنابيب MLOps. 

14% فقط يقومون بالتحضير أو الاختبار لمثل هذه الاعتداءات. MLOps يتم تعريفها بواسطة Amazon Web Services على أنها "مجموعة من الممارسات التي تعمل على أتمتة وتبسيط سير عمل التعلم الآلي (ML) وعمليات النشر."

يعتمد المسؤولون التنفيذيون في مجال تكنولوجيا المعلومات بشكل متزايد على نماذج الذكاء الاصطناعي، مما يجعلهم هدفًا جذابًا لمجموعة واسعة من هجمات الذكاء الاصطناعي التهديدية. 

لدى مؤسسات قادة تكنولوجيا المعلومات ما متوسطه 1,689 نموذجًا قيد الإنتاج، ويعتقد 98% منهم أن بعض نماذج الذكاء الاصطناعي الخاصة بهم ضرورية لنجاحهم. أبلغ ثلاثة وثمانون بالمائة عن اعتماد واسع النطاق عبر جميع الفرق في مؤسساتهم. وكتب خبراء التقرير: "تعمل الصناعة جاهدة لتسريع اعتماد الذكاء الاصطناعي دون اتخاذ تدابير أمنية للممتلكات".

مشهد تهديد الذكاء الاصطناعي لـ HiddenLayer يقدم التقرير تحليلاً متعمقًا للتهديدات التي تواجهها الأنظمة القائمة على الذكاء الاصطناعي، بالإضافة إلى التطورات في حماية خطوط أنابيب الذكاء الاصطناعي وعمليات MLOps.

تعريف الذكاء الاصطناعي العدائي

الهدف من الذكاء الاصطناعي المنافس هو تضليل أنظمة الذكاء الاصطناعي والتعلم الآلي (ML) عن عمد، مما يجعلها عديمة القيمة للأغراض التي تم إنشاؤها من أجلها. الذكاء الاصطناعي العدائي يتم تعريفه على أنه "استخدام تقنيات الذكاء الاصطناعي للتلاعب بأنظمة الذكاء الاصطناعي أو خداعها". إنه مثل لاعب شطرنج ماهر يستغل نقاط ضعف خصمه. قد يتمكن هؤلاء الخصوم الأذكياء من هزيمة أنظمة الدفاع السيبراني النموذجية من خلال استخدام خوارزميات واستراتيجيات معقدة لتجنب اكتشاف الهجمات المستهدفة وتنفيذها.

تحدد دراسة HiddenLayer ثلاثة أنواع رئيسية من الذكاء الاصطناعي العدائي، كما هو مذكور أدناه:

هجمات التعلم الآلي العدائية. وتتراوح أهداف هذا النوع من الهجوم، الذي يهدف إلى استغلال نقاط الضعف في الخوارزميات، من التأثير على سلوك تطبيق أو نظام أكبر للذكاء الاصطناعي إلى الهروب من الكشف بواسطة أنظمة الكشف والاستجابة القائمة على الذكاء الاصطناعي أو سرقة التكنولوجيا الأساسية. تنخرط الدول القومية في التجسس لتحقيق مكاسب مالية وسياسية، وتحاول إجراء هندسة عكسية للنماذج للحصول على بيانات النموذج مع نشر النموذج أيضًا لأغراضها.

الهجمات من أنظمة الذكاء الاصطناعي التوليدية. غالبًا ما تستهدف هذه الهجمات المرشحات وحواجز الحماية والحدود اللازمة لحماية نماذج الذكاء الاصطناعي التوليدية، بما في ذلك جميع مصادر البيانات ونماذج اللغات الكبيرة (LLMs) التي تعتمد عليها. وفقًا لـ VentureBeat، تستمر هجمات الدولة القومية في استخدام LLMs كأسلحة.

يعتبر المهاجمون أن تجاوز قيود المحتوى هو ممارسة معيارية لإنشاء مواد محظورة بحرية والتي قد يحظرها النموذج، مثل التزييف العميق والخداع وأشكال أخرى من الوسائط الرقمية المدمرة. تستخدم الدول القومية بشكل متزايد هجمات نظام الذكاء الاصطناعي للتأثير على الانتخابات الأمريكية وغيرها من الانتخابات الديمقراطية في جميع أنحاء العالم. بحسب ال تقييم التهديدات السنوي لعام 2024 لمجتمع الاستخبارات الأمريكي, "تظهر الصين درجة أعلى من التطور في نشاطها النفوذ، بما في ذلك تجربة الذكاء الاصطناعي التوليدي"، و"قد تحاول جمهورية الصين الشعبية التأثير على الانتخابات الأمريكية في عام 2024 على مستوى ما بسبب رغبتها في تهميش المنتقدين". الصين وتضخيم الانقسامات المجتمعية الأمريكية.

MLOps وهجمات سلسلة توريد البرمجيات. غالبًا ما تكون هذه العمليات عبارة عن عمليات تابعة للدولة القومية وعصابات كبيرة للجريمة الإلكترونية تركز على إغلاق الأطر والشبكات والمنصات المستخدمة لتصميم أنظمة الذكاء الاصطناعي ونشرها. تتضمن تكتيكات الهجوم مهاجمة مكونات خط أنابيب MLOps لحقن تعليمات برمجية ضارة في نظام الذكاء الاصطناعي. يتم توفير مجموعات البيانات المسمومة باستخدام حزم البرامج، وتنفيذ التعليمات البرمجية التعسفية، وطرق توزيع البرامج الضارة.    

أربع طرق للحماية من هجمات الذكاء الاصطناعي المعادية

كلما زادت الفجوات بين مسارات DevOps وCI/CD، أصبح تطوير نماذج الذكاء الاصطناعي والتعلم الآلي أكثر عرضة للخطر. تظل حماية النماذج هدفًا بعيد المنال ومتغيرًا، ويزداد صعوبة بسبب تسليح جيل الذكاء الاصطناعي.

ومع ذلك، فهذه ليست سوى عدد قليل من الإجراءات العديدة التي قد تتخذها المؤسسات لحماية نفسها من هجوم الذكاء الاصطناعي العدواني. وهي تشمل ما يلي:

اجعل الفريق الأحمر وتقييم المخاطر جزءًا من الذاكرة العضلية أو الحمض النووي لمؤسستك. لا تستقر على الفريق الأحمر على أساس متقطع، أو ما هو أسوأ من ذلك، فقط عندما يسبب الاعتداء شعورًا متجددًا بالإلحاح والوعي. يجب أن يصبح الفريق الأحمر جزءًا من الحمض النووي لأي DevSecOps الذي يدعم MLOps للمضي قدمًا. الهدف هو اكتشاف عيوب النظام وخطوط الأنابيب مسبقًا، بالإضافة إلى تحديد الأولويات وتقوية أي متجهات هجوم تظهر خلال إجراءات دورة حياة تطوير النظام (SDLC) الخاصة بـ MLOps.

ابق على اطلاع وقم بتنفيذ البنية الدفاعية للذكاء الاصطناعي الأكثر فعالية لمؤسستك. اطلب من أحد أعضاء فريق DevSecOps أن يظل مطلعًا على العديد من أطر الحماية المتاحة اليوم. إن معرفة أي منها يلبي احتياجات المؤسسة بشكل أفضل قد يساعد في تأمين MLOps، وتوفير الوقت، وحماية مسار SDLC وCI/CD الشامل. تشمل الأمثلة إطار عمل إدارة مخاطر NIST AI ودليل OWASP AI للأمان والخصوصية.

دمج طرائق القياسات الحيوية وآليات المصادقة بدون كلمة مرور في كل نظام لإدارة الوصول إلى الهوية لتقليل مخاطر الهجمات الاصطناعية القائمة على البيانات. اكتشف VentureBeat أن البيانات الاصطناعية يتم استخدامها بشكل متزايد لانتحال هوية الأشخاص والوصول إلى كود المصدر ومستودعات النماذج. فكر في الجمع بين أساليب القياسات الحيوية مثل التعرف على الوجه ومسح بصمات الأصابع والتعرف على الصوت مع تقنيات الوصول بدون كلمة مرور لحماية الأنظمة عبر MLOps. لقد أظهر Gen AI قدرته على المساعدة في إنشاء البيانات الاصطناعية. ستواجه فرق MLOps بشكل متزايد مخاطر التزييف العميق، وبالتالي فإن الإستراتيجية المتدرجة لحماية الوصول ستصبح ضرورية قريبًا. 

يتم إجراء عمليات تدقيق عشوائية ومتكررة لأنظمة التحقق للحفاظ على حقوق الوصول الحالية. مع ظهور هجمات الهوية الاصطناعية باعتبارها واحدة من أصعب الأخطار التي يصعب منعها، من المهم إبقاء أنظمة التحقق محدثة بشأن الإصلاحات ومراجعتها. وفقًا لـ VentureBeat، ستعتمد الموجة التالية من الاعتداءات على الهوية بشكل كبير على البيانات المزيفة التي تم تجميعها لتشبه البيانات الحقيقية.

مصدر- VentureBeat

اترك تعليق

لن يتم نشر عنوان بريدك الإلكتروني. الحقول المشار إليها إلزامية *