Die dunkle Seite der KI: Gegnerische Bedrohungen aufgedeckt

Die dunkle Seite der KI: Gegnerische Bedrohungen aufgedeckt

Eine kürzlich berichten stellte fest, dass die Ziele der Sicherheitsbeamten nicht mit ihren Aktivitäten zum Schutz von KI und MLOps übereinstimmen.

Eine große Anzahl von IT-Führungskräften (97 %) glaubt, dass der Schutz von KI und die Sicherung von Systemen von entscheidender Bedeutung sind, doch nur 61 % sind sicher, dass sie das benötigte Geld erhalten. Obwohl 77 % der befragten IT-Führungskräfte einen KI-bezogenen Verstoß erlebt hatten (nicht insbesondere bei Modellen), hatten nur 30 % einen manuellen Schutz vor gegnerischen Angriffen in ihre bestehende KI-Entwicklung, einschließlich MLOps-Pipelines, integriert. 

Nur 14 % bereiten sich auf solche Angriffe vor oder testen sie. MLOps wird von Amazon Web Services definiert als „eine Reihe von Praktiken, die Arbeitsabläufe und Bereitstellungen für maschinelles Lernen (ML) automatisieren und vereinfachen.“

IT-Führungskräfte verlassen sich zunehmend auf KI-Modelle, was sie zu einem attraktiven Ziel für eine Vielzahl bedrohlicher KI-Angriffe macht. 

Unternehmen von IT-Führungskräften haben durchschnittlich 1,689 Modelle in der Produktion, wobei 98 % davon überzeugt sind, dass einige ihrer KI-Modelle entscheidend für ihren Erfolg sind. XNUMX Prozent berichten von einer breiten Akzeptanz in allen Teams ihrer Organisation. „Die Branche arbeitet hart daran, die KI-Einführung zu beschleunigen, ohne dass die Eigentumssicherheitsmaßnahmen vorhanden sind“, schreiben die Experten des Berichts.

Die KI-Bedrohungslandschaft von HiddenLayer Der Bericht enthält eine eingehende Analyse der Bedrohungen, denen KI-basierte Systeme ausgesetzt sind, sowie Entwicklungen beim Schutz von KI- und MLOps-Pipelines.

Definieren Sie gegnerische KI

Das Ziel gegnerischer KI besteht darin, KI- und maschinelle Lernsysteme (ML) absichtlich in die Irre zu führen und sie für die Zwecke, für die sie entwickelt wurden, wertlos zu machen. Gegnerische KI wird definiert als „der Einsatz von Techniken der künstlichen Intelligenz zur Manipulation oder Täuschung von KI-Systemen“. Es ist wie ein kluger Schachspieler, der die Schwächen seines Gegners ausnutzt. Diese cleveren Gegner können typische Cyber-Abwehrsysteme besiegen, indem sie komplexe Algorithmen und Strategien einsetzen, um einer Entdeckung zu entgehen und gezielte Angriffe auszuführen.

Die Studie von HiddenLayer stellt drei Hauptarten gegnerischer KI fest, wie unten dargelegt:

Gegnerische Angriffe auf maschinelles Lernen. Die Ziele dieser Angriffsform, die darauf abzielt, Schwachstellen in Algorithmen auszunutzen, reichen von der Beeinflussung des Verhaltens einer größeren KI-Anwendung oder eines größeren KI-Systems bis hin zur Unkenntlichkeit durch KI-basierte Erkennungs- und Reaktionssysteme oder dem Diebstahl der zugrunde liegenden Technologie. Nationalstaaten betreiben Spionage aus finanziellen und politischen Gründen und versuchen, Modelle zurückzuentwickeln, um an Modelldaten zu gelangen, und nutzen das Modell gleichzeitig für ihre Zwecke.

Angriffe durch generative KI-Systeme. Diese Angriffe zielen häufig auf Filter, Leitplanken und Grenzwerte ab, die zum Schutz generativer KI-Modelle erforderlich sind, einschließlich aller Datenquellen und großen Sprachmodelle (LLMs), auf denen sie basieren. Laut VentureBeat werden bei nationalstaatlichen Angriffen weiterhin LLMs als Waffen eingesetzt.

Angreifer betrachten es als gängige Praxis, Inhaltsbeschränkungen zu umgehen, um verbotenes Material frei zu generieren, das das Modell sonst blockieren würde, wie etwa Deepfakes, Täuschung und andere Formen destruktiver digitaler Medien. Nationalstaaten nutzen zunehmend Angriffe auf Gen-KI-Systeme, um US- und andere demokratische Wahlen weltweit zu beeinflussen. Entsprechend der Jährliche Bedrohungsbewertung 2024 der US Intelligence Community, „China zeigt ein höheres Maß an Raffinesse in seiner Einflussnahme, einschließlich des Experimentierens mit generativer KI“, und „die Volksrepublik China (VRC) könnte versuchen, die US-Wahlen im Jahr 2024 auf einer gewissen Ebene zu beeinflussen, weil sie Kritiker aus dem Weg räumen will.“ Chinas und verschärfen die gesellschaftlichen Spaltungen in den USA.“

MLOps und Software-Supply-Chain-Angriffe. Hierbei handelt es sich häufig um Operationen nationalstaatlicher und großer E-Crime-Syndikate, die sich auf die Abschaltung der Frameworks, Netzwerke und Plattformen konzentrieren, die für die Entwicklung und Bereitstellung von KI-Systemen verwendet werden. Zu den Angriffstaktiken gehört der Angriff auf MLOps-Pipeline-Komponenten, um Schadcode in das KI-System einzuschleusen. Vergiftete Datensätze werden mithilfe von Softwarepaketen, der Ausführung willkürlichen Codes und Methoden zur Verbreitung von Malware bereitgestellt.    

Vier Methoden zum Schutz vor einem gegnerischen KI-Angriff

Je größer die Lücken zwischen DevOps und CI/CD-Pipelines sind, desto anfälliger wird die Entwicklung von KI- und ML-Modellen. Der Schutz von Modellen bleibt ein schwer fassbares, sich veränderndes Ziel, das durch den Einsatz von KI als Waffe noch schwieriger wird.

Dies sind jedoch nur einige der zahlreichen Maßnahmen, die Unternehmen ergreifen können, um sich vor einem aggressiven KI-Angriff zu schützen. Dazu gehören Folgendes:

Machen Sie Red Teaming und Risikobewertung zu einem Teil des Muskelgedächtnisses oder der DNA Ihres Unternehmens. Geben Sie sich nicht damit zufrieden, nur sporadisch oder schlimmer noch, nur dann ein Red Team zu bilden, wenn ein Angriff ein neues Gefühl der Dringlichkeit und des Bewusstseins hervorruft. Red Teaming muss Teil der DNA aller DevSecOps werden, die künftig MLOps unterstützen. Das Ziel besteht darin, System- und Pipelinefehler im Voraus zu erkennen sowie alle Angriffsvektoren zu priorisieren und abzuwehren, die während der SDLC-Verfahren (System Development Lifecycle) von MLOps auftreten.

Bleiben Sie auf dem Laufenden und implementieren Sie die Verteidigungsarchitektur für KI, die für Ihr Unternehmen am effektivsten ist. Bitten Sie ein Mitglied des DevSecOps-Teams, sich über die vielen heute verfügbaren Schutz-Frameworks auf dem Laufenden zu halten. Zu wissen, welche Lösung die Anforderungen eines Unternehmens am besten erfüllt, kann dabei helfen, MLOps zu sichern, Zeit zu sparen und die gesamte SDLC- und CI/CD-Pipeline zu schützen. Beispiele hierfür sind das NIST AI Risk Management Framework und der OWASP AI Security and Privacy Guide.

Integrieren Sie biometrische Modalitäten und passwortlose Authentifizierungsmechanismen in jedes Identitätszugriffsverwaltungssystem, um das Risiko synthetischer datenbasierter Angriffe zu verringern. VentureBeat hat herausgefunden, dass synthetische Daten zunehmend dazu verwendet werden, sich als Personen auszugeben und Zugang zu Quellcode und Modell-Repositories zu erhalten. Erwägen Sie die Kombination biometrischer Modalitäten wie Gesichtserkennung, Fingerabdruck-Scanning und Spracherkennung mit passwortlosen Zugangstechnologien, um Systeme im gesamten MLOps zu schützen. Gen AI hat seine Fähigkeit bewiesen, bei der Erstellung synthetischer Daten zu helfen. MLOps-Teams werden zunehmend mit Deepfake-Risiken konfrontiert sein, daher wird eine abgestufte Strategie zum Schutz des Zugriffs bald unerlässlich. 

Um die Zugriffsrechte auf dem neuesten Stand zu halten, werden stichprobenartige und häufige Prüfungen der Verifizierungssysteme durchgeführt. Da sich Angriffe auf synthetische Identitäten als eine der am schwierigsten zu verhindernden Gefahren erweisen, ist es wichtig, die Verifizierungssysteme über Fehlerbehebungen auf dem Laufenden zu halten und diese zu prüfen. Laut VentureBeat wird die nächste Welle von Identitätsangriffen stark auf gefälschten Daten basieren, die so aggregiert wurden, dass sie echten ähneln.

Quelle- VentureBeat

Hinterlassen Sie uns einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet. *