Cybersecurity

Microsoft Skeleton Key AI Jailbreak – Alle aktuelle LLms betroffen!

Microsoft-Forscher haben kürzlich eine bahnbrechende AI-Jailbreak-Technik namens „Skeleton Key“ entdeckt. Diese Methode kann Sicherheitsvorkehrungen in mehreren generativen KI-Modellen umgehen und es Angreifern möglicherweise ermöglichen, schädliche oder eingeschränkte Informationen aus diesen Systemen zu extrahieren. Das musst du wissen – Microsoft Skeleton Key AI Jailbreak Jailbreak-Technik: Skeleton Key manipuliert KI-Modelle, um Sicherheitsprotokolle zu ignorieren. Betroffene Modelle: Wichtige KI-Modelle wie Meta’s Llama3, Google’s Gemini Pro und OpenAI’s GPT-4 sind betroffen. Abwehrstrategien: Mehrschichtige Sicherheit, Eingabefilterung und Ausgabemonitoring sind entscheidende Verteidigungsmaßnahmen. Maßnahmen von Microsoft: Aktualisierte ihre KI-Systeme und Tools zur Bekämpfung der Bedrohung. Bedeutung: Hebt die Notwendigkeit robuster KI-Sicherheitsmaßnahmen zur Verhinderung von Ausbeutung hervor. Die Skeleton Key-Technik verwendet eine mehrstufige Strategie, um KI-Modelle dazu zu bringen, ihre eingebauten Sicherheitsprotokolle zu umgehen. Sie weist das Modell an, seine Verhaltensrichtlinien zu erweitern, anstatt sie vollständig zu ändern. Dieser Ansatz, bekannt als „Explicit: forced instruction-following“, verringert die Lücke zwischen dem, was das Modell tun kann, und dem, was es tun möchte. Sobald der Jailbreak erfolgreich ist, erhält der Angreifer die vollständige Kontrolle über die Ausgaben der KI, wodurch das Modell nicht mehr zwischen böswilligen und legitimen Anfragen unterscheiden kann. Quasi alle aktuellen KI-Modelle sind betroffen In Tests, die Microsoft im April und Mai 2024 durchgeführt hat, wurden mehrere prominente KI-Modelle als anfällig für die Skeleton Key-Technik befunden. Dazu gehören Meta’s Llama3-70b-instruct, Google’s Gemini Pro, OpenAI’s GPT-3.5 Turbo und GPT-4, Mistral Large, Anthropic’s Claude 3 Opus und Cohere’s Commander R Plus. Diese Modelle erfüllten vollständig Anfragen in verschiedenen Risikokategorien, einschließlich Sprengstoffe, Biowaffen, politische Inhalte, Selbstverletzung, Rassismus, Drogen, grafischer Sex und Gewalt. GPT-4 zeigte eine gewisse Resistenz durch seine primäre Benutzereingabe, konnte jedoch weiterhin über benutzerdefinierte Systemnachrichten oder Tools mit direktem Modellzugriff manipuliert werden. Abwehrstrategien für Microsoft Skeleton Key AI Jailbreak Um die Bedrohung durch den Skeleton Key-Jailbreak abzuwehren, empfiehlt Microsoft einen mehrschichtigen Ansatz für KI-Systemdesigner. Dazu gehören: Eingabefilterung: Erkennung und Blockierung potenziell schädlicher Eingaben. Prompt-Engineering: Verstärkung des angemessenen Verhaltens durch sorgfältiges Prompt-Design. Ausgabefilterung: Verhinderung der Generierung von Inhalten, die Sicherheitskriterien verletzen. Missbrauchsüberwachung: Einsatz von Systemen, die auf adversarialen Beispielen trainiert wurden, um problematische Inhalte oder Verhaltensweisen zu erkennen und zu mindern. Microsoft hat diese Schutzmaßnahmen bereits in seinen KI-Angeboten, einschließlich der Copilot AI-Assistenten, implementiert. Das Unternehmen hat sein Python Risk Identification Toolkit (PyRIT) aktualisiert, um Skeleton Key einzubeziehen und Entwicklern sowie Sicherheitsteams zu ermöglichen, ihre KI-Systeme gegen diese neue Bedrohung zu testen. Darüber hinaus hat Microsoft seine Erkenntnisse mit anderen KI-Anbietern geteilt und seine Azure AI-verwalteten Modelle aktualisiert, um diese Art von Angriff mithilfe von Prompt Shields zu erkennen und zu blockieren. Fazit Microsoft Skeleton Key AI Jailbreak Die Entdeckung der Skeleton Key-Jailbreak-Technik unterstreicht die anhaltenden Herausforderungen bei der Sicherung von KI-Systemen, da sie in verschiedenen Anwendungen immer häufiger eingesetzt werden. Diese Schwachstelle hebt die kritische Notwendigkeit robuster Sicherheitsmaßnahmen über alle Ebenen des KI-Stacks hinweg hervor, da sie Benutzer potenziell schädlichen Inhalten aussetzen oder es böswilligen Akteuren ermöglichen kann, KI-Modelle für schändliche Zwecke auszunutzen. Während der Einfluss auf die Manipulation der Ausgaben des Modells beschränkt ist und nicht auf den Zugriff auf Benutzerdaten oder die Übernahme des Systems, wirft die Fähigkeit der Technik, die Sicherheitsvorkehrungen mehrerer KI-Modelle zu umgehen, Bedenken hinsichtlich der Wirksamkeit aktueller verantwortungsvoller KI-Richtlinien auf. Da die KI-Technologie weiterhin fortschreitet, wird es immer wichtiger, diese Schwachstellen zu beheben, um das öffentliche Vertrauen zu erhalten und den sicheren Einsatz von KI-Systemen in verschiedenen Branchen zu gewährleisten. #Microsoft #AIBreakthrough #CyberSecurity #AIJailbreak #MicrosoftResearch #SkeletonKey Microsoft

Die mobile Version verlassen