Semantic Kernel
02.09.2024, 13:15 Uhr
Schutz für KI-Anwendungen vor Prompt-Injection-Angriffen
Microsoft hat neue Sicherheitsmassnahmen für den Semantic Kernel vorgestellt, die Entwicklern helfen sollen, Prompt-Injection-Angriffe zu verhindern.
Prompt Injection-Angriffe stellen eine ernsthafte Bedrohung für Anwendungen dar, die automatisierte Chat-Prompts verwenden. Mit dem Ziel, diese Bedrohung zu minimieren, verfolgt Microsoft einen Zero-Trust-Ansatz, bei dem jeder Eingabewert zunächst als unsicher behandelt wird. Dies bedeutet, dass alle in Prompts eingefügten Inhalte standardmässig codiert werden, um schädliche Eingaben zu verhindern.
Ein Beispiel für eine potenzielle Sicherheitslücke wären Benutzereingaben, die möglicherweise bösartigen Code enthalten. Microsoft hat mehrere Strategien entwickelt, um eine derartige Infiltration zu verhindern.
Entwickler sind jetzt in der Lage, Eingangsvariablen und Rückgabewerte von Funktionen so zu konfigurieren, dass sie entweder als sicher oder unsicher betrachtet werden. Standardmässig wird der Inhalt einer Eingangsvariablen HTML-codiert, was zur Sicherheit der Anwendung beiträgt. Jedoch können Entwickler auch opt-in-Optionen nutzen, wenn sie davon überzeugt sind, dass bestimmte Inhalte sicher sind.
Die neue Sicherheitsschicht umfasst auch die Integration von Tools wie Prompt Shields, die speziell entwickelt wurden, um gegen Prompt-Injection-Angriffe zu schützen. Prompt Shields ist ein API, das Eingaben an Large Language Models analysiert und Angriffe erkennt.
Ein weiteres Plus ist die Dokumentation sowie Beispiele, die Microsoft zur Verfügung stellt, um Entwicklern einen klaren Überblick über die Implementierung dieser Sicherheitsmassnahmen zu geben. Künftige Updates und Blogbeiträge sind in Planung, um die Community über die fortlaufenden Entwicklungen im Bereich der Sicherheitsprotokolle auf dem Laufenden zu halten.
Autor(in)
Online
Redaktion
Kommentare
Es sind keine Kommentare vorhanden.