Die Herausforderungen der Zero-Trust-KI-Sicherheit
Viele Organisationen arbeiten an der Implementierung eines Zero-Trust-Sicherheitsframeworks, um die Cybersicherheitsrisiken ihres Unternehmens zu managen. Das Aufkommen der generativen KI (GenAI) bringt jedoch erhebliche Herausforderungen für diese Praxis mit sich, darunter:
- Verschwommene Grenzen: Zero-Trust-Sicherheitsmodelle basieren traditionell auf einer klaren Unterscheidung zwischen Benutzern und Anwendung. Die LLM-integrierte Anwendung hebt diese Unterscheidung jedoch auf, da sie beide Funktionen gleichzeitig erfüllt.
- Leistungsstarke, naive Agenten: Diese „KI-Agenten“ können als intelligente, aber naive Einheiten innerhalb einer Organisation betrachtet werden. Sie sind zu anspruchsvollen Interaktionen und zur Inhaltserstellung auf der Grundlage eines umfassenden Wissens fähig, es mangelt ihnen jedoch häufig an Verständnis für Unternehmensnormen und Sicherheitsrichtlinien.
- GenAI Schwachstelle: Die Bereitstellung dieser neuen Benutzer-/Anwendungseinheiten, denen nicht blind vertraut werden kann, bringt mehrere einzigartige Sicherheitsherausforderungen mit sich, wie z. B. Prompt Injection und Data Poisoning.
- KI-Datenlecks: Die unbefugte Verwendung von GenAI führt zu Daten- und Zugriffsrisiken, wie etwa Datenlecks, riskanten Zugriff auf Online-Ressourcen und Zugriff auf Unternehmensressourcen im Namen nicht autorisierter Benutzer.
- Offenlegung sensibler Daten: Benutzer können sensible Unternehmens- oder Kundendaten in die KI Anwendung eingeben, wo diese als Trainingsdaten für das LLM verwendet und anderen Benutzern zugänglich gemacht werden können.
- Prompt Injection: Speziell gestaltete Eingaben können Fehlfunktionen eines LLM verursachen. Die Folge sind Aktionen, bei denen die Systemkontrollen umgangen werden und das Unternehmen und seine Daten gefährdet werden.
LLMs aus einer Zero-Trust-Perspektive
Um diese Herausforderungen bei der LLM-Bereitstellung zu bewältigen, ist ein einzigartiger Satz von Zero-Trust-Messungen unerlässlich:
- Eine sorgfältige Validierung, Überwachung und Durchsetzung der Eingabe-, Ausgabe-, Trainingsdaten und Zugriffsversuche durch die LLM-integrierte Anwendung ist von entscheidender Bedeutung. Um die mit der LLM-integrierten Anwendung verbundenen Risiken zu mindern, müssen Unternehmen Einblick in alle Injektions- und Vergiftungsversuche, die unbeabsichtigte Einbeziehung sensibler Daten in Schulungen und unbefugten Zugriff haben.
- Aus einer Zero-Trust-Perspektive kann diesen neu eingeführten dynamischen, autonomen und kreativen Einheiten innerhalb von Organisationen nicht blind vertraut werden. Dies erfordert einen neuen Sicherheitsansatz bei der Implementierung.
- Die Unberechenbarkeit, das umfangreiche Wissen und die Anfälligkeit für Manipulationen im Rahmen von LLMs erfordern ein überarbeitetes, auf Zero-Trust basierendes KI-Zugangsframework. Auf diese Weise können Sicherheitsexperten einen robusten Datenschutz, Sicherheit und Zugriff gewährleisten, der den Unternehmensrichtlinien entspricht.
Checkliste für Zero Trust-KI
Im Hinblick auf einen Zero Trust KI-Zugriffsansatz (ZTAI) ist es entscheidend, LLM-integrierte Anwendungen als Einheiten zu betrachten, die strenge Zugriffskontrollrichtlinien benötigen – sogar strengere als der durchschnittliche Mitarbeiter. Wir können der Entscheidungsfindung des LLM nicht vertrauen, welche Inhalte abgerufen und auf welche Websites zugegriffen werden soll. Dementsprechend können wir den Daten, die abgerufen und dem Benutzer präsentiert werden, nicht vertrauen; sie müssen sorgfältigen Sicherheitsmaßnahmen unterliegen.
Sicherheitscheckliste für den Internetzugang der LLM-integrierten Anwendung
Durch den Internetzugang erhöhen sich die Sicherheitsrisiken einer LLM-integrierten Anwendung erheblich. Zu den Best Practices zum Management dieser Risiken zählen:
- Zugriff nach Möglichkeit verweigern: Sofern es nicht unbedingt nötig ist, gewähren Sie Ihrem Modell keinen Zugriff auf das Internet, da dadurch die Angriffsfläche dramatisch vergrößert wird.
- Implementieren Sie Zugriffskontrollen: Wenn Sie LLM um den Internetzugang erweitern, stellen Sie sicher, dass strenge Zugriffskontrollrichtlinien vorhanden sind, die den Richtlinien Ihrer Organisation entsprechen. Lassen Sie Ihre aktuellen Zugriffskontrollrichtlinien nicht an externe Anbieter auslagern und wenden Sie sie nicht auf Ihre neuen Benutzer an.
- Blockieren eingeschränkter Websites: Implementieren Sie URL Filterung und Phishing Schutz für Ihre LLM-basierte Anwendung, um den Zugriff auf eingeschränkte Websites zu verhindern.
- Strenge Kontrolle zugänglicher Daten: Begrenzen Sie je nach Anwendungsfall die Ziele, auf die der Agent zugreifen kann, und die Daten, die er abrufen kann. Zu den Einschränkungen sollten geeignete Inhalte, Dateitypen und Website-Kategorien gehören.
- Datenvalidierung durchführen: Kontinuierliche Validierung der vom LLM abgerufenen und dem Benutzer präsentierten Daten. Verlassen Sie sich nicht darauf, dass der LLM nur unschädliche Daten liefert, da er zu Halluzinationen neigen oder vergiftete Trainingsdaten enthalten kann.
Ein Zero-Trust-KI-Zugriffsframework vertraut nicht dem Verhalten oder der Entscheidungsfindung der LLM-integrierten Anwendung beim Zugriff auf Unternehmensressourcen. Hierzu gehört, auf welche Ressourcen wann zugegriffen wird, welche Daten an welchen Benutzer exportiert werden und welche Aktionen mit diesen Ressourcen ausgeführt werden können.
Sicherheitscheckliste für den Zugriff auf Unternehmensressourcen einer LLM-integrierten Anwendung
Ebenso wie die Bereitstellung des Internetzugangs kann es notwendig sein, einer LLM-integrierten Anwendung den Zugriff auf Unternehmensressourcen zu ermöglichen, es kann aber auch gefährlich sein. Zu den bewährten Sicherheitsmethoden zum Umgang mit diesen Risiken zählen:
- Beschränken Sie die Verwendung erhöhter Berechtigungen: Beschränken Sie die Berechtigungen der LLM-integrierten Anwendung, insbesondere für Vorgänge mit hohem Risiko, wie das Ändern und Löschen von Unternehmensdaten.
- Implementieren Sie das Prinzip der geringsten Privilegien: Beschränken Sie die Unternehmensressourcen, auf die Ihr LLM zugreifen kann, auf das absolute Minimum.
- Erneute Authentifizierung und Konto-Timeouts erforderlich: Bevor der Agent einen Vorgang unter Verwendung von Unternehmensressourcen ausführt, muss sich der Benutzer erneut authentifizieren und die Sitzungsdauer muss begrenzt werden.
- Führen Sie Verhaltensanalysen durch: Überwachen Sie das Verhalten und die Entscheidungsfindung der LLM-integrierten Anwendung. Zu beachten sind unter anderem Faktoren wie der Zugriff auf die Ressourcen, die an welchen Benutzer exportierten Daten und die mithilfe von Unternehmensressourcen ausgeführten Vorgänge.
- Behalten Sie die Echtzeittransparenz bei: Sorgen Sie dafür, dass Sie klare, detaillierte Echtzeittransparenz über die Online- oder Unternehmensressourcen haben, auf die ein Agent zugreift, und über die ausgeführten Vorgänge.
- Anomales Verhalten verfolgen: Implementieren Sie ein System zur Erkennung abnormaler Verhaltensmuster durch das LLM, wie z. B. unerwarteter Datenzugriff oder Abweichungen von typischen Antworten oder Zugriffsmustern.
- Implementieren Sie rollenbasierte Zugriffskontrollen: Implementieren Sie eine dynamische, benutzerbasierte Zugriffskontrollrichtlinie für den Agenten. Dies bedeutet, dass der LLM in jeder Sitzung dieselben Zugriffsrechte erbt wie der Endbenutzer.
- Minimieren Sie die Kommunikation zwischen LLMs: Der Schaden kann exponentiell sein, wenn ein LLM mit einem anderen LLM interagieren kann. Achten Sie darauf, die Kommunikation bei LLM-basierten Anwendungen auf das absolute Minimum zu beschränken.