What is Zero Trust AI Access (ZTAI)?

Die schnelle Reifung großer Sprachmodelle (LLMs) revolutioniert unsere Interaktion mit der Technologie. Die meisten Unternehmen befinden sich hinsichtlich der Bereitstellung von LLMs und der Identifizierung potenzieller Anwendungsfälle noch in der Erkundungsphase, wobei der Schwerpunkt auf Pilotprojekten im kleinen Maßstab liegt. Viele Mitarbeiter haben jedoch bereits nicht genehmigte generative KI-Anwendungen entweder direkt (ChatGPT, Gemini usw.) oder über Erweiterungen genehmigter Anwendungen von Drittanbietern übernommen.

Anbieter von Software as a Service (SaaS) versuchen, Schritt zu halten, indem sie KI-Funktionen in ihre Dienste integrieren. Dadurch können Kunden die Vorteile der LLM-Technologie nutzen, indem sie KI-basierte Vertriebseinblicke, KI-Designunterstützung und Co-Piloten für die Codierung erhalten. Dieser unkontrollierte Einsatz von KI bringt jedoch auch erhebliche Sicherheitsrisiken mit sich, weshalb Zero-Trust-KI-Zugriff (ZTAI) ein wesentlicher Bestandteil der KI-Cybersicherheitsstrategie eines Unternehmens ist.

Nehmen Sie am Vorschauprogramm teil Holen Sie sich den Forrester Zero Trust Wave Report

Die Herausforderungen der Zero-Trust-KI-Sicherheit

Viele Organisationen arbeiten an der Implementierung eines Zero-Trust-Sicherheitsframeworks, um die Cybersicherheitsrisiken ihres Unternehmens zu managen. Das Aufkommen der generativen KI (GenAI) bringt jedoch erhebliche Herausforderungen für diese Praxis mit sich, darunter:

  • Verschwommene Grenzen: Zero-Trust-Sicherheitsmodelle basieren traditionell auf einer klaren Unterscheidung zwischen Benutzern und Anwendung. Die LLM-integrierte Anwendung hebt diese Unterscheidung jedoch auf, da sie beide Funktionen gleichzeitig erfüllt.
  • Leistungsstarke, naive Agenten: Diese „KI-Agenten“ können als intelligente, aber naive Einheiten innerhalb einer Organisation betrachtet werden. Sie sind zu anspruchsvollen Interaktionen und zur Inhaltserstellung auf der Grundlage eines umfassenden Wissens fähig, es mangelt ihnen jedoch häufig an Verständnis für Unternehmensnormen und Sicherheitsrichtlinien.
  • GenAI Schwachstelle: Die Bereitstellung dieser neuen Benutzer-/Anwendungseinheiten, denen nicht blind vertraut werden kann, bringt mehrere einzigartige Sicherheitsherausforderungen mit sich, wie z. B. Prompt Injection und Data Poisoning.
  • KI-Datenlecks: Die unbefugte Verwendung von GenAI führt zu Daten- und Zugriffsrisiken, wie etwa Datenlecks, riskanten Zugriff auf Online-Ressourcen und Zugriff auf Unternehmensressourcen im Namen nicht autorisierter Benutzer.
  • Offenlegung sensibler Daten: Benutzer können sensible Unternehmens- oder Kundendaten in die KI Anwendung eingeben, wo diese als Trainingsdaten für das LLM verwendet und anderen Benutzern zugänglich gemacht werden können.
  • Prompt Injection: Speziell gestaltete Eingaben können Fehlfunktionen eines LLM verursachen. Die Folge sind Aktionen, bei denen die Systemkontrollen umgangen werden und das Unternehmen und seine Daten gefährdet werden.

LLMs aus einer Zero-Trust-Perspektive

Um diese Herausforderungen bei der LLM-Bereitstellung zu bewältigen, ist ein einzigartiger Satz von Zero-Trust-Messungen unerlässlich:

  1. Eine sorgfältige Validierung, Überwachung und Durchsetzung der Eingabe-, Ausgabe-, Trainingsdaten und Zugriffsversuche durch die LLM-integrierte Anwendung ist von entscheidender Bedeutung. Um die mit der LLM-integrierten Anwendung verbundenen Risiken zu mindern, müssen Unternehmen Einblick in alle Injektions- und Vergiftungsversuche, die unbeabsichtigte Einbeziehung sensibler Daten in Schulungen und unbefugten Zugriff haben.
  2. Aus einer Zero-Trust-Perspektive kann diesen neu eingeführten dynamischen, autonomen und kreativen Einheiten innerhalb von Organisationen nicht blind vertraut werden. Dies erfordert einen neuen Sicherheitsansatz bei der Implementierung.
  3. Die Unberechenbarkeit, das umfangreiche Wissen und die Anfälligkeit für Manipulationen im Rahmen von LLMs erfordern ein überarbeitetes, auf Zero-Trust basierendes KI-Zugangsframework. Auf diese Weise können Sicherheitsexperten einen robusten Datenschutz, Sicherheit und Zugriff gewährleisten, der den Unternehmensrichtlinien entspricht.

Checkliste für Zero Trust-KI

Im Hinblick auf einen Zero Trust KI-Zugriffsansatz (ZTAI) ist es entscheidend, LLM-integrierte Anwendungen als Einheiten zu betrachten, die strenge Zugriffskontrollrichtlinien benötigen – sogar strengere als der durchschnittliche Mitarbeiter. Wir können der Entscheidungsfindung des LLM nicht vertrauen, welche Inhalte abgerufen und auf welche Websites zugegriffen werden soll. Dementsprechend können wir den Daten, die abgerufen und dem Benutzer präsentiert werden, nicht vertrauen; sie müssen sorgfältigen Sicherheitsmaßnahmen unterliegen.

Sicherheitscheckliste für den Internetzugang der LLM-integrierten Anwendung

Durch den Internetzugang erhöhen sich die Sicherheitsrisiken einer LLM-integrierten Anwendung erheblich. Zu den Best Practices zum Management dieser Risiken zählen:

  • Zugriff nach Möglichkeit verweigern: Sofern es nicht unbedingt nötig ist, gewähren Sie Ihrem Modell keinen Zugriff auf das Internet, da dadurch die Angriffsfläche dramatisch vergrößert wird.
  • Implementieren Sie Zugriffskontrollen: Wenn Sie LLM um den Internetzugang erweitern, stellen Sie sicher, dass strenge Zugriffskontrollrichtlinien vorhanden sind, die den Richtlinien Ihrer Organisation entsprechen. Lassen Sie Ihre aktuellen Zugriffskontrollrichtlinien nicht an externe Anbieter auslagern und wenden Sie sie nicht auf Ihre neuen Benutzer an.
  • Blockieren eingeschränkter Websites: Implementieren Sie URL Filterung und Phishing Schutz für Ihre LLM-basierte Anwendung, um den Zugriff auf eingeschränkte Websites zu verhindern.
  • Strenge Kontrolle zugänglicher Daten: Begrenzen Sie je nach Anwendungsfall die Ziele, auf die der Agent zugreifen kann, und die Daten, die er abrufen kann. Zu den Einschränkungen sollten geeignete Inhalte, Dateitypen und Website-Kategorien gehören.
  • Datenvalidierung durchführen: Kontinuierliche Validierung der vom LLM abgerufenen und dem Benutzer präsentierten Daten. Verlassen Sie sich nicht darauf, dass der LLM nur unschädliche Daten liefert, da er zu Halluzinationen neigen oder vergiftete Trainingsdaten enthalten kann.

Ein Zero-Trust-KI-Zugriffsframework vertraut nicht dem Verhalten oder der Entscheidungsfindung der LLM-integrierten Anwendung beim Zugriff auf Unternehmensressourcen. Hierzu gehört, auf welche Ressourcen wann zugegriffen wird, welche Daten an welchen Benutzer exportiert werden und welche Aktionen mit diesen Ressourcen ausgeführt werden können.

Sicherheitscheckliste für den Zugriff auf Unternehmensressourcen einer LLM-integrierten Anwendung

Ebenso wie die Bereitstellung des Internetzugangs kann es notwendig sein, einer LLM-integrierten Anwendung den Zugriff auf Unternehmensressourcen zu ermöglichen, es kann aber auch gefährlich sein. Zu den bewährten Sicherheitsmethoden zum Umgang mit diesen Risiken zählen:

  • Beschränken Sie die Verwendung erhöhter Berechtigungen: Beschränken Sie die Berechtigungen der LLM-integrierten Anwendung, insbesondere für Vorgänge mit hohem Risiko, wie das Ändern und Löschen von Unternehmensdaten.
  • Implementieren Sie das Prinzip der geringsten Privilegien: Beschränken Sie die Unternehmensressourcen, auf die Ihr LLM zugreifen kann, auf das absolute Minimum.
  • Erneute Authentifizierung und Konto-Timeouts erforderlich: Bevor der Agent einen Vorgang unter Verwendung von Unternehmensressourcen ausführt, muss sich der Benutzer erneut authentifizieren und die Sitzungsdauer muss begrenzt werden.
  • Führen Sie Verhaltensanalysen durch: Überwachen Sie das Verhalten und die Entscheidungsfindung der LLM-integrierten Anwendung. Zu beachten sind unter anderem Faktoren wie der Zugriff auf die Ressourcen, die an welchen Benutzer exportierten Daten und die mithilfe von Unternehmensressourcen ausgeführten Vorgänge.
  • Behalten Sie die Echtzeittransparenz bei: Sorgen Sie dafür, dass Sie klare, detaillierte Echtzeittransparenz über die Online- oder Unternehmensressourcen haben, auf die ein Agent zugreift, und über die ausgeführten Vorgänge.
  • Anomales Verhalten verfolgen: Implementieren Sie ein System zur Erkennung abnormaler Verhaltensmuster durch das LLM, wie z. B. unerwarteter Datenzugriff oder Abweichungen von typischen Antworten oder Zugriffsmustern.
  • Implementieren Sie rollenbasierte Zugriffskontrollen: Implementieren Sie eine dynamische, benutzerbasierte Zugriffskontrollrichtlinie für den Agenten. Dies bedeutet, dass der LLM in jeder Sitzung dieselben Zugriffsrechte erbt wie der Endbenutzer.
  • Minimieren Sie die Kommunikation zwischen LLMs: Der Schaden kann exponentiell sein, wenn ein LLM mit einem anderen LLM interagieren kann. Achten Sie darauf, die Kommunikation bei LLM-basierten Anwendungen auf das absolute Minimum zu beschränken.

Zero Trust Netzwerk mit Infinity Platform

Die Einführung von LLMs und GenAI macht die Implementierung einer Zero-Trust-Sicherheitsarchitektur wichtiger denn je. Gleichzeitig erschweren die Fähigkeiten dieser Systeme auch die Zero-Trust-Implementierungen erheblich und machen ZTAI unverzichtbar.

Die Implementierung von ZTAI kann komplex sein und erfordert detaillierte Transparenz und Kontrolle über alle Aktionen, die von der LLM-integrierten Anwendung innerhalb der Umgebung einer Organisation ausgeführt werden. Die Infinity Platform von Check Point bietet die Tools, die Ihr Unternehmen benötigt, um im Zeitalter der KI effektiven Zero-Trust umzusetzen, einschließlich integrierter KI-Funktionen für erweiterte Bedrohungsprävention, Vorfallreaktion und Sicherheitsverwaltung.

×
  Feedback
Diese Website verwendet Cookies für ihre Funktionalität sowie für Analyse- und Marketingzwecke. Mit der weiteren Nutzung der Webseite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen finden Sie in unserem Cookies Hinweis.
OK