What is Zero Trust AI Access (ZTAI)?

La maturation rapide des grands modèles de langage (LLM) révolutionne la façon dont nous interagissons avec la technologie. La plupart des entreprises en sont encore à l’étape exploratoire du déploiement des LLM et de l’identification des cas d’utilisation potentiels, en mettant l’accent sur les projets pilotes à petite échelle. Cependant, de nombreux employés ont déjà adopté une application IA générative non approuvée, soit directement (ChatGPT, Gemini, etc.), soit via des extensions tierces de l’application sanctionnée.

Les fournisseurs de logiciels en tant que service (Modèle SaaS) tentent de suivre le rythme en intégrant des fonctionnalités d’IA dans leurs services. Cela permet aux clients de tirer parti des avantages de la technologie LLM en fournissant des informations sur les ventes basées sur l’IA, une assistance à la conception de l’IA et des copilotes de co-co-co-pilotage. Cependant, cette adoption non gérée de l’IA introduit également des risques de sécurité importants, faisant de l’accès à l’IA Zero Trust (ZTAI) un élément essentiel d’une stratégie de cybersécurité d’entreprise en matière d’IA.

Rejoignez le programme Preview Obtenez le rapport Forrester Zero Trust Wave

Les défis de la sécurité de l’IA Zero Trust

De nombreuses organisations travaillent à la mise en œuvre du cadre de sécurité Zero Trust pour gérer les risques de cybersécurité d’entreprise. Cependant, l’émergence de l’IA générative (GenAI) crée des défis importants pour cette pratique, notamment :

  • Frontières floues : Les modèles de sécurité Zero Trust reposent traditionnellement sur une distinction claire entre les utilisateurs et l’application. Cependant, les applications intégrées à LLM perturbent cette distinction, fonctionnant simultanément comme les deux.
  • Agents puissants et naïfs : Ces « agents de l’IA » peuvent être considérés comme des entités intelligentes mais naïves au sein d’une organisation. Ils sont capables d’interactions sophistiquées et de génération de contenu basés sur de vastes connaissances, mais manquent souvent de compréhension des normes et des politiques de sécurité de l’entreprise.
  • Vulnérabilité GenAI : le déploiement de ces nouvelles entités utilisateur/application , auxquelles on ne peut pas faire confiance aveuglément, pose plusieurs défis de sécurité uniques, tels que l’injection rapide et l’empoisonnement des données.
  • Fuites de données d’IA : L’utilisation non autorisée de GenAI crée des risques d’accès aux données, tels que la fuite de données, l’accès risqué aux ressources en ligne et l’accès aux ressources de l’entreprise pour le compte d’utilisateurs non autorisés.
  • Exposition des données sensibles : Les utilisateurs peuvent saisir des données sensibles d’entreprise ou de client dans l’application IA, où elles peuvent être utilisées comme données d’entraînement pour le LLM et exposées à d’autres utilisateurs.
  • Injection rapide : Des entrées spécialement conçues peuvent entraîner un mauvais comportement d’un LLM, ce qui entraîne des actions qui échappent aux garde-fous du système et mettent l’entreprise et ses données en danger.

Les LLM dans une perspective Zero Trust

Pour relever ces défis dans le déploiement de LLM, un ensemble unique de mesures Zero Trust est impératif :

  1. Il est crucial de valider, de surveiller et d’appliquer soigneusement les entrées, les sorties, les données d’entraînement et les tentatives d’accès par l’application intégrée à LLM. Pour atténuer les risques associés aux applications intégrées à LLM, les entreprises doivent avoir une visibilité sur toute tentative d’injection et d’empoisonnement, l’inclusion involontaire de données sensibles dans la formation et les accès non autorisés.
  2. Du point de vue du Zero Trust, on ne peut pas faire aveuglément confiance à ces entités dynamiques, autonomes et créatives nouvellement introduites au sein des organisations. Cela nécessite une nouvelle approche de la sécurité lors de leur mise en œuvre.
  3. La nature imprévisible des LLM, leurs connaissances étendues et leur vulnérabilité à la manipulation nécessitent un cadre d’accès à l’IA révisé et basé sur le Zero Trust. Cela permettra aux professionnels de la sécurité de garantir une protection des données, une sécurité et un accès robustes conformes aux politiques de l’entreprise.

Liste de contrôle de l’IA Zero Trust

Avec une approche d’accès Zero Trust IA (ZTAI) à l’esprit, il est crucial de considérer les applications intégrées à LLM comme des entités nécessitant des politiques de contrôle d’accès strictes, encore plus strictes que l’employé moyen. Nous ne pouvons pas faire confiance à la prise de décision de LLM sur le contenu à récupérer et les sites Web auxquels il faut accéder. Par conséquent, nous ne pouvons pas faire confiance aux données qui sont récupérées et présentées à l’utilisateur, qui doivent être soumises à des mesures de sécurité diligentes.

Liste de contrôle de sécurité pour l’accès à Internet de l’application LLM-Integrated

L’accès à Internet augmente considérablement les risques de sécurité associés aux applications intégrées à LLM. Voici quelques bonnes pratiques pour gérer ces risques :

  • Refusez l’accès lorsque cela est possible : À moins qu’il ne s’agisse d’une nécessité absolue, ne fournissez pas à votre modèle un accès à Internet, car cela augmente considérablement la surface d’attaque.
  • Mettre en place des contrôles d’accès : Lorsque vous augmentez LLM avec un accès à Internet, assurez-vous que des politiques strictes de contrôle d’accès sont en place, conformément aux politiques de votre organisation. Ne sous-traitez pas vos politiques de contrôle d’accès actuelles à des fournisseurs externes et ne les appliquez pas à vos nouveaux utilisateurs.
  • Bloquer les sites Web restreints : Mettez en place un filtrage URL et une protection contre l’hameçonnage pour votre application basée sur LLM afin de les empêcher d’accéder à des sites Web restreints.
  • Contrôler strictement les données accessibles : Limitez les destinations auxquelles l’agent peut accéder et les données qu’il peut récupérer, en fonction du cas d’utilisation. Les limitations doivent inclure le contenu, les types de fichiers et les catégories de sites Web appropriés.
  • Effectuer la validation des données : Valider en continu les données récupérées et présentées à l’utilisateur par le LLM. Ne faites pas confiance au LLM pour ne fournir que des données non offensives, car il peut être sujet à des hallucinations ou contenir des données d’entraînement empoisonnées.

Un cadre d’accès à l’IA Zero Trust ne fait pas confiance au comportement ou à la prise de décision de l’application intégrée à LLM lors de l’accès aux ressources de l’entreprise. Cela inclut les ressources auxquelles vous accédez et le moment où vous y accédez, les données exportées vers quel utilisateur et les actions qui peuvent être effectuées à l’aide de ces ressources.

Liste de contrôle de sécurité pour l’accès de l’application LLM-Integrated aux ressources de l’entreprise

Comme pour fournir un accès à Internet, permettre à une application intégrée à LLM d’accéder aux ressources de l’entreprise peut être nécessaire mais peut également être dangereux. Les meilleures pratiques de sécurité pour gérer ces risques comprennent :

  • Restreindre l’utilisation des privilèges élevés : Limitez les privilèges de l’application intégrée à LLM, en particulier pour les opérations à haut risque, telles que la modification et la suppression des données de l’entreprise.
  • Mettre en œuvre le moindre privilège : Limitez au strict minimum les ressources de l’entreprise auxquelles votre LLM peut accéder.
  • Exiger une réauthentification et des délais d’expiration du compte : Avant que l’agent n’effectue une opération à l’aide des ressources de l’entreprise, demandez à l’utilisateur de s’authentifier à nouveau et limitez la durée de la session.
  • Effectuer des analyses comportementales : Surveillez le comportement et la prise de décision de l’application intégrée à LLM. Les facteurs à surveiller incluent les ressources auxquelles on accède, les données qui sont exportées à quel utilisateur et les opérations qui sont effectuées à l’aide des ressources de l’entreprise.
  • Maintenez une visibilité en temps réel : Assurez-vous d’avoir une visibilité claire, détaillée et en temps réel sur les ressources en ligne ou d’entreprise auxquelles un agent accède et sur les opérations en cours.
  • Suivi du comportement anormal : Mettre en place un système pour détecter les modèles de comportement anormaux du LLM, tels que l’accès inattendu aux données ou l’écart par rapport aux réponses ou aux modèles d’accès typiques.
  • Mettre en œuvre des contrôles d’accès basés sur les rôles : Mettez en œuvre une politique de contrôle d’accès dynamique basée sur l’utilisateur pour l’agent, ce qui signifie que le LLM hérite des mêmes droits d’accès que l’utilisateur final dans chaque session.
  • Minimiser la communication inter-LLM : Les dégâts peuvent être exponentiels lorsqu’un LLM peut interagir avec un autre LLM. Assurez-vous de limiter la communication de l’application basée sur LLM au strict minimum.

Réseau Zero Trust avec la plateforme Infinity

L’introduction des LLM et de GenAI rend la mise en œuvre d’une architecture de sécurité Zero Trust plus importante que jamais. Dans le même temps, les capacités de ces systèmes compliquent considérablement les mises en œuvre du Zero Trust et rendent ZTAI essentiel.

La mise en œuvre de ZTAI peut s’avérer complexe et nécessite une visibilité et un contrôle granulaires sur toutes les actions effectuées par une application intégrée à LLM dans l’environnement d’une organisation. La plateforme Infinity de Check Point offre les outils dont votre organisation a besoin pour mettre en œuvre un système Zero Trust efficace à l’ère de l’IA, y compris des capacités d’IA intégrées pour la prévention avancée des menaces, la réponse aux incidents et l’administration de la sécurité.

×
  Commentaires
Ce site web utilise des cookies pour sa fonctionnalité et à des fins d'analyse et de marketing. En continuant à utiliser ce site web, vous acceptez l'utilisation de cookies. Pour plus d'informations, veuillez lire notre avis sur les cookies.
OK