Les défis de la sécurité de l’IA Zero Trust
De nombreuses organisations travaillent à la mise en œuvre du cadre de sécurité Zero Trust pour gérer les risques de cybersécurité d’entreprise. Cependant, l’émergence de l’IA générative (GenAI) crée des défis importants pour cette pratique, notamment :
- Frontières floues : Les modèles de sécurité Zero Trust reposent traditionnellement sur une distinction claire entre les utilisateurs et l’application. Cependant, les applications intégrées à LLM perturbent cette distinction, fonctionnant simultanément comme les deux.
- Agents puissants et naïfs : Ces « agents de l’IA » peuvent être considérés comme des entités intelligentes mais naïves au sein d’une organisation. Ils sont capables d’interactions sophistiquées et de génération de contenu basés sur de vastes connaissances, mais manquent souvent de compréhension des normes et des politiques de sécurité de l’entreprise.
- Vulnérabilité GenAI : le déploiement de ces nouvelles entités utilisateur/application , auxquelles on ne peut pas faire confiance aveuglément, pose plusieurs défis de sécurité uniques, tels que l’injection rapide et l’empoisonnement des données.
- Fuites de données d’IA : L’utilisation non autorisée de GenAI crée des risques d’accès aux données, tels que la fuite de données, l’accès risqué aux ressources en ligne et l’accès aux ressources de l’entreprise pour le compte d’utilisateurs non autorisés.
- Exposition des données sensibles : Les utilisateurs peuvent saisir des données sensibles d’entreprise ou de client dans l’application IA, où elles peuvent être utilisées comme données d’entraînement pour le LLM et exposées à d’autres utilisateurs.
- Injection rapide : Des entrées spécialement conçues peuvent entraîner un mauvais comportement d’un LLM, ce qui entraîne des actions qui échappent aux garde-fous du système et mettent l’entreprise et ses données en danger.
Les LLM dans une perspective Zero Trust
Pour relever ces défis dans le déploiement de LLM, un ensemble unique de mesures Zero Trust est impératif :
- Il est crucial de valider, de surveiller et d’appliquer soigneusement les entrées, les sorties, les données d’entraînement et les tentatives d’accès par l’application intégrée à LLM. Pour atténuer les risques associés aux applications intégrées à LLM, les entreprises doivent avoir une visibilité sur toute tentative d’injection et d’empoisonnement, l’inclusion involontaire de données sensibles dans la formation et les accès non autorisés.
- Du point de vue du Zero Trust, on ne peut pas faire aveuglément confiance à ces entités dynamiques, autonomes et créatives nouvellement introduites au sein des organisations. Cela nécessite une nouvelle approche de la sécurité lors de leur mise en œuvre.
- La nature imprévisible des LLM, leurs connaissances étendues et leur vulnérabilité à la manipulation nécessitent un cadre d’accès à l’IA révisé et basé sur le Zero Trust. Cela permettra aux professionnels de la sécurité de garantir une protection des données, une sécurité et un accès robustes conformes aux politiques de l’entreprise.
Liste de contrôle de l’IA Zero Trust
Avec une approche d’accès Zero Trust IA (ZTAI) à l’esprit, il est crucial de considérer les applications intégrées à LLM comme des entités nécessitant des politiques de contrôle d’accès strictes, encore plus strictes que l’employé moyen. Nous ne pouvons pas faire confiance à la prise de décision de LLM sur le contenu à récupérer et les sites Web auxquels il faut accéder. Par conséquent, nous ne pouvons pas faire confiance aux données qui sont récupérées et présentées à l’utilisateur, qui doivent être soumises à des mesures de sécurité diligentes.
Liste de contrôle de sécurité pour l’accès à Internet de l’application LLM-Integrated
L’accès à Internet augmente considérablement les risques de sécurité associés aux applications intégrées à LLM. Voici quelques bonnes pratiques pour gérer ces risques :
- Refusez l’accès lorsque cela est possible : À moins qu’il ne s’agisse d’une nécessité absolue, ne fournissez pas à votre modèle un accès à Internet, car cela augmente considérablement la surface d’attaque.
- Mettre en place des contrôles d’accès : Lorsque vous augmentez LLM avec un accès à Internet, assurez-vous que des politiques strictes de contrôle d’accès sont en place, conformément aux politiques de votre organisation. Ne sous-traitez pas vos politiques de contrôle d’accès actuelles à des fournisseurs externes et ne les appliquez pas à vos nouveaux utilisateurs.
- Bloquer les sites Web restreints : Mettez en place un filtrage URL et une protection contre l’hameçonnage pour votre application basée sur LLM afin de les empêcher d’accéder à des sites Web restreints.
- Contrôler strictement les données accessibles : Limitez les destinations auxquelles l’agent peut accéder et les données qu’il peut récupérer, en fonction du cas d’utilisation. Les limitations doivent inclure le contenu, les types de fichiers et les catégories de sites Web appropriés.
- Effectuer la validation des données : Valider en continu les données récupérées et présentées à l’utilisateur par le LLM. Ne faites pas confiance au LLM pour ne fournir que des données non offensives, car il peut être sujet à des hallucinations ou contenir des données d’entraînement empoisonnées.
Un cadre d’accès à l’IA Zero Trust ne fait pas confiance au comportement ou à la prise de décision de l’application intégrée à LLM lors de l’accès aux ressources de l’entreprise. Cela inclut les ressources auxquelles vous accédez et le moment où vous y accédez, les données exportées vers quel utilisateur et les actions qui peuvent être effectuées à l’aide de ces ressources.
Liste de contrôle de sécurité pour l’accès de l’application LLM-Integrated aux ressources de l’entreprise
Comme pour fournir un accès à Internet, permettre à une application intégrée à LLM d’accéder aux ressources de l’entreprise peut être nécessaire mais peut également être dangereux. Les meilleures pratiques de sécurité pour gérer ces risques comprennent :
- Restreindre l’utilisation des privilèges élevés : Limitez les privilèges de l’application intégrée à LLM, en particulier pour les opérations à haut risque, telles que la modification et la suppression des données de l’entreprise.
- Mettre en œuvre le moindre privilège : Limitez au strict minimum les ressources de l’entreprise auxquelles votre LLM peut accéder.
- Exiger une réauthentification et des délais d’expiration du compte : Avant que l’agent n’effectue une opération à l’aide des ressources de l’entreprise, demandez à l’utilisateur de s’authentifier à nouveau et limitez la durée de la session.
- Effectuer des analyses comportementales : Surveillez le comportement et la prise de décision de l’application intégrée à LLM. Les facteurs à surveiller incluent les ressources auxquelles on accède, les données qui sont exportées à quel utilisateur et les opérations qui sont effectuées à l’aide des ressources de l’entreprise.
- Maintenez une visibilité en temps réel : Assurez-vous d’avoir une visibilité claire, détaillée et en temps réel sur les ressources en ligne ou d’entreprise auxquelles un agent accède et sur les opérations en cours.
- Suivi du comportement anormal : Mettre en place un système pour détecter les modèles de comportement anormaux du LLM, tels que l’accès inattendu aux données ou l’écart par rapport aux réponses ou aux modèles d’accès typiques.
- Mettre en œuvre des contrôles d’accès basés sur les rôles : Mettez en œuvre une politique de contrôle d’accès dynamique basée sur l’utilisateur pour l’agent, ce qui signifie que le LLM hérite des mêmes droits d’accès que l’utilisateur final dans chaque session.
- Minimiser la communication inter-LLM : Les dégâts peuvent être exponentiels lorsqu’un LLM peut interagir avec un autre LLM. Assurez-vous de limiter la communication de l’application basée sur LLM au strict minimum.