What is Zero Trust AI Access (ZTAI)?

La rápida maduración de los grandes modelos de lenguaje (LLM) está revolucionando la forma en que interactuamos con la tecnología. La mayoría de las compañías todavía se encuentran en la etapa exploratoria de implementación de LLM e identificación de posibles casos de uso con un enfoque en pilotos a pequeña escala. Sin embargo, muchos empleados ya adoptaron aplicaciones de AI generativas no sancionadas, ya sea directamente (ChatGPT, Gemini, etc.) o a través de extensiones de terceros a aplicaciones sancionadas.

Los proveedores de software como servicio (SaaS) intentan seguir el ritmo incorporando funciones de IA a sus servicios. Esto permite a los clientes aprovechar los beneficios de la tecnología LLM proporcionando perspectivas de ventas basadas en la IA, asistencia en el diseño con IA y copilotos de codificación. Sin embargo, esta adopción no gestionada de la IA también introduce importantes riesgos de seguridad, lo que convierte el acceso a la IA de confianza cero (ZTAI) en un componente vital de una estrategia corporativa de ciberseguridad de la IA.

Únase al programa de vista previa Obtenga el informe Forrester Zero Trust Wave

Los retos de la seguridad de la IA de confianza cero

Muchas organizaciones están trabajando en la implementación del marco de seguridad Zero Trust para gestionar los riesgos de ciberseguridad corporativa. Sin embargo, la aparición de la IA generativa (GenAI) crea importantes retos para esta práctica, entre ellos:

  • Límites borrosos: Los modelos de seguridad confiable cero se basaron tradicionalmente en una clara distinción entre usuarios y aplicación. Sin embargo, la aplicación integrada de LLM trastoca esta distinción, funcionando simultáneamente como ambas.
  • Agentes poderosos e ingenuos: Estos "agentes de IA" pueden ver como entidades inteligentes pero ingenuas dentro de una organización. Son capaces de interacciones sofisticadas y generación de contenido basados en un vasto conocimiento, pero a menudo carecen de una comprensión de las normas corporativas y las políticas de seguridad.
  • Vulnerabilidad de GenAI: la implementación de estas nuevas entidades de usuario/aplicación, en las que no se puede confiar ciegamente, plantea varios retos de seguridad únicos, como la inyección puntual y el envenenamiento de datos.
  • Fuga de datos de la IA: El uso no autorizado de GenAI crea riesgos de acceso y datos, como la fuga de datos, el acceso arriesgado a recursos en línea y el acceso a recursos corporativos en nombre de usuarios no autorizados.
  • Exposición de datos sensibles: Los usuarios pueden introducir datos sensibles de empresas o clientes en IA aplicación, donde podrían emplear como datos de entrenamiento para el LLM y quedar expuestos a otros usuarios.
  • Inyección inmediata: Las entradas especialmente diseñadas pueden hacer que un LLM se comporte mal, lo que resulta en acciones que evaden las barreras de seguridad del sistema y ponen en riesgo a la compañía y sus datos.

Los LLM desde una perspectiva Zero-Trust

Para abordar estos retos en la implementación del LLM, es imprescindible contar con un conjunto único de medidas de confianza cero:

  1. Es crucial validar, monitorear y hacer cumplir cuidadosamente la entrada, la salida, los datos de formación y los intentos de acceso por parte de la aplicación integrada en LLM. Para mitigar los riesgos asociados a la aplicación integrada en LLM, las organizaciones deben tener visibilidad de cualquier intento de inyección y envenenamiento, inclusión involuntaria de datos sensibles en la formación y acceso no autorizado.
  2. Desde una perspectiva de confianza cero, no se puede confiar ciegamente en estas entidades dinámicas, autónomas y creativas recién introducidas dentro de las organizaciones. Esto requiere un nuevo enfoque de la seguridad al implementarlos.
  3. La naturaleza impredecible de los LLM, sus amplios conocimientos y su susceptibilidad a la manipulación exigen un marco de acceso a la IA revisado y basado en la confianza cero. Esto permitirá a los profesionales de la seguridad garantizar una estable protección de datos, seguridad y acceso que cumpla con las políticas corporativas.

Lista de control de la IA de confianza cero

Con un enfoque de acceso IA de confianza cero (ZTAI) en mente, es crucial considerar la aplicación integrada en LLM como entidades con necesidad de estrictas políticas de control de acceso, incluso más estrictas que las del empleado medio. No podemos confiar en la toma de decisiones de LLM sobre qué contenido obtener y a qué sitios web acceder. En consecuencia, no podemos confiar en los datos que se obtienen y se presentan al usuario, que deben estar bajo medidas de seguridad diligentes.

Lista de comprobación de seguridad para el acceso a Internet de la aplicación integrada en LLM

El acceso a Internet incrementa significativamente los riesgos de seguridad asociados a la aplicación integrada en LLM. Algunas de las mejores prácticas para gestionar estos riesgos son las siguientes:

  • Denegar el acceso cuando sea posible: A menos que sea una necesidad absoluta, no proporcione a su modelo acceso a Internet, ya que aumenta significativamente la superficie de ataque.
  • Implementar controles de acceso: Al aumentar LLM con acceso a Internet, cerciorar de que se implementen políticas de control de acceso estrictas, en línea con las políticas de su organización. No externalice sus políticas de control de acceso actuales a proveedores externos y aplíquelas a sus nuevos usuarios.
  • Bloquee los sitios web restringidos: Implemente el filtrado URL y la protección phishing para su aplicación basada en LLM para evitar que accedan a sitios web restringidos.
  • Controle estrictamente los datos accesibles: Limite los destinos a los que puede acceder el agente y los datos que puede obtener, en función del caso de uso. Las limitaciones deben incluir el contenido, los tipos de archivo y las categorías de sitios web adecuados.
  • Realizar la validación de datos: Valide continuamente los datos obtenidos y presentados al usuario por el LLM. No confíe en que el LLM solo proporcione datos inofensivos, ya que puede ser propenso a alucinaciones o contener datos de entrenamiento envenenados.

Un marco de acceso a la IA de confianza cero no confía en el comportamiento o la toma de decisiones de la aplicación integrada en el LLM cuando accede a los recursos corporativos. Esto incluye a qué recursos se accede y cuándo, qué datos se exportan a qué usuario y qué acciones se pueden realizar con estos recursos.

Lista de comprobación de seguridad para el acceso de la aplicación integrada LLM' a los recursos corporativos

Al igual que proporcionar acceso a Internet, permitir que la aplicación integrada en LLM acceda a los recursos corporativos puede ser necesario pero también peligroso. Las mejores prácticas de seguridad para gestionar estos riesgos incluyen:

  • Restrinja el uso de privilegios elevados: Limite los privilegios de la aplicación integrada en LLM, especialmente para las operaciones de alto riesgo, como la modificación y eliminación de datos corporativos.
  • Implementar privilegios mínimos: Limite los recursos corporativos a los que puede acceder su LLM al mínimo absoluto.
  • Requerir reautenticación y tiempos de espera de la cuenta: Antes de que el agente realice cualquier operación empleando recursos corporativos, exija al usuario que vuelva a autenticar y limite el tiempo de la sesión.
  • Realice análisis de comportamiento: Monitorear el comportamiento y la toma de decisiones de la aplicación integrada en LLM. Los factores a tener en cuenta incluyen a qué recursos se accede, qué datos se exportan a qué usuario y qué operaciones se realizan con recursos corporativos.
  • Mantenga la visibilidad en tiempo real: Cerciorar de tener una visibilidad clara, detallada y en tiempo real de los recursos en línea o corporativos a los que accede un agente y de las operaciones que se ejecutan.
  • Seguimiento de comportamientos anómalos: Implementar un sistema para detectar patrones de comportamiento anormales por parte del LLM, como el acceso inesperado a los datos o la desviación de las respuestas típicas o los patrones de acceso.
  • Implemente controles de acceso basados en roles: Implemente una política dinámica de control de acceso basada en el usuario para el agente, lo que significa que el LLM hereda los mismos derechos de acceso que el usuario final en cada sesión.
  • Minimice la comunicación entre LLM: El daño puede ser exponencial cuando un LLM puede interactuar con otro LLM. Cerciorar de limitar la comunicación de la aplicación basada en LLM al mínimo absoluto.

Red de confianza cero con la Plataforma Infinity

La introducción de LLM y GenAI hace que la implementación de una arquitectura de seguridad confiable cero sea más importante que nunca. Al mismo tiempo, las capacidades de estos sistemas también complican significativamente las implementaciones de confianza cero y hacen que ZTAI sea esencial.

La implantación de la ZTAI puede ser compleja y requiere una visibilidad y un control granulares de todas las acciones realizadas por la aplicación integrada en la LLM dentro del entorno de una organización. Check Point's Infinity Platform ofrece las herramientas que su organización necesita para implantar una confianza cero eficaz en la era de la IA, incluidas las capacidades integradas de IA para la prevención avanzada de amenazas, la respuesta a incidentes y la administración de la seguridad.

x
  Comentarios
Este sitio web utiliza cookies para optimizar su funcionalidad y para fines de análisis y marketing. Al seguir usando este sitio web, usted acepta el uso de cookies. Para obtener más información, lea nuestro Aviso de cookies.