How Will AI Affect Cybersecurity?

La Inteligencia Artificial sigue siendo un tema de inmenso potencial e interés: ya sea para aplicaciones internas que aumentan la eficiencia de los empleados, o herramientas orientadas al cliente que minimizan las consultas de soporte, la adopción generalizada de la IA está teniendo ramificaciones significativas en el campo de la ciberseguridad, buenas y malas.

Request a free trial Lea el resumen de la solución

Desafíos que plantea la IA en la ciberseguridad

La capacidad de la IA para incorporar y generar una gran cantidad de datos rápidamente puede convertirla en un peligro significativo cuando se usa deliberadamente con fines maliciosos.

Estas siguientes amenazas impulsadas por la IA pueden dificultar la tarea de proteger una compañía.

LLM de phishing

La ingeniería social manipula a individuos u organizaciones para que revelen datos confidenciales o comprometan la seguridad explotando la confianza y el error humano. Técnicas como el phishing son fundamentales para esto, donde los atacantes se hacen pasar por fuentes legítimas para engañar a las víctimas y hacerles lo siguiente:

  • Hacer clic en enlaces dañinos
  • Compartir datos personales
  • Transferencia de fondos

Al crear una falsa sensación de confianza o urgencia, los atacantes pueden acceder a red, dispositivo y cuentas sin necesidad de violar las defensas técnicas, confiando en cambio en la facilidad de manipular el comportamiento humano.

Los modelos avanzados de IA como GPT-4 de OpenAI son capaces de generar emails de spear phishing altamente personalizados a escala, con un realismo asombroso y un costo mínimo. Esto combina la eficiencia del phishing masivo con la precisión de los ataques dirigidos y, como resultado, permite a los ciberdelincuentes implementar ataques personalizados que parecen auténticos. Por lo tanto, la tasa de aciertos de estos mensajes de phishing se vuelve mucho mayor, financiando más delitos cibernéticos.

El auge de los modelos generativos multimodales, que pueden interpretar y crear contenido en:

  • Texto
  • Imagen
  • Audio

Esto proporciona a los atacantes incluso más vías de ataque que el simple email. Estos modelos permiten a los atacantes generar contenido de phishing altamente personalizado mediante el análisis de las imágenes y las muestras de audio de los objetivos.

Por ejemplo, VALL-E de Microsoft puede clonar la voz de una persona a partir de una breve muestra de audio, lo que permite a los atacantes fabricar llamadas convincentes de phishing de voz (vishing) e imitar a los asociados. Esta convergencia de múltiples modalidades (texto, imagen y voz) amplía enormemente el alcance y el realismo de posibles ataques.

CAPTCHA

Las comprobaciones CAPTCHA suelen ser una forma de mantener alejados a los bots maliciosos y garantizar que solo los humanos interactúen con sus recursos en línea.

Sin embargo, la capacidad de la IA para aprender continuamente hizo que los investigadores creen un bot que es capaz de eludir reCAPTCHA v2.

Combinando un modelo de reconocimiento de objetos con una VPN (para disfrazar los intentos repetidos de una dirección IP), una herramienta de movimiento natural del mouse y datos falsos de cookies, su herramienta impulsada por IA fue capaz de simular comportamientos de navegación similares a los humanos. Como resultado, esta herramienta superó el 100% de todas las pruebas CAPTCHA.

El desarrollo interno de la IA aumenta el riesgo de seguridad

No es solo la IA en manos de los ciberatacantes de la que preocupar: los riesgos de seguridad de las herramientas de IA internas pueden ser significativos. Por ejemplo, las fugas de datos de entrenamiento presentan una vulnerabilidad significativa, como se vio cuando los investigadores de Microsoft expusieron involuntariamente alrededor de 38 terabytes de datos confidenciales en GitHub.

Este incidente se produjo porque las licencias de una dirección URL de Azure Storage para descargar modelos de IA concedieron por error acceso a toda la cuenta de almacenamiento. Los datos expuestos incluían información confidencial, como:

  • Copias de seguridad personales
  • Contraseñas de servicio
  • Claves secretas
  • Más de 30 000 mensajes internos de Microsoft Teams

Esto ilustra la gravedad potencial de la exposición accidental de datos en la investigación de IA, y por qué hay que tener cuidado.

Beneficios de la IA para la ciberseguridad

En las manos adecuadas, las herramientas impulsadas por IA son capaces de anular no solo las nuevas amenazas de IA, sino también algunas de las dificultades más tradicionales que han plagado a los equipos de seguridad durante años.

Capacidad para analizar grandes cantidades de datos

Las soluciones de gestión de eventos e información de seguridad (SIEM) centralizan la recopilación y el análisis de registros de todas las defensas de una organización. Al agregar datos, los SIEM ayudan a:

  • Identificar anomalías
  • Alertas de activación
  • Recopilar contexto adicional
  • Aislar los activos afectados

Esto permite a las organizaciones responder con rapidez y eficacia a posibles incidentes de seguridad.

El aprendizaje automático y el reconocimiento de patrones otorgan a los sistemas SIEM habilitados para IA el poder de analizar datos de seguridad históricos mucho más rápido que las revisiones manuales: aún mejor, todos estos datos individuales se pueden usar para crear una línea de base de comportamiento para cada usuario y dispositivo.

A diferencia de los SIEM tradicionales, que dependen de firmas de registro y criticidades predefinidas, los SIEM de IA detectan dinámicamente las amenazas comparando los eventos actuales con esta línea de base. Además, estos sistemas pueden analizar patrones anormales para establecer cualquier conexión con vectores de ataque conocidos, lo que permite emitir alertas altamente precisas y casi en tiempo real.

Detección de amenazas de phishing

El objetivo principal de un ataque de phishing es imitar de cerca un sitio web legítimo, ya que esta similitud ayuda a engañar a las víctimas para que crean que están en un sitio de confianza.

Esta imitación lleva a las víctimas a proporcionar, sin saberlo, información confidencial directamente a los atacantes, como:

  • Contraseñas
  • Detalles financieros

Cuanto más convincente parezca la página de phishing, mayores serán las posibilidades de manipular con éxito a la víctima para que realice acciones dañinas.

Los grandes modelos de lenguaje (LLM) multimodales que procesan texto e imágenes tienen un gran potencial para detectar el phishing basado en la marca. Con un amplio entrenamiento en diversas representaciones de marca, estos modelos analizan los elementos visuales y textuales de un sitio web para reconocer su asociación con la marca.

Esta capacidad permite a los LLM identificar inconsistencias en la presentación de la marca que podrían indicar un intento de phishing, lo que podría mejorar los métodos de detección automatizados de amenazas cibernéticas basadas en la marca.

Prevención de pérdida de datos

La importancia de cerciorar la forma en que esas herramientas de IA aplican sus datos de entrenamiento nunca fue más vital. Debido a que las indicaciones de IA y sus respuestas adoptan el formato de datos conversacionales no estructurados, es increíblemente difícil mantenerlos seguros con palabras clave, como emplean los métodos tradicionales de DLP .

La clasificación avanzada de datos basada en IA puede ayudar a salvaguardar la información confidencial al detectar y prevenir posibles fugas de datos asociadas con estas aplicaciones, cerciorando que se mantenga el control total sobre los flujos de datos de las plataformas.

Cómo Check Point garantiza la integración de IA de seguridad completa

Para entender la aplicación de GenAI en una organización, es crucial identificar y evaluar los riesgos que estas herramientas pueden plantear, especialmente en torno a la seguridad y el cumplimiento de los datos. Sopesar cuidadosamente los pros y los contras de la IA dentro de sus propios casos de uso es clave para determinar su idoneidad a largo plazo.

La seguridad GenAI de Check Point es capaz de mantener seguros todos los proyectos de IA de sus equipos al clasificar y cerciorar con precisión los datos conversacionales dentro de las indicaciones. Si ya estuvo creando un serial de herramientas, proporciona una visibilidad detallada de su aplicación GenAI y de todos los servicios conectados. Esto reduce el riesgo de TI en la sombra y ayuda a mantener por delante de las demandas regulatorias. Unir a nuestro programa de vista previa hoy mismo para explorar la expansión de sus herramientas de IA.

En cuanto a la aplicación de la IA en Check Pointdentro de las herramientas de ciberseguridad preexistentes, nuestra plataforma Infinity aprovecha la IA generativa para ofrecer prevención avanzada de amenazas, una respuesta automatizada y optimizada a las amenazas y una gestión de seguridad eficaz. Al combinar 50 motores de IA para cubrir toda la gama de inteligencia sobre amenazas, Check Point Infinity ofrece la mejor tasa de captura de cualquier solución de seguridad. Cuando se descubre un nuevo indicador de compromiso, el patrón se aplica rápidamente a toda la pila tecnológica en menos de 2 segundos, lo que garantiza:

  • Nubes
  • red de IoT
  • Todos los demás terminales, incluso de un ataque de día cero

Fundamentalmente, Check Point Infinity apoya la innovación en IA: cerciorando tanto la nueva aplicación como el soporte de los servicios complejos que ejecutan las organizaciones impulsadas por IA. Programe una demostración para ver cómo funciona.

x
  Comentarios
Este sitio web utiliza cookies para optimizar su funcionalidad y para fines de análisis y marketing. Al seguir usando este sitio web, usted acepta el uso de cookies. Para obtener más información, lea nuestro Aviso de cookies.