How Will AI Affect Cybersecurity?

A Inteligência Artificial continua a ser um tópico de imenso potencial e interesse: seja para aplicativos internos que aumentam a eficiência dos funcionários ou para ferramentas voltadas para o cliente que minimizam as consultas de suporte, a adoção generalizada da IA está tendo ramificações significativas no campo da segurança cibernética - boas e ruins.

Request a free trial Leia o resumo da solução

Desafios impostos pela IA na segurança cibernética

A capacidade da IA de incorporar e gerar uma grande quantidade de dados rapidamente pode torná-la um risco significativo quando usada deliberadamente para fins maliciosos.

As seguintes ameaças orientadas por IA podem dificultar a tarefa de proteger uma empresa.

LLMs sobre phishing

A engenharia social manipula indivíduos ou organizações para revelar dados confidenciais ou comprometer a segurança, explorando a confiança e o erro humano. Técnicas como phishing são fundamentais para isso, em que os invasores se fazem passar por fontes legítimas para enganar as vítimas:

  • Clicando em links nocivos
  • Compartilhamento de detalhes pessoais
  • Transferindo fundos

Ao criar um falso senso de confiança ou urgência, os invasores podem acessar redes, dispositivos e contas sem a necessidade de violar as defesas técnicas, contando com a facilidade de manipular o comportamento humano.

Modelos avançados de IA, como o GPT-4 da OpenAI, são capazes de gerar e-mails de spear phishing altamente personalizados em escala, com incrível realismo e custo mínimo. Isso combina a eficiência do phishing em massa com a precisão dos ataques direcionados e, como resultado, permite que os criminosos cibernéticos implementem ataques personalizados que parecem autênticos. A taxa de acerto dessas mensagens de phishing, portanto, torna-se muito maior, financiando mais crimes cibernéticos.

O surgimento de modelos generativos multimodais, que podem interpretar e criar conteúdo em:

  • Texto
  • Imagem
  • Áudio

Isso fornece aos atacantes ainda mais vias de ataque do que apenas o e-mail. Esses modelos permitem que os atacantes gerem conteúdo de phishing altamente personalizado, analisando imagens e amostras de áudio dos alvos.

Por exemplo, o VALL-E da Microsoft pode clonar a voz de uma pessoa a partir de uma breve amostra de áudio, permitindo que os invasores fabriquem chamadas convincentes de phishing de voz (vishing) e imitem associados. Essa convergência de várias modalidades — texto, imagem e voz — expande muito o escopo e o realismo de possíveis ataques.

CAPTCHA

As verificações de CAPTCHA geralmente são uma forma de afastar bots ruins e garantir que apenas humanos interajam com seus recursos on-line.

No entanto, a capacidade da IA de aprender continuamente fez com que os pesquisadores criassem um bot capaz de contornar o reCAPTCHA v2.

Combinando um modelo de reconhecimento de objetos com uma VPN (para disfarçar tentativas repetidas de um endereço IP), uma ferramenta de movimento natural do mouse e dados de cookies falsos, a ferramenta com tecnologia de IA foi capaz de simular comportamentos de navegação semelhantes aos humanos. Como resultado, essa ferramenta superou 100% de todos os testes CAPTCHA.

Desenvolvimento interno de IA aumenta o risco de segurança

Não é apenas com a IA nas mãos de ciberatacantes que devemos nos preocupar: os riscos de segurança das ferramentas internas de IA podem ser significativos. Por exemplo, os vazamentos de dados de treinamento representam uma vulnerabilidade significativa, como visto quando os pesquisadores da Microsoft expuseram involuntariamente cerca de 38 terabytes de dados confidenciais no GitHub.

Esse incidente ocorreu porque as permissões em uma URL de armazenamento do Azure para download de modelos de IA concederam, por engano, acesso a toda a conta de armazenamento. Os dados expostos incluíram informações confidenciais, como:

  • Backups pessoais
  • Senhas de serviço
  • Chaves secretas
  • Mais de 30.000 mensagens internas do Microsoft Teams

Isso ilustra a possível gravidade da exposição acidental de dados na pesquisa de IA e por que o senhor deve ser cuidadoso.

Benefícios da IA para a segurança cibernética

Nas mãos certas, as ferramentas orientadas por IA são capazes de negar não apenas as novas ameaças de IA, mas também algumas das dificuldades mais tradicionais que têm atormentado as equipes de segurança há anos.

Capacidade de analisar muitos dados

As soluções de gerenciamento de eventos e informações de segurança (SIEM) centralizam a coleta e a análise de registros de todas as defesas de uma organização. agregando dados, os SIEMs ajudam:

  • Identifique anomalias
  • Acione alertas
  • Reúna contexto adicional
  • Isole os ativos afetados

Isso permite que as organizações respondam de forma rápida e eficaz a possíveis incidentes de segurança.

O aprendizado de máquina (machine learning, ML) e o reconhecimento de padrões dão aos sistemas SIEM habilitados para IA a capacidade de analisar dados históricos de segurança muito mais rapidamente do que as revisões manuais: melhor ainda, todos esses dados individuais podem ser usados para criar uma linha de base comportamental para cada usuário e dispositivo.

Diferentemente dos SIEMs tradicionais, que dependem de assinaturas de log e de pontos críticos predefinidos, os SIEMs com IA detectam ameaças dinamicamente comparando os eventos atuais com essa linha de base. Além disso, esses sistemas podem analisar padrões anormais para estabelecer qualquer conexão com vetores de ataque conhecidos, permitindo alertas altamente precisos e quase em tempo real.

Detecção de ameaças de phishing

O principal objetivo de um ataque de phishing é imitar de perto um site legítimo, pois essa semelhança ajuda a enganar as vítimas, fazendo-as acreditar que estão em um site confiável.

Essa imitação leva as vítimas a, sem saber, fornecer informações confidenciais diretamente aos atacantes, como:

  • Senhas
  • Detalhes financeiros

Quanto mais convincente a página de phishing parecer, maiores serão as chances de manipular com sucesso a vítima para que ela tome medidas prejudiciais.

Os modelos multimodais de linguagem ampla (LLMs) que processam texto e imagens têm grande potencial para detectar phishing baseado em marcas. Com amplo treinamento em várias representações de marca, esses modelos analisam os elementos visuais e textuais de uma página da web para reconhecer sua associação à marca.

Esse recurso permite que os LLMs identifiquem inconsistências na apresentação da marca que possam indicar uma tentativa de phishing, melhorando potencialmente os métodos de detecção automatizada de ameaças cibernéticas baseadas na marca.

Prevenção contra perda de dados

A importância de proteger como essas ferramentas de IA aplicam seus dados de treinamento nunca foi tão vital. Como os prompts de IA e suas respostas assumem o formato de dados conversacionais e não estruturados, é incrivelmente difícil mantê-los seguros com palavras-chave, como os métodos tradicionais de DLP usam.

A classificação avançada de dados baseada em IA pode ajudar a proteger informações confidenciais, detectando e evitando possíveis vazamentos de dados associados a esses aplicativos, garantindo que o controle total sobre os fluxos de dados das plataformas seja mantido.

Como a Check Point garante a integração de IA com segurança total

Para entender o aplicativo GenAI em uma organização, é fundamental identificar e avaliar os riscos que essas ferramentas podem representar, especialmente em relação à segurança de dados e à conformidade. Avaliar cuidadosamente os prós e os contras da IA em seus próprios casos de uso é fundamental para determinar sua adequação a longo prazo.

A segurança GenAI da Check Point é capaz de manter todos os projetos de IA de suas equipes seguros, classificando e protegendo com precisão os dados de conversação dentro dos prompts. Se o senhor já estiver criando várias ferramentas, ele oferece visibilidade detalhada do seu aplicativo GenAI e de todos os serviços conectados. Isso reduz o risco da TI paralela e ajuda a se manter à frente das demandas regulatórias. Participe do nosso Preview Program hoje mesmo para explorar a expansão de suas ferramentas de IA.

Quanto ao aplicativo de IA da Check Pointem ferramentas de segurança cibernética pré-existentes, nossa plataforma Infinity aproveita a IA generativa para oferecer prevenção avançada de ameaças, resposta automatizada e simplificada a ameaças e gerenciamento eficaz da segurança. Ao combinar 50 mecanismos de IA para cobrir toda a amplitude da inteligência de ameaça, oCheck Point Infinity oferece a melhor taxa de captura de qualquer solução de segurança. Quando qualquer novo indicador de comprometimento é descoberto, o padrão é rapidamente aplicado a todo o conjunto de tecnologias em menos de 2 segundos, garantindo:

  • Nuvens
  • rede IoT
  • Todos os outros endpoints até mesmo de ataques de dia zero

Fundamentalmente, o Check Point Infinity dá suporte à inovação da AI: protegendo tanto os aplicativos recém-descobertos quanto os serviços complexos nos quais as organizações baseadas em AI são executadas. Agende um demo para ver como funciona.

×
  Opinião
Este site usa cookies para sua funcionalidade e para fins de análise e marketing. Ao continuar a usar este site, o senhor concorda com o uso de cookies. Para obter mais informações, leia nosso Aviso de cookies.
OK