How Will AI Affect Cybersecurity?

L'intelligence artificielle continue d'être un sujet au potentiel et à l'intérêt immenses : qu'il s'agisse d'applications internes stimulant l'efficacité des employés ou d'outils destinés aux clients qui minimisent les demandes d'assistance, l'adoption généralisée de l'IA a des ramifications significatives dans le domaine de la cybersécurité - bonnes et mauvaises.

Request a free trial Lire la présentation de la solution

Les défis posés par l'IA en matière de cybersécurité

La capacité de l'IA à intégrer et à générer rapidement un grand nombre de données peut constituer un danger important lorsqu'elle est délibérément utilisée à des fins malveillantes.

Ces menaces suivantes, basées sur l'IA, peuvent rendre la tâche de sécurisation d'une entreprise plus difficile.

LLM sur l'hameçonnage

L'ingénierie sociale manipule les individus ou les organisations pour qu'ils révèlent des données sensibles ou compromettent la sécurité en exploitant la confiance et l'erreur humaine. Des techniques telles que le hameçonnage sont essentielles à cet égard, les attaquants se faisant passer pour des sources légitimes afin de tromper les victimes :

  • Cliquer sur des liens nuisibles
  • Partage de données personnelles
  • Transfert de fonds

En créant un faux sentiment de confiance ou d'urgence, les attaquants peuvent accéder au réseau, à l'appareil et aux comptes sans avoir besoin d'enfreindre les défenses techniques, en s'appuyant plutôt sur la facilité de manipulation du comportement humain.

Des modèles IA avancés comme le GPT-4 d'OpenAI sont capables de générer des courriels de hameçonnage hautement personnalisés à grande échelle, avec un réalisme incroyable et un coût minimal. Cela permet de combiner l'efficacité d'un hameçonnage de masse avec la précision d'attaques ciblées et, par conséquent, permet aux cybercriminels de déployer des attaques personnalisées qui semblent authentiques. Le taux de réussite de ces messages d'hameçonnage est donc beaucoup plus élevé, ce qui permet de financer davantage de cybercriminalité.

L'essor des modèles génératifs multimodaux, capables d'interpréter et de créer du contenu dans tous les domaines :

  • Texte
  • Image
  • Audio

Les attaquants disposent ainsi de moyens d'attaque encore plus nombreux que le simple courrier électronique. Ces modèles permettent aux attaquants de générer un contenu de hameçonnage hautement personnalisé en analysant les images et les échantillons audio des cibles.

Par exemple, VALL-E de Microsoft peut cloner la voix d'une personne à partir d'un bref échantillon audio, ce qui permet aux pirates de fabriquer des appels d'hameçonnage vocal (vishing) convaincants et d'imiter des associés. Cette convergence de modalités multiples - texte, image et voix - élargit considérablement la portée et le réalisme des attaques potentielles.

CAPTCHA

Les contrôles CAPTCHA sont généralement un moyen d'empêcher les robots malveillants d'entrer et de s'assurer que seuls des humains interagissent avec vos ressources en ligne.

Mais la capacité de l'IA à apprendre en permanence a permis à des chercheurs de créer un robot capable de contourner reCAPTCHA v2.

En combinant un modèle de reconnaissance d'objets avec un RVP (pour masquer les tentatives répétées à partir d'une même adresse IP), un outil de mouvement naturel de la souris et de fausses données de cookies, leur outil alimenté par l'IA a pu simuler des comportements de navigation semblables à ceux de l'homme. En conséquence, cet outil a battu 100 % de tous les tests CAPTCHA.

Le développement interne de l'IA accroît le risque de sécurité

Il n'y a pas que l'IA entre les mains des cyberattaquants qui doit nous préoccuper : les risques de sécurité des outils d'IA internes peuvent être importants. Par exemple, les fuites de données de formation présentent une vulnérabilité importante, comme on l'a vu lorsque des chercheurs de Microsoft ont involontairement exposé environ 38 téraoctets de données sensibles sur GitHub.

Cet incident s'est produit parce que les autorisations sur une URL de stockage Azure pour le téléchargement de modèles d'IA ont accordé par erreur l'accès à l'ensemble du compte de stockage. Les données exposées comprenaient des informations sensibles, telles que

  • Sauvegardes personnelles
  • Mots de passe de service
  • Clés secrètes
  • Plus de 30 000 messages internes dans Microsoft Teams

Cela illustre la gravité potentielle d'une exposition accidentelle de données dans le cadre de la recherche sur l'IA - et la raison pour laquelle vous devez être prudent.

Les avantages de l'IA pour la cybersécurité

Entre de bonnes mains, les outils pilotés par l'IA sont capables de neutraliser non seulement les nouvelles menaces liées à l'IA, mais aussi certaines des difficultés plus traditionnelles qui ont tourmenté les équipes de sécurité pendant des années.

Capacité à analyser un grand nombre de données

Les solutions de gestion de l'information et des événements de sécurité (SIEM) centralisent la collecte et l'analyse des journaux provenant de l'ensemble des défenses d'une organisation. l'agrégation des données, les SIEM sont d'une aide précieuse :

  • Identifier les anomalies
  • Déclencher des alertes
  • Recueillir des éléments de contexte supplémentaires
  • Isoler les biens affectés

Cela permet aux organisations de répondre rapidement et efficacement aux incidents de sécurité potentiels.

L'apprentissage machine et la reconnaissance des formes permettent aux systèmes SIEM (Gestion de l'information et des événements de sécurité) compatibles avec l'IA d'analyser les données historiques de sécurité bien plus rapidement que ne le feraient des examens manuels : mieux encore, toutes ces données individuelles peuvent ensuite être utilisées pour établir une base comportementale pour chaque utilisateur et chaque appareil.

Contrairement aux SIEM traditionnels, qui dépendent des signatures de journaux et de criticités prédéfinies, les SIEM IA détectent dynamiquement les menaces en comparant les événements actuels à cette base de référence. En outre, ces systèmes peuvent ensuite analyser les schémas anormaux afin d'établir tout lien avec des vecteurs d'attaque connus, ce qui permet de lancer des alertes très précises, quasiment en temps réel.

Détection des menaces d'hameçonnage

L'objectif premier d'une attaque par hameçonnage est d'imiter fidèlement un site web légitime, car cette similitude permet de tromper les victimes en leur faisant croire qu'elles se trouvent sur un site de confiance.

Cette imitation conduit les victimes à fournir sans le savoir des informations sensibles directement aux attaquants, telles que

  • Mots de passe
  • Données financières

Plus la page d'hameçonnage semble convaincante, plus les chances de manipuler la victime et de l'amener à prendre des mesures préjudiciables sont élevées.

Les grands modèles de langage multimodaux (LLM) qui traitent à la fois le texte et les images présentent un grand potentiel pour la détection de l'hameçonnage basé sur la marque. Grâce à une formation approfondie sur les différentes représentations de marque, ces modèles analysent les éléments visuels et textuels d'une page web afin de reconnaître l'association avec la marque.

Cette capacité permet aux LLM d'identifier les incohérences dans la présentation de la marque qui pourraient indiquer une tentative d'hameçonnage, ce qui pourrait améliorer les méthodes de détection automatique des cybermenaces basées sur la marque.

Prévention des pertes de données

Il n'a jamais été aussi important de sécuriser la manière dont ces outils d'IA appliquent leurs données d'entraînement. Étant donné que les messages d'IA et leurs réponses prennent la forme de données conversationnelles non structurées, il est extrêmement difficile de les sécuriser à l'aide de mots-clés, comme le font les méthodes DLP traditionnelles.

La classification avancée des données basée sur l'IA peut aider à protéger les informations sensibles en détectant et en prévenant les fuites de données potentielles associées à ces applications, garantissant ainsi le maintien d'un contrôle total sur les flux de données des plates-formes.

Comment Check Point assure l'intégration de l'IA en toute sécurité

Pour comprendre l'application de la GenAI dans une organisation, il est essentiel d'identifier et d'évaluer les risques que ces outils peuvent poser, en particulier en ce qui concerne la sécurité des données et la conformité. Il est essentiel de peser soigneusement le pour et le contre de l'IA dans vos propres cas d'utilisation pour déterminer sa pertinence à long terme.

La sécurité GenAI de Check Point est capable de sécuriser tous les projets d'IA de vos équipes en classant et en sécurisant avec précision les données conversationnelles au sein des invites. Si vous avez déjà construit un certain nombre d'outils, il offre une visibilité approfondie de votre application GenAI et de tous les services connectés. Cela permet de réduire le risque d'une informatique fantôme et de rester en avance sur les exigences réglementaires. Rejoignez dès aujourd'hui notre programme de prévisualisation pour explorer l'étendue de vos outils d'IA.

En ce qui concerne Check Point's application de l'IA au sein des outils de cybersécurité préexistants, notre plateforme Infinity exploite l'IA générative pour offrir une prévention avancée des menaces, une réponse automatisée et rationalisée aux menaces, et une gestion efficace de la sécurité. En combinant 50 moteurs IA pour couvrir l'ensemble des renseignements sur les menaces, Check Point Infinity offre le meilleur taux de capture de toutes les solutions de sécurité. Lorsqu'un nouvel indicateur de compromission est découvert, le modèle est rapidement appliqué à l'ensemble de la pile technologique en moins de 2 secondes, en toute sécurité :

  • Nuages
  • Réseau IdO
  • Tous les autres postes, même en cas d'attaque de type "zero-day".

Fondamentalement, Check Point Infinity soutient l'innovation dans le domaine de l'IA : en sécurisant les nouvelles applications et en prenant en charge les services complexes sur lesquels fonctionnent les organisations alimentées par l'IA. Planifiez une démo pour voir comment cela fonctionne.

×
  Commentaires
Ce site web utilise des cookies pour sa fonctionnalité et à des fins d'analyse et de marketing. En continuant à utiliser ce site web, vous acceptez l'utilisation de cookies. Pour plus d'informations, veuillez lire notre avis sur les cookies.
OK