How Will AI Affect Cybersecurity?

L'intelligenza artificiale continua a essere un argomento di immenso potenziale e interesse: che si tratti di applicazioni interne che aumentano l'efficienza dei dipendenti o di strumenti rivolti ai clienti che riducono al minimo le richieste di supporto, l'adozione diffusa dell'IA sta avendo ramificazioni significative nel campo della sicurezza informatica, nel bene e nel male.

Request a free trial Vai alla descrizione della soluzione

Sfide poste dall'IA nella sicurezza informatica

La capacità dell'IA di incorporare e generare rapidamente una grande quantità di dati può renderli un pericolo significativo se utilizzati deliberatamente per scopi dannosi.

Queste seguenti minacce basate sull'IA possono rendere più difficile l'attività di protezione di un'azienda.

LLM di phishing

L'ingegneria sociale manipola individui o organizzazioni per farli rivelare dati sensibili o compromettere la sicurezza sfruttando la fiducia e l'errore umano. Tecniche come il phishing sono fondamentali per questo, in cui gli aggressori si spacciano per fonti legittime per indurre le vittime a:

  • Fare clic su link dannosi
  • Condivisione di dati personali
  • Trasferimento di fondi

Creando un falso senso di fiducia o urgenza, gli aggressori possono accedere alla rete, al dispositivo e agli account senza dover violare le difese tecniche, affidandosi invece alla facilità di manipolazione del comportamento umano.

I modelli IA avanzati come GPT-4 di OpenAI sono in grado di generare e-mail di phishing altamente personalizzate su larga scala, con un realismo incredibile e un costo minimo. Ciò combina l'efficienza del phishing di massa con la precisione degli attacchi mirati e, di conseguenza, consente ai criminali informatici di implementare attacchi personalizzati che sembrano autentici. Il tasso di successo di questi messaggi di phishing diventa quindi molto più alto, finanziando più criminalità informatica.

L'ascesa di modelli generativi multimodali, in grado di interpretare e creare contenuti attraverso:

  • Testo
  • Immagine
  • Audio

Ciò fornisce agli aggressori ancora più vie di attacco rispetto alla semplice posta elettronica. Questi modelli consentono agli aggressori di generare contenuti di phishing altamente personalizzati analizzando le immagini e i campioni audio degli obiettivi.

Ad esempio, VALL-E di Microsoft può clonare la voce di una persona da un breve campione audio, consentendo agli aggressori di fabbricare convincenti chiamate di phishing vocale (vishing) e imitare i collaboratori. Questa convergenza di più modalità – testo, immagine e voce – amplia notevolmente la portata e il realismo dei potenziali attacchi.

CAPTCHA

I controlli CAPTCHA sono stati in genere un modo per tenere lontani i bot dannosi e garantire che solo gli esseri umani interagiscano con le tue risorse online.

Ma la capacità di IA di apprendere continuamente ha visto i ricercatori creare un bot in grado di bypassare reCAPTCHA v2.

Combinando un modello di riconoscimento degli oggetti con una VPN (per mascherare i tentativi ripetuti da un indirizzo IP), uno strumento di movimento naturale del mouse e dati falsi dei cookie, il loro strumento basato su IA è stato in grado di simulare comportamenti di navigazione simili a quelli umani. Di conseguenza, questo strumento ha superato il 100% di tutti i test CAPTCHA.

Lo sviluppo interno dell'IA aumenta i rischi per la sicurezza

Non è solo l'IA nelle mani degli aggressori informatici a preoccuparsi: i rischi per la sicurezza degli strumenti di IA interni possono essere significativi. Ad esempio, le fughe di dati di addestramento presentano una vulnerabilità significativa, come si è visto quando i ricercatori Microsoft hanno esposto involontariamente circa 38 terabyte di dati sensibili su GitHub.

Questo evento imprevisto si è verificato perché le autorizzazioni per un di Azure archiviazione URL per il download dei modelli di intelligenza artificiale hanno concesso erroneamente l'accesso all'intero account di archiviazione. I dati esposti includevano informazioni sensibili, quali:

  • Backup personali
  • Password del servizio
  • Chiavi segrete
  • 30.000+ messaggi interni di Microsoft Teams

Questo illustra la potenziale gravità dell'esposizione accidentale ai dati nella ricerca sull'IA e il motivo per cui è necessario prestare attenzione.

I vantaggi dell'IA per la sicurezza informatica

Nelle mani giuste, gli strumenti basati sull'IA sono in grado di annullare non solo le nuove minacce IA, ma anche alcune delle difficoltà più tradizionali che hanno afflitto i team di sicurezza per anni.

Capacità di analizzare grandi quantità di dati

Le soluzioni SIEM (Security Information and Event Management ) centralizzano la raccolta e l'analisi dei log da tutte le difese di un'organizzazione. aggregando i dati, i SIEM aiutano a:

  • Identificare le anomalie
  • Attiva avvisi
  • Raccogli ulteriore contesto
  • Isolare le risorse interessate

Ciò consente alle organizzazioni di rispondere in modo rapido ed efficace a potenziali incidenti di sicurezza.

L'apprendimento automatico e il riconoscimento dei modelli offrono ai sistemi SIEM abilitati all'IA la possibilità di analizzare i dati storici di sicurezza molto più velocemente di quanto possano fare le revisioni manuali: ancora meglio, tutti questi dati individuali possono essere utilizzati per costruire una base comportamentale per ogni utente e dispositivo.

A differenza dei SIEM tradizionali, che dipendono dalle firme dei log e dalle criticità predefinite, i SIEM IA rilevano dinamicamente le minacce confrontando gli eventi correnti con questa linea di base. Inoltre, questi sistemi possono analizzare modelli anomali per stabilire qualsiasi connessione con vettori di attacco noti, consentendo avvisi altamente accurati e quasi in tempo reale.

Rilevamento delle minacce di phishing

L'obiettivo principale di un attacco di phishing è imitare da vicino un sito Web legittimo, poiché questa somiglianza aiuta a indurre le vittime a credere di essere su un sito affidabile.

Questa imitazione porta le vittime a fornire inconsapevolmente informazioni sensibili direttamente agli aggressori, come ad esempio:

  • Password
  • Dettagli finanziari

Più la pagina di phishing appare convincente, maggiori sono le possibilità di manipolare con successo la vittima affinché intraprenda azioni dannose.

I modelli linguistici multimodali di grandi dimensioni (LLM) che elaborano sia testo che immagini hanno un grande potenziale per rilevare il phishing basato sul marchio. Con una formazione approfondita su varie rappresentazioni del marchio, questi modelli analizzano gli elementi visivi e testuali di una pagina Web per riconoscerne l'associazione con il marchio.

Questa capacità consente agli LLM di identificare le incongruenze nella presentazione del marchio che potrebbero indicare un tentativo di phishing, migliorando potenzialmente i metodi di rilevamento automatizzato per le minacce informatiche basate sul marchio.

Data Loss Prevention

L'importanza di garantire il modo in cui questi strumenti di IA applicano i loro dati di addestramento non è mai stata così vitale. Poiché i prompt di IA e le relative risposte hanno il formato di dati conversazionali non strutturati, è incredibilmente difficile proteggerli con le parole chiave, come utilizzano i metodi DLP tradizionali.

La classificazione avanzata dei dati basata su IA può aiutare a salvaguardare le informazioni sensibili rilevando e prevenendo potenziali fughe di dati associate a queste applicazioni, garantendo il pieno controllo sui flussi di dati delle piattaforme.

Come garantisce Check Point 'integrazione IA a sicurezza completa

Per comprendere l'applicazione GenAI in un'organizzazione, è fondamentale identificare e valutare i rischi che questi strumenti possono comportare, in particolare per quanto riguarda la sicurezza dei dati e la conformità. Valutare attentamente i pro e i contro dell'IA all'interno dei propri casi d'uso è la chiave per determinarne l'idoneità a lungo termine.

Check Point sicurezza GenAI di è in grado di proteggere tutti i progetti IA dei tuoi team classificando e proteggendo accuratamente i dati conversazionali all'interno dei prompt. Se hai già creato una serie di strumenti, fornisce una visibilità approfondita sulla tua applicazione GenAI e su tutti i servizi connessi. Ciò riduce il rischio dello shadow IT e aiuta a stare ulteriormente al passo con i requisiti normativi. Unisciti oggi stesso al nostro programma di anteprima per esplorare la proliferazione dei tuoi utensili IA.

Per quanto riguarda l'applicazione dell'IA da parte di Check Pointall'interno di strumenti di sicurezza informatica preesistenti, la nostra piattaforma Infinity sfrutta l'IA generativa per fornire threat preventionavanzate, una risposta automatizzata semplificata alle minacce e una gestione efficace della sicurezza. Combinando 50 motori IA per coprire l'intera gamma di threat intelligence, Check Point Infinity offre il miglior tasso di cattura di qualsiasi soluzione di sicurezza. Quando viene rilevato un nuovo indicatore di compromissione, il modello viene applicato rapidamente all'intero stack tecnologico in meno di 2 secondi, assicurando:

  • Nuvole
  • rete IoT
  • Tutti gli altri endpoint anche dall'attacco zero-day

Fondamentalmente, Check Point Infinity supporta l'innovazione dell'IA: proteggendo sia le nuove applicazioni che supportando i servizi complessi su cui girano le organizzazioni basate sull'IA. Pianifica una demo per vedere come funziona.

×
  Feedback
Questo sito web utilizza cookies per la sua funzionalità e per scopi di analisi e marketing. Continuando a utilizzare questo sito Web, accetti l'utilizzo dei cookies. Per ulteriori informazioni, leggere la nostra Informativa sui cookie.
OK