L'intelligenza artificiale continua a essere un argomento di immenso potenziale e interesse: che si tratti di applicazioni interne che aumentano l'efficienza dei dipendenti o di strumenti rivolti ai clienti che riducono al minimo le richieste di supporto, l'adozione diffusa dell'IA sta avendo ramificazioni significative nel campo della sicurezza informatica, nel bene e nel male.
La capacità dell'IA di incorporare e generare rapidamente una grande quantità di dati può renderli un pericolo significativo se utilizzati deliberatamente per scopi dannosi.
Queste seguenti minacce basate sull'IA possono rendere più difficile l'attività di protezione di un'azienda.
L'ingegneria sociale manipola individui o organizzazioni per farli rivelare dati sensibili o compromettere la sicurezza sfruttando la fiducia e l'errore umano. Tecniche come il phishing sono fondamentali per questo, in cui gli aggressori si spacciano per fonti legittime per indurre le vittime a:
Creando un falso senso di fiducia o urgenza, gli aggressori possono accedere alla rete, al dispositivo e agli account senza dover violare le difese tecniche, affidandosi invece alla facilità di manipolazione del comportamento umano.
I modelli IA avanzati come GPT-4 di OpenAI sono in grado di generare e-mail di phishing altamente personalizzate su larga scala, con un realismo incredibile e un costo minimo. Ciò combina l'efficienza del phishing di massa con la precisione degli attacchi mirati e, di conseguenza, consente ai criminali informatici di implementare attacchi personalizzati che sembrano autentici. Il tasso di successo di questi messaggi di phishing diventa quindi molto più alto, finanziando più criminalità informatica.
L'ascesa di modelli generativi multimodali, in grado di interpretare e creare contenuti attraverso:
Ciò fornisce agli aggressori ancora più vie di attacco rispetto alla semplice posta elettronica. Questi modelli consentono agli aggressori di generare contenuti di phishing altamente personalizzati analizzando le immagini e i campioni audio degli obiettivi.
Ad esempio, VALL-E di Microsoft può clonare la voce di una persona da un breve campione audio, consentendo agli aggressori di fabbricare convincenti chiamate di phishing vocale (vishing) e imitare i collaboratori. Questa convergenza di più modalità – testo, immagine e voce – amplia notevolmente la portata e il realismo dei potenziali attacchi.
I controlli CAPTCHA sono stati in genere un modo per tenere lontani i bot dannosi e garantire che solo gli esseri umani interagiscano con le tue risorse online.
Ma la capacità di IA di apprendere continuamente ha visto i ricercatori creare un bot in grado di bypassare reCAPTCHA v2.
Combinando un modello di riconoscimento degli oggetti con una VPN (per mascherare i tentativi ripetuti da un indirizzo IP), uno strumento di movimento naturale del mouse e dati falsi dei cookie, il loro strumento basato su IA è stato in grado di simulare comportamenti di navigazione simili a quelli umani. Di conseguenza, questo strumento ha superato il 100% di tutti i test CAPTCHA.
Non è solo l'IA nelle mani degli aggressori informatici a preoccuparsi: i rischi per la sicurezza degli strumenti di IA interni possono essere significativi. Ad esempio, le fughe di dati di addestramento presentano una vulnerabilità significativa, come si è visto quando i ricercatori Microsoft hanno esposto involontariamente circa 38 terabyte di dati sensibili su GitHub.
Questo evento imprevisto si è verificato perché le autorizzazioni per un di Azure archiviazione URL per il download dei modelli di intelligenza artificiale hanno concesso erroneamente l'accesso all'intero account di archiviazione. I dati esposti includevano informazioni sensibili, quali:
Questo illustra la potenziale gravità dell'esposizione accidentale ai dati nella ricerca sull'IA e il motivo per cui è necessario prestare attenzione.
Nelle mani giuste, gli strumenti basati sull'IA sono in grado di annullare non solo le nuove minacce IA, ma anche alcune delle difficoltà più tradizionali che hanno afflitto i team di sicurezza per anni.
Le soluzioni SIEM (Security Information and Event Management ) centralizzano la raccolta e l'analisi dei log da tutte le difese di un'organizzazione. aggregando i dati, i SIEM aiutano a:
Ciò consente alle organizzazioni di rispondere in modo rapido ed efficace a potenziali incidenti di sicurezza.
L'apprendimento automatico e il riconoscimento dei modelli offrono ai sistemi SIEM abilitati all'IA la possibilità di analizzare i dati storici di sicurezza molto più velocemente di quanto possano fare le revisioni manuali: ancora meglio, tutti questi dati individuali possono essere utilizzati per costruire una base comportamentale per ogni utente e dispositivo.
A differenza dei SIEM tradizionali, che dipendono dalle firme dei log e dalle criticità predefinite, i SIEM IA rilevano dinamicamente le minacce confrontando gli eventi correnti con questa linea di base. Inoltre, questi sistemi possono analizzare modelli anomali per stabilire qualsiasi connessione con vettori di attacco noti, consentendo avvisi altamente accurati e quasi in tempo reale.
L'obiettivo principale di un attacco di phishing è imitare da vicino un sito Web legittimo, poiché questa somiglianza aiuta a indurre le vittime a credere di essere su un sito affidabile.
Questa imitazione porta le vittime a fornire inconsapevolmente informazioni sensibili direttamente agli aggressori, come ad esempio:
Più la pagina di phishing appare convincente, maggiori sono le possibilità di manipolare con successo la vittima affinché intraprenda azioni dannose.
I modelli linguistici multimodali di grandi dimensioni (LLM) che elaborano sia testo che immagini hanno un grande potenziale per rilevare il phishing basato sul marchio. Con una formazione approfondita su varie rappresentazioni del marchio, questi modelli analizzano gli elementi visivi e testuali di una pagina Web per riconoscerne l'associazione con il marchio.
Questa capacità consente agli LLM di identificare le incongruenze nella presentazione del marchio che potrebbero indicare un tentativo di phishing, migliorando potenzialmente i metodi di rilevamento automatizzato per le minacce informatiche basate sul marchio.
L'importanza di garantire il modo in cui questi strumenti di IA applicano i loro dati di addestramento non è mai stata così vitale. Poiché i prompt di IA e le relative risposte hanno il formato di dati conversazionali non strutturati, è incredibilmente difficile proteggerli con le parole chiave, come utilizzano i metodi DLP tradizionali.
La classificazione avanzata dei dati basata su IA può aiutare a salvaguardare le informazioni sensibili rilevando e prevenendo potenziali fughe di dati associate a queste applicazioni, garantendo il pieno controllo sui flussi di dati delle piattaforme.
Per comprendere l'applicazione GenAI in un'organizzazione, è fondamentale identificare e valutare i rischi che questi strumenti possono comportare, in particolare per quanto riguarda la sicurezza dei dati e la conformità. Valutare attentamente i pro e i contro dell'IA all'interno dei propri casi d'uso è la chiave per determinarne l'idoneità a lungo termine.
Check Point sicurezza GenAI di è in grado di proteggere tutti i progetti IA dei tuoi team classificando e proteggendo accuratamente i dati conversazionali all'interno dei prompt. Se hai già creato una serie di strumenti, fornisce una visibilità approfondita sulla tua applicazione GenAI e su tutti i servizi connessi. Ciò riduce il rischio dello shadow IT e aiuta a stare ulteriormente al passo con i requisiti normativi. Unisciti oggi stesso al nostro programma di anteprima per esplorare la proliferazione dei tuoi utensili IA.
Per quanto riguarda l'applicazione dell'IA da parte di Check Pointall'interno di strumenti di sicurezza informatica preesistenti, la nostra piattaforma Infinity sfrutta l'IA generativa per fornire threat preventionavanzate, una risposta automatizzata semplificata alle minacce e una gestione efficace della sicurezza. Combinando 50 motori IA per coprire l'intera gamma di threat intelligence, Check Point Infinity offre il miglior tasso di cattura di qualsiasi soluzione di sicurezza. Quando viene rilevato un nuovo indicatore di compromissione, il modello viene applicato rapidamente all'intero stack tecnologico in meno di 2 secondi, assicurando:
Fondamentalmente, Check Point Infinity supporta l'innovazione dell'IA: proteggendo sia le nuove applicazioni che supportando i servizi complessi su cui girano le organizzazioni basate sull'IA. Pianifica una demo per vedere come funziona.