Le sfide della sicurezza Zero Trust IA
Molte organizzazioni stanno lavorando per implementare il framework di sicurezza zero trust per gestire i rischi di sicurezza informatica aziendale. Tuttavia, l’emergere dell’IA generativa (GenAI) crea sfide significative per questa pratica, tra cui:
- Confini labili: i modelli di sicurezza Zero Trust si basano tradizionalmente su una chiara distinzione tra utenti e applicazione. Tuttavia, l'applicazione integrata LLM interrompe questa distinzione, funzionando contemporaneamente come entrambe.
- Agenti potenti e ingenui: questi "agenti IA" possono essere visti come entità intelligenti ma ingenue all'interno di un'organizzazione. Sono in grado di eseguire interazioni sofisticate e generare contenuti basati su una vasta conoscenza, ma spesso mancano di comprensione delle norme aziendali e delle politiche di sicurezza.
- GenAI debolezza: deployment di queste nuove entità utente/applicazione, di cui non ci si può fidare ciecamente, pone diverse sfide uniche alla sicurezza, come l'iniezione tempestiva e l'avvelenamento dei dati.
- Perdite di dati IA: l’uso non autorizzato di GenAI crea rischi di accesso e dati, come perdita di dati, accesso rischioso alle risorse online e accesso alle risorse aziendali per conto di utenti non autorizzati.
- Esposizione di dati sensibili: gli utenti possono inserire dati sensibili aziendali o dei clienti in IA applicazione, dove potrebbero essere utilizzati come dati di formazione per LLM ed esposti ad altri utenti.
- Iniezione immediata: Gli input appositamente predisposti possono causare un comportamento anomalo di un LLM, con conseguenti azioni che eludono i guardrail del sistema e mettono a rischio l'azienda e i suoi dati.
Gli LLM in una prospettiva zero-trust
Per affrontare queste sfide deployment LLM, è fondamentale un insieme unico di misurazioni Zero Trust:
- È fondamentale convalidare, monitorare e applicare attentamente l'input, l'output, i dati di formazione e i tentativi di accesso da parte dell'applicazione integrata LLM. Per mitigare i rischi associati all'applicazione integrata LLM, le organizzazioni devono avere visibilità su qualsiasi tentativo di iniezione e avvelenamento, inclusione involontaria di dati sensibili nella formazione e accesso non autorizzato.
- In un'ottica zero-trust, non ci si può fidare ciecamente di queste entità dinamiche, autonome e creative di recente introduzione all'interno delle organizzazioni. Ciò richiede un nuovo approccio alla sicurezza durante l'implementazione.
- La natura imprevedibile degli LLM, la conoscenza espansiva e la suscettibilità alla manipolazione richiedono un quadro di accesso IA rivisto e basato su zero trust. Ciò consentirà ai professionisti della sicurezza di garantire una solida protezione dei dati, sicurezza e accesso conformi alle politiche aziendali.
Lista di controllo IA Zero Trust
Tenendo presente un approccio ZTAI (Zero Trust IA access), è fondamentale considerare l'applicazione integrata LLM come entità che necessitano di policy di controllo degli accessi rigorose, addirittura più rigorose rispetto al dipendente medio. Non possiamo fidarci del processo decisionale di LLM su quali contenuti recuperare e a quali siti web accedere. Di conseguenza, non possiamo fidarci dei dati che vengono recuperati e presentati all'utente, che devono essere sottoposti a diligenti misure di sicurezza.
Checklist di sicurezza per l'accesso ad Internet dell'applicazione integrata LLM
L'accesso a Internet aumenta notevolmente i rischi per la sicurezza associati all'applicazione integrata LLM. Alcune best practice per la gestione di questi rischi includono:
- Nega l'accesso quando possibile: A meno che non si tratti di una necessità assoluta, non fornire al modello l'accesso a Internet, poiché aumenta notevolmente la superficie di attacco.
- Implementare i controlli di accesso: Quando si aumenta l'LLM con l'accesso a Internet, assicurarsi che siano in atto politiche di controllo degli accessi rigorose, in linea con le politiche organizzative. Non esternalizzare le policy di controllo degli accessi correnti a fornitori esterni e applicarle ai nuovi utenti.
- Blocca siti Web con restrizioni: implementa il filtro URL e la protezione phishing per la tua applicazione basata su LLM per impedire loro di accedere a siti Web con restrizioni.
- Controllare rigorosamente i dati accessibili: Limita le destinazioni a cui l'agente può accedere e i dati che può recuperare, in base al caso d'uso. Le limitazioni devono includere contenuti, tipi di file e categorie di siti Web appropriati.
- Eseguire la convalida dei dati: Convalida continuamente i dati recuperati e presentati all'utente dall'LLM. Non fidarti del LLM per fornire solo dati non dannosi in quanto potrebbe essere soggetto ad allucinazioni o contenere dati di addestramento avvelenati.
Un framework di accesso IA zero-trust non si fida del comportamento o del processo decisionale dell'applicazione integrata LLM quando si accede alle risorse aziendali. Ciò include quali risorse e quando si accede, quali dati vengono esportati a quale utente e quali azioni possono essere eseguite utilizzando queste risorse.
Checklist di sicurezza per l'accesso dell'applicazione integrata LLM alle risorse aziendali
Come fornire l'accesso a Internet, consentire all'applicazione integrata LLM di accedere alle risorse aziendali può essere necessario ma può anche essere pericoloso. Le best practice di sicurezza per la gestione di questi rischi includono:
- Limita l'uso di privilegi elevati: limita i privilegi dell'applicazione integrata LLM, in particolare per operazioni ad alto rischio, come la modifica e l'eliminazione dei dati aziendali.
- Implementa il privilegio minimo: Limita le risorse aziendali a cui il tuo LLM può accedere al minimo assoluto.
- Richiedi la riautenticazione e i timeout dell'account: Prima che l'agente esegua qualsiasi operazione utilizzando le risorse aziendali, richiedere all'utente di eseguire nuovamente l'autenticazione e limitare il tempo della sessione.
- Eseguire analisi comportamentali: monitorare il comportamento e il processo decisionale dell'applicazione integrata LLM. I fattori da tenere d'occhio includono le risorse a cui si accede, i dati esportati per l'utente e le operazioni eseguite utilizzando le risorse aziendali.
- Mantieni la visibilità in tempo reale: Assicurati di avere una visibilità chiara, dettagliata e in tempo reale sulle risorse online o aziendali a cui un agente accede e sulle operazioni eseguite.
- Tieni traccia del comportamento anomalo: Implementare un sistema per rilevare modelli comportamentali anomali da parte dell'LLM, come l'accesso imprevisto ai dati o la deviazione dalle risposte tipiche o dai modelli di accesso.
- Implementare i controlli degli accessi basati sui ruoli: Implementare una policy di controllo degli accessi dinamica basata sull'utente per l'agente, il che significa che l'LLM eredita gli stessi diritti di accesso dell'utente finale in ogni sessione.
- Riduci al minimo la comunicazione tra LLM: Il danno può essere esponenziale quando un LLM può interagire con un altro LLM. Assicurati di limitare al minimo assoluto la comunicazione dell'applicazione basata su LLM.