What is Zero Trust AI Access (ZTAI)?

La rapida maturazione dei modelli linguistici di grandi dimensioni (LLM) sta rivoluzionando il modo in cui interagiamo con la tecnologia. La maggior parte delle aziende è ancora in fase esplorativa di implementazione degli LLM e di identificazione di potenziali casi d'uso con particolare attenzione ai progetti pilota su piccola scala. Tuttavia, molti dipendenti hanno già adottato applicazioni IA generative non autorizzate direttamente (ChatGPT, Gemini, ecc.) o tramite estensioni di terze parti per applicazioni sanzionate.

I fornitori di Software as a Service (SaaS) stanno cercando di tenere il passo incorporando funzionalità IA nei loro servizi. Ciò consente ai clienti di sfruttare i vantaggi della tecnologia LLM fornendo approfondimenti sulle vendite basati su IA, assistenza nella progettazione IA e co-piloti di codifica. Tuttavia, questa adozione non gestita dell’IA introduce anche significativi rischi per la sicurezza, rendendo l’accesso all’IA zero-trust (ZTAI) una componente vitale di una strategia di sicurezza informatica IA aziendale.

Partecipa al programma di anteprima Ottenere il Rapporto Forrester Zero Trust Wave

Le sfide della sicurezza Zero Trust IA

Molte organizzazioni stanno lavorando per implementare il framework di sicurezza zero trust per gestire i rischi di sicurezza informatica aziendale. Tuttavia, l’emergere dell’IA generativa (GenAI) crea sfide significative per questa pratica, tra cui:

  • Confini labili: i modelli di sicurezza Zero Trust si basano tradizionalmente su una chiara distinzione tra utenti e applicazione. Tuttavia, l'applicazione integrata LLM interrompe questa distinzione, funzionando contemporaneamente come entrambe.
  • Agenti potenti e ingenui: questi "agenti IA" possono essere visti come entità intelligenti ma ingenue all'interno di un'organizzazione. Sono in grado di eseguire interazioni sofisticate e generare contenuti basati su una vasta conoscenza, ma spesso mancano di comprensione delle norme aziendali e delle politiche di sicurezza.
  • GenAI debolezza: deployment di queste nuove entità utente/applicazione, di cui non ci si può fidare ciecamente, pone diverse sfide uniche alla sicurezza, come l'iniezione tempestiva e l'avvelenamento dei dati.
  • Perdite di dati IA: l’uso non autorizzato di GenAI crea rischi di accesso e dati, come perdita di dati, accesso rischioso alle risorse online e accesso alle risorse aziendali per conto di utenti non autorizzati.
  • Esposizione di dati sensibili: gli utenti possono inserire dati sensibili aziendali o dei clienti in IA applicazione, dove potrebbero essere utilizzati come dati di formazione per LLM ed esposti ad altri utenti.
  • Iniezione immediata: Gli input appositamente predisposti possono causare un comportamento anomalo di un LLM, con conseguenti azioni che eludono i guardrail del sistema e mettono a rischio l'azienda e i suoi dati.

Gli LLM in una prospettiva zero-trust

Per affrontare queste sfide deployment LLM, è fondamentale un insieme unico di misurazioni Zero Trust:

  1. È fondamentale convalidare, monitorare e applicare attentamente l'input, l'output, i dati di formazione e i tentativi di accesso da parte dell'applicazione integrata LLM. Per mitigare i rischi associati all'applicazione integrata LLM, le organizzazioni devono avere visibilità su qualsiasi tentativo di iniezione e avvelenamento, inclusione involontaria di dati sensibili nella formazione e accesso non autorizzato.
  2. In un'ottica zero-trust, non ci si può fidare ciecamente di queste entità dinamiche, autonome e creative di recente introduzione all'interno delle organizzazioni. Ciò richiede un nuovo approccio alla sicurezza durante l'implementazione.
  3. La natura imprevedibile degli LLM, la conoscenza espansiva e la suscettibilità alla manipolazione richiedono un quadro di accesso IA rivisto e basato su zero trust. Ciò consentirà ai professionisti della sicurezza di garantire una solida protezione dei dati, sicurezza e accesso conformi alle politiche aziendali.

Lista di controllo IA Zero Trust

Tenendo presente un approccio ZTAI (Zero Trust IA access), è fondamentale considerare l'applicazione integrata LLM come entità che necessitano di policy di controllo degli accessi rigorose, addirittura più rigorose rispetto al dipendente medio. Non possiamo fidarci del processo decisionale di LLM su quali contenuti recuperare e a quali siti web accedere. Di conseguenza, non possiamo fidarci dei dati che vengono recuperati e presentati all'utente, che devono essere sottoposti a diligenti misure di sicurezza.

Checklist di sicurezza per l'accesso ad Internet dell'applicazione integrata LLM

L'accesso a Internet aumenta notevolmente i rischi per la sicurezza associati all'applicazione integrata LLM. Alcune best practice per la gestione di questi rischi includono:

  • Nega l'accesso quando possibile: A meno che non si tratti di una necessità assoluta, non fornire al modello l'accesso a Internet, poiché aumenta notevolmente la superficie di attacco.
  • Implementare i controlli di accesso: Quando si aumenta l'LLM con l'accesso a Internet, assicurarsi che siano in atto politiche di controllo degli accessi rigorose, in linea con le politiche organizzative. Non esternalizzare le policy di controllo degli accessi correnti a fornitori esterni e applicarle ai nuovi utenti.
  • Blocca siti Web con restrizioni: implementa il filtro URL e la protezione phishing per la tua applicazione basata su LLM per impedire loro di accedere a siti Web con restrizioni.
  • Controllare rigorosamente i dati accessibili: Limita le destinazioni a cui l'agente può accedere e i dati che può recuperare, in base al caso d'uso. Le limitazioni devono includere contenuti, tipi di file e categorie di siti Web appropriati.
  • Eseguire la convalida dei dati: Convalida continuamente i dati recuperati e presentati all'utente dall'LLM. Non fidarti del LLM per fornire solo dati non dannosi in quanto potrebbe essere soggetto ad allucinazioni o contenere dati di addestramento avvelenati.

Un framework di accesso IA zero-trust non si fida del comportamento o del processo decisionale dell'applicazione integrata LLM quando si accede alle risorse aziendali. Ciò include quali risorse e quando si accede, quali dati vengono esportati a quale utente e quali azioni possono essere eseguite utilizzando queste risorse.

Checklist di sicurezza per l'accesso dell'applicazione integrata LLM alle risorse aziendali

Come fornire l'accesso a Internet, consentire all'applicazione integrata LLM di accedere alle risorse aziendali può essere necessario ma può anche essere pericoloso. Le best practice di sicurezza per la gestione di questi rischi includono:

  • Limita l'uso di privilegi elevati: limita i privilegi dell'applicazione integrata LLM, in particolare per operazioni ad alto rischio, come la modifica e l'eliminazione dei dati aziendali.
  • Implementa il privilegio minimo: Limita le risorse aziendali a cui il tuo LLM può accedere al minimo assoluto.
  • Richiedi la riautenticazione e i timeout dell'account: Prima che l'agente esegua qualsiasi operazione utilizzando le risorse aziendali, richiedere all'utente di eseguire nuovamente l'autenticazione e limitare il tempo della sessione.
  • Eseguire analisi comportamentali: monitorare il comportamento e il processo decisionale dell'applicazione integrata LLM. I fattori da tenere d'occhio includono le risorse a cui si accede, i dati esportati per l'utente e le operazioni eseguite utilizzando le risorse aziendali.
  • Mantieni la visibilità in tempo reale: Assicurati di avere una visibilità chiara, dettagliata e in tempo reale sulle risorse online o aziendali a cui un agente accede e sulle operazioni eseguite.
  • Tieni traccia del comportamento anomalo: Implementare un sistema per rilevare modelli comportamentali anomali da parte dell'LLM, come l'accesso imprevisto ai dati o la deviazione dalle risposte tipiche o dai modelli di accesso.
  • Implementare i controlli degli accessi basati sui ruoli: Implementare una policy di controllo degli accessi dinamica basata sull'utente per l'agente, il che significa che l'LLM eredita gli stessi diritti di accesso dell'utente finale in ogni sessione.
  • Riduci al minimo la comunicazione tra LLM: Il danno può essere esponenziale quando un LLM può interagire con un altro LLM. Assicurati di limitare al minimo assoluto la comunicazione dell'applicazione basata su LLM.

Rete Zero Trust con Infinity Platform

L'introduzione di LLM e GenAI rende l'implementazione di un'architettura di sicurezza zero-trust più importante che mai. Allo stesso tempo, le funzionalità di questi sistemi complicano notevolmente le implementazioni zero-trust e rendono ZTAI essenziale.

L'implementazione di ZTAI può essere complessa e richiede visibilità e controllo granulari su tutte le azioni eseguite dall'applicazione integrata LLM all'interno dell'ambiente di un'organizzazione. Check PointLa piattaforma Infinity di offre gli strumenti di cui la tua organizzazione ha bisogno per implementare un'efficace strategia Zero Trust nell'era dell'IA, comprese funzionalità IA integrate per threat prevention, la risposta agli incidenti e l'amministrazione della sicurezza.

×
  Feedback
Questo sito web utilizza cookies per la sua funzionalità e per scopi di analisi e marketing. Continuando a utilizzare questo sito Web, accetti l'utilizzo dei cookies. Per ulteriori informazioni, leggere la nostra Informativa sui cookie.
OK