大型語言模型 (LLM) 的快速成熟正在徹底改變我們與技術互動的方式。 大多數企業仍處於部署法學碩士和識別潛在用例的探索階段,重點是小規模試點。 然而,許多員工已經直接採用未經批准的生成式人工智慧應用程式(ChatGPT、Gemini 等)或透過批准應用程式的第三方擴充功能。
軟體即服務 (SaaS) 供應商正試圖透過將人工智慧功能融入他們的服務中來跟上步伐。 這使客戶能夠透過提供基於人工智慧的銷售見解、人工智慧設計幫助和編碼副駕駛來利用法學碩士技術的優勢。 然而,這種不受管理的人工智慧採用也帶來了重大的安全風險,使得零信任人工智慧存取(ZTAI)成為企業人工智慧網路安全策略的重要組成部分。
許多組織正在努力實施零信任安全框架來管理企業網路安全風險。 然而,生成式人工智慧(GenAI)的出現為這種實踐帶來了重大挑戰,包括:
為了應對 LLM 部署中的這些挑戰,一套獨特的零信任測量勢在必行:
考慮到零信任人工智慧存取 (ZTAI) 方法,將 LLM 整合應用程式視為需要嚴格存取控制策略的實體(甚至比普通員工更嚴格)至關重要。 我們不能相信法學碩士關於獲取哪些內容以及訪問哪些網站的決策。 因此,我們不能信任正在獲取並呈現給用戶的數據,這些數據必須經過嚴格的安全措施。
網路存取大大增加了與 LLM 整合應用程式相關的安全風險。 管理這些風險的一些最佳實踐包括:
零信任人工智慧存取框架在存取企業資源時不信任LLM整合應用程式的行為或決策。 這包括存取哪些資源以及何時存取、將哪些資料匯出給哪個使用者以及可以使用這些資源執行哪些操作。
就像提供網路存取一樣,允許法學碩士整合的應用程式存取公司資源可能是必要的,但也可能是危險的。 管理這些風險的安全最佳實踐包括:
LLM 和 GenAI 的引入使得實施零信任安全架構比以往任何時候都更加重要。 同時,這些系統的功能也使零信任實施變得非常複雜,並使 ZTAI 至關重要。
實施 ZTAI 可能很複雜,需要對組織環境中 LLM 整合應用程式執行的所有操作進行精細可見性和控制。 Check Point的Infinity 平台為您的組織提供了在人工智慧時代實施有效零信任所需的工具,包括用於進階威脅防護、事件回應和安全管理的整合式人工智慧功能。