近幾年來,人工智慧迅速成熟。 生成式人工智慧 (GenAI) 的興起激發了許多公司探索人工智慧如何改進和增強其營運的各個方面。 網路安全是人工智慧顯示出特別前景的領域之一。 支援人工智慧的網路安全解決方案有可能顯著增強安全團隊識別和阻止針對其組織的網路攻擊的能力。
人工智慧有潛力徹底改變許多行業,包括網路安全。 然而,人工智慧的力量也伴隨著巨大的安全風險。
人工智慧模型經過大量資料的訓練。 這些數據包括人工智慧旨在檢測的事件類型的標記實例。 例如,經過訓練以識別網路流量中的威脅的人工智慧需要包含正常流量和惡意流量範例的訓練資料。 這些培訓資料集合可以包含有關組織的客戶和業務的敏感資訊。 儲存和使用這些資料來訓練人工智慧存在被攻擊者破壞的風險。
人工智慧系統經過訓練,可以開發有助於實現特定目標的模型。 例如,可以教導人工智慧系統區分網路流量中的良性文件和潛在惡意軟體。
網路攻擊者可能會嘗試訓練自己的人工智慧系統來學習防禦系統的模型。 這可能使攻擊者能夠透過發現人工智慧系統模型中的漏洞來確定將攻擊繞過人工智慧系統的方法。
資料操縱和中毒攻擊針對的是用來訓練人工智慧模型的標記資料。 攻擊者將在該資料集中引入額外的、錯誤標記的實例。 這些攻擊的目標是錯誤地訓練人工智慧模型。 如果訓練資料集有標記為良性的攻擊流量,那麼人工智慧模型將無法辨識這些攻擊。 這為攻擊者提供了在人工智慧系統部署後溜過的機會。
人工智慧模型的好壞取決於其訓練資料。 人工智慧模型的訓練方式是向它們提供許多標記的輸入,並允許它們建立產生所需輸出的模型。 這種方法的問題在於,有偏見的訓練資料會產生有偏見的人工智慧模型。 最常見的例子是臉部辨識系統主要根據特定人口群體的圖像進行訓練。 通常,這些系統對於訓練資料集所代表的人口群體之外的人來說,錯誤率要高得多。
人工智慧非常適合識別數據中的模式、趨勢和關係。 在對人工智慧進行訓練後,其模型將反映這些趨勢,並能夠根據這些模式做出決策和識別。 然而,人工智慧系統使用的模型並不透明或不可解釋。 這使得確定人工智慧模型是否包含偏差或錯誤(例如由損壞的訓練資料集引入的偏差或錯誤)變得不可行。
ChatGPT 和類似工具已經展現出一定程度的程式設計熟練程度。 雖然 GenAI 編寫的程式碼可能存在錯誤,但它可以加快程式碼開發過程並開發複雜的應用程式。 GenAI 工具具有防止編寫惡意軟體的保護措施;然而,這些護欄往往存在漏洞,可以被繞過。 GenAI 可以讓不太複雜的威脅參與者開發高階惡意軟體,並且其功能在未來只會成長。
訓練人工智慧模型是一項複雜的挑戰。 組織需要收集大量標記資料並用它來訓練人工智慧模型。 這需要獲得機器學習和數據科學的數據和專業知識。 因此,許多組織將使用第三方開發和訓練的人工智慧模型。 然而,這帶來了攻擊者瞄準開發模型的組織、注入惡意訓練資料或採取其他步驟來破壞模型的風險。
大多數人工智慧安全風險都歸結為資料安全和品質。 如果一個組織能夠保證其人工智慧模型的訓練資料不會被洩露,並且能夠確保訓練資料的完整和正確,那麼基於該資料訓練的模型應該是準確的。
然而,許多組織缺乏資源、專業知識或意願來訓練自己的人工智慧模型。 在這些情況下,從具有強大安全態勢的信譽良好的供應商那裡採購人工智慧解決方案是確保這些解決方案的品質、正確性和安全性的最佳方式。
Infinity人工智慧運用GenAI、威脅情資和Check Point深厚的安全專業知識來增強網路安全。 ThreatCloud人工智能為Check Point的安全產品提供支持,提供業界領先的威脅偵測和預防。 Infinity Copilot 使組織能夠透過自動化常見任務和控制管理來提高安全效率。 若要了解人工智慧可以為您組織的網路安全計畫做些什麼,請立即註冊GenAI 安全預覽計畫。