ゼロトラスト AI セキュリティの課題
多くの組織は、企業のサイバーセキュリティリスクを管理するための ゼロトラストセキュリティ フレームワークの実装に取り組んでいます。 しかし、生成 AI (GenAI) の出現により、この実践には次のような大きな課題が生じています。
- 曖昧な境界:ゼロトラスト セキュリティ モデルは、従来、ユーザーとアプリケーションを明確に区別することに依存してきました。 ただし、LLM 統合アプリケーションはこの区別を崩し、両方の機能を同時に実行します。
- 強力で素朴なエージェント:これらの「AI エージェント」は、組織内のインテリジェントでありながら素朴なエンティティとして見ることができます。 彼らは、膨大な知識に基づく高度なインタラクションとコンテンツ生成が可能ですが、多くの場合、企業の規範やセキュリティポリシーについての理解が不足しています。
- これらの新しいユーザー/アプリケーション エンティティのGenAI 脆弱性:デプロイメントは、盲目的に信頼することができず、プロンプト インジェクションやデータ ポイズニングなど、いくつかの固有のセキュリティ課題を引き起こします。
- AI データ漏洩: GenAI を許可なく使用すると、データ漏洩、オンライン リソースへの危険なアクセス、権限のないユーザーによる企業リソースへのアクセスなど、データとアクセスのリスクが生じます。
- 機密データの公開:ユーザーは、機密性の高い企業データまたは顧客データを AI アプリケーションに入力する場合があります。そのデータは LLM のトレーニング データとして使用され、他のユーザーに公開される可能性があります。
- プロンプトインジェクション: 特別に細工された入力により、LLM が誤動作し、システムのガードレールを回避し、会社とそのデータを危険にさらす動作が発生する可能性があります。
ゼロトラストの観点から見たLLM
LLM デプロイメントにおけるこれらの課題に対処するには、独自のゼロトラスト測定セットが不可欠です。
- LLM 統合アプリケーションによる入力、出力、トレーニング データ、およびアクセス試行を慎重に検証、監視、および強制することが重要です。 LLM 統合アプリケーションに関連するリスクを軽減するには、組織は、インジェクションやポイズニングの試み、トレーニングへの機密データの意図しない組み込み、および不正アクセスを可視化する必要があります。
- ゼロトラストの観点からは、組織内に新たに導入されたダイナミックで自律的で創造的なエンティティを盲目的に信頼することはできません。 これには、セキュリティを実装する際のセキュリティに対する新しいアプローチが必要です。
- LLM の予測不可能な性質、広範な知識、および操作されやすい性質により、改訂されたゼロ トラスト ベースの AI アクセス フレームワークが必要になります。 これにより、セキュリティ担当者は、堅牢なデータ保護、セキュリティ、および企業ポリシーに準拠したアクセスを確保できます。
ゼロトラスト AI チェックリスト
ゼロ トラスト AI アクセス (ZTAI) アプローチを念頭に置いて、LLM 統合アプリケーションを、平均的な従業員よりもさらに厳しい厳格なアクセス制御ポリシーを必要とするエンティティとして見ることが重要です。 どのコンテンツを取得し、どのWebサイトにアクセスするかについてのLLMの意思決定を信頼することはできません。 したがって、フェッチされてユーザーに提示されるデータは信頼できず、入念なセキュリティ対策を講じる必要があります。
LLM 統合アプリケーションのインターネット アクセスに関するセキュリティ チェックリスト
インターネット アクセスにより、LLM 統合アプリケーションに関連するセキュリティ リスクが大幅に増加します。 これらのリスクを管理するためのベストプラクティスには、次のようなものがあります。
- 可能な場合はアクセスを拒否します。 絶対に必要な場合を除き、モデルにインターネットへのアクセスを提供しないでください。インターネットへのアクセスは、攻撃対象領域を劇的に拡大します。
- アクセス制御を実装します。 インターネットへのアクセスでLLMを強化する場合は、組織のポリシーに沿って、厳格なアクセス制御ポリシーが設定されていることを確認してください。 現在のアクセス制御ポリシーを外部ベンダーにアウトソーシングして、新しいユーザーに適用しないでください。
- 制限された Web サイトをブロック: LLM ベースのアプリケーションに URL フィルタリングとフィッシング保護を実装して、制限された Web サイトへのアクセスを防止します。
- アクセス可能なデータを厳密に管理します。 エージェントがアクセスできる宛先とフェッチできるデータを、ユースケースに基づいて制限します。 制限には、適切なコンテンツ、ファイルの種類、およびWebサイトのカテゴリを含める必要があります。
- データ検証を実行します。 LLM によってフェッチされ、ユーザーに提示されたデータを継続的に検証します。 LLMが無害なデータのみを提供すると信頼しないでください。これは、幻覚が発生しやすい、または毒されたトレーニングデータが含まれている可能性があるためです。
ゼロトラスト AI アクセス フレームワークは、企業リソースにアクセスする際の LLM 統合アプリケーションの動作や意思決定を信頼しません。 これには、どのリソースにいつアクセスするか、どのデータをどのユーザーにエクスポートするか、これらのリソースを使用して実行できるアクションが含まれます。
LLM 統合アプリケーションによる企業リソースへのアクセスに関するセキュリティ チェックリスト
インターネットへのアクセスを提供するのと同様に、LLM 統合アプリケーションが企業リソースにアクセスできるようにすることは必要な場合もありますが、危険な場合もあります。 これらのリスクを管理するためのセキュリティのベスト プラクティスには、次のものがあります。
- 昇格された権限の使用を制限する:特に企業データの変更や削除などのリスクの高い操作については、LLM 統合アプリケーションの権限を制限します。
- 最小特権を実装します。 LLM がアクセスできる企業リソースを最小限に制限します。
- 再認証とアカウントのタイムアウトが必要: エージェントが企業リソースを使用して操作を実行する前に、ユーザーに再認証を要求し、セッションの時間を制限します。
- 行動分析を実行する: LLM 統合アプリケーションの動作と意思決定を監視します。 注目すべき要素には、どのリソースがアクセスされるか、どのデータがどのユーザーにエクスポートされるか、企業リソースを使用してどのような操作が実行されるかなどがあります。
- リアルタイムの可視性を維持: エージェントがアクセスしているオンラインリソースや企業リソース、および実行されている操作を明確かつ詳細に、リアルタイムで可視化していることを確認します。
- 異常な行動の追跡: LLMによる異常な行動パターン(予期しないデータアクセスや、一般的な応答やアクセスパターンからの逸脱など)を検出するシステムを実装します。
- ロールベースのアクセス制御を実装します。 エージェントに動的なユーザーベースのアクセス制御ポリシーを実装します。つまり、LLM は各セッションでエンドユーザーと同じアクセス権を継承します。
- LLM 間通信を最小化する: LLM が別の LLM と対話できる場合、ダメージは指数関数的になる可能性があります。 LLM ベースのアプリケーションの通信は必ず最小限に制限してください。