View a markdown version of this page

最新の LLMs に対するプロンプトインジェクション攻撃を回避するためのプロンプトエンジニアリングのベストプラクティス - AWS 規範ガイダンス

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

最新の LLMs に対するプロンプトインジェクション攻撃を回避するためのプロンプトエンジニアリングのベストプラクティス

Ivan Cui、Andrei Ivanovic、Samantha Stuart、Amazon Web Services (AWS)

2024 年 3 月 (ドキュメント履歴)

エンタープライズ IT 環境での大規模言語モデル (LLMs) の普及は、セキュリティ、責任ある人工知能 (AI)、プライバシー、プロンプトエンジニアリングにおける新しい課題と機会をもたらします。出力のバイアス、プライバシー違反、セキュリティの脆弱性など、LLM の使用に関連するリスクを軽減する必要があります。これらの課題に対処するには、組織は LLMs の使用が責任ある AI のより広範な原則に沿っており、セキュリティとプライバシーを優先するように事前に確認する必要があります。

組織が LLMs を使用する場合は、該当する規制コンプライアンスと同様に、LLM デプロイのセキュリティを強化するための目標を定義し、対策を実装する必要があります。これには、堅牢な認証メカニズム、暗号化プロトコル、最適化されたプロンプト設計をデプロイしてプロンプトインジェクションの試行を特定して対処することが含まれます。これにより、セキュリティに関連する AI 生成出力の信頼性が向上します。

責任ある LLM の使用の中心となるのは、プロンプトエンジニアリングとプロンプトインジェクション攻撃の軽減です。これは、セキュリティ、プライバシー、および倫理的な AI プラクティスを維持する上で重要な役割を果たします。プロンプトインジェクション攻撃には、バイアスや有害な結果をもたらすことを目的とした、LLM 出力に影響を与えるプロンプトの操作が含まれます。LLM デプロイを保護するだけでなく、組織はプロンプトエンジニアリングの原則を AI 開発プロセスに統合して、プロンプトインジェクションの脆弱性を軽減する必要があります。

このガイドでは、プロンプトエンジニアリングとプロンプトインジェクション攻撃を軽減するためのセキュリティガードレールの概要を説明します。これらのガードレールは、さまざまなモデルプロバイダーやプロンプトテンプレートと互換性がありますが、特定のモデルに対して追加のカスタマイズが必要です。

ターゲットを絞ったビジネス成果

  • LLM を活用した検索拡張生成 (RAG) アプリケーションのプロンプトレベルのセキュリティを、悪意のあるクエリに対して高い精度を維持しながら、さまざまな一般的な攻撃パターンに対して大幅に改善します。

  • プロンプトテンプレートで短いが効果的なガードレールを少数採用することで、推論のコストを削減します。これらのガードレールは、さまざまなモデルプロバイダーやプロンプトテンプレートと互換性がありますが、追加のモデル固有の調整が必要です。

  • 生成 AI ベースのソリューションの使用に対する信頼と信頼性を高めます。

  • 中断のないシステムオペレーションを維持し、セキュリティイベントによるダウンタイムのリスクを軽減します。

  • 社内のデータサイエンティストとプロンプトエンジニアが責任ある AI プラクティスを維持できるようにします。