기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
최신 LLMs에 대한 신속한 주입 공격을 방지하기 위한 프롬프트 엔지니어링 모범 사례
Ivan Cui, Andrei Ivanovic, Samantha Stuart, Amazon Web Services(AWS)
2024년 3월(문서 기록)
엔터프라이즈 IT 환경에서 대규모 언어 모델(LLMs)이 확산되면 보안, 책임 있는 인공 지능(AI), 개인 정보 보호 및 프롬프트 엔지니어링에 새로운 과제와 기회가 발생합니다. 편향된 출력, 개인 정보 침해 및 보안 취약성과 같은 LLM 사용과 관련된 위험을 완화해야 합니다. 이러한 문제를 해결하기 위해 조직은 LLMs 사용이 책임감 있는 AI의 광범위한 원칙에 부합하고 보안 및 프라이버시를 우선시하도록 사전에 보장해야 합니다.
조직에서 LLMs을 사용할 때는 관련 규정 준수와 마찬가지로 LLM 배포의 보안을 강화하기 위한 목표를 정의하고 조치를 구현해야 합니다. 여기에는 강력한 인증 메커니즘, 암호화 프로토콜 및 최적화된 프롬프트 설계를 배포하여 프롬프트 주입 시도를 식별하고 대응함으로써 보안과 관련된 AI 생성 출력의 신뢰성을 높이는 데 도움이 됩니다.
책임 있는 LLM 사용의 핵심은 보안, 개인 정보 보호 및 윤리적 AI 관행을 유지하는 데 중요한 역할을 하는 프롬프트 엔지니어링과 프롬프트 주입 공격의 완화입니다. 프롬프트 주입 공격에는 편향이나 유해한 결과를 도입하려는 의도로 LLM 출력에 영향을 미치는 프롬프트를 조작하는 작업이 포함됩니다. LLM 배포를 보호하는 것 외에도 조직은 프롬프트 엔지니어링 원칙을 AI 개발 프로세스에 통합하여 프롬프트 주입 취약성을 완화해야 합니다.
이 가이드에서는 프롬프트 엔지니어링 및 프롬프트 주입 공격을 완화하기 위한 보안 가드레일을 간략하게 설명합니다. 이러한 가드레일은 다양한 모델 공급자 및 프롬프트 템플릿과 호환되지만 특정 모델에 대한 추가 사용자 지정이 필요합니다.
목표 비즈니스 성과
-
악의적이지 않은 쿼리에 대해 높은 정확도를 유지하면서 다양한 일반적인 공격 패턴에 대해 LLM 기반 검색 증강 생성(RAG) 애플리케이션의 프롬프트 수준 보안을 크게 개선합니다.
-
프롬프트 템플릿에 짧지만 효과적인 가드레일을 적게 사용하여 추론 비용을 완화합니다. 이러한 가드레일은 다양한 모델 공급자 및 프롬프트 템플릿과 호환되지만 추가 모델별 조정이 필요합니다.
-
생성형 AI 기반 솔루션을 사용할 때 더 높은 신뢰와 신뢰성을 심어줍니다.
-
중단 없는 시스템 운영을 유지하고 보안 이벤트로 인한 가동 중지 위험을 줄일 수 있습니다.
-
사내 데이터 과학자와 프롬프트 엔지니어가 책임감 있는 AI 관행을 유지할 수 있도록 지원합니다.