

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 최신 LLMs에 대한 신속한 주입 공격을 방지하기 위한 프롬프트 엔지니어링 모범 사례
<a name="introduction"></a>

*Ivan Cui, Andrei Ivanovic, Samantha Stuart, Amazon Web Services(AWS)*

*2024년 3월*([문서 기록](doc-history.md))

엔터프라이즈 IT 환경에서 대규모 언어 모델(LLMs)이 확산되면 보안, 책임 있는 인공 지능(AI), 개인 정보 보호 및 프롬프트 엔지니어링에 새로운 과제와 기회가 발생합니다. 편향된 출력, 개인 정보 침해 및 보안 취약성과 같은 LLM 사용과 관련된 위험을 완화해야 합니다. 이러한 문제를 해결하기 위해 조직은 LLMs 사용이 책임감 있는 AI의 광범위한 원칙에 부합하고 보안 및 프라이버시를 우선시하도록 사전에 보장해야 합니다.

조직에서 LLMs을 사용할 때는 관련 규정 준수와 마찬가지로 LLM 배포의 보안을 강화하기 위한 목표를 정의하고 조치를 구현해야 합니다. 여기에는 강력한 인증 메커니즘, 암호화 프로토콜 및 최적화된 프롬프트 설계를 배포하여 프롬프트 주입 시도를 식별하고 대응함으로써 보안과 관련된 AI 생성 출력의 신뢰성을 높이는 데 도움이 됩니다.

책임 있는 LLM 사용의 핵심은 보안, 개인 정보 보호 및 윤리적 AI 관행을 유지하는 데 중요한 역할을 하는 프롬프트 엔지니어링과 프롬프트 주입 공격의 완화입니다. 프롬프트 주입 공격에는 편향이나 유해한 결과를 도입하려는 의도로 LLM 출력에 영향을 미치는 프롬프트를 조작하는 작업이 포함됩니다. LLM 배포를 보호하는 것 외에도 조직은 프롬프트 엔지니어링 원칙을 AI 개발 프로세스에 통합하여 프롬프트 주입 취약성을 완화해야 합니다.

이 가이드에서는 프롬프트 엔지니어링 및 프롬프트 주입 공격을 완화하기 위한 보안 가드레일을 간략하게 설명합니다. 이러한 가드레일은 다양한 모델 공급자 및 프롬프트 템플릿과 호환되지만 특정 모델에 대한 추가 사용자 지정이 필요합니다.

## 목표 비즈니스 성과
<a name="targeted-business-outcomes"></a>
+ 악의적이지 않은 쿼리에 대해 높은 정확도를 유지하면서 다양한 일반적인 공격 패턴에 대해 LLM 기반 검색 증강 생성(RAG) 애플리케이션의 프롬프트 수준 보안을 크게 개선합니다.
+ 프롬프트 템플릿에 짧지만 효과적인 가드레일을 적게 사용하여 추론 비용을 완화합니다. 이러한 가드레일은 다양한 모델 공급자 및 프롬프트 템플릿과 호환되지만 추가 모델별 조정이 필요합니다.
+ 생성형 AI 기반 솔루션을 사용할 때 더 높은 신뢰와 신뢰성을 심어줍니다.
+ 중단 없는 시스템 운영을 유지하고 보안 이벤트로 인한 가동 중지 위험을 줄일 수 있습니다.
+ 사내 데이터 과학자와 프롬프트 엔지니어가 책임감 있는 AI 관행을 유지할 수 있도록 지원합니다.