

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 에이전트 AI에 대한 소프트웨어 에이전트
<a name="new-generation"></a>

소프트웨어 에이전트는 환경을 인식하고, 목표에 대한 이유를 파악하고, 그에 따라 행동하도록 설계된 자율 디지털 엔터티입니다. 고정 로직을 따르는 기존 소프트웨어 프로그램과 달리 에이전트는 컨텍스트 입력 및 의사 결정 프레임워크를 기반으로 행동을 조정합니다. 따라서 클라우드 네이티브 시스템, 로봇 공학, 지능형 자동화, 현재 생성형 AI 오케스트레이션과 같은 동적 분산 환경에 이상적입니다.

이 섹션에서는 소프트웨어 에이전트의 핵심 구성 요소를 소개하고 인식, 근거, 행동 모델을 기반으로 기존 아키텍처 내에서 이러한 구성 요소가 상호 작용하는 방법을 설명합니다. 생성형 AI, 특히 대규모 언어 모델(LLMs)이 소프트웨어 에이전트의 추론과 계획 방식을 어떻게 변화시켰는지 설명합니다. 이는 규칙 기반 시스템에서 데이터 기반 학습된 에이전트 AI 인텔리전스로 근본적으로 전환된다는 것을 의미합니다.

**Topics**
+ [소프트웨어 에이전트의 핵심 구성 요소](core-modules.md)
+ [기존 에이전트 아키텍처: 인지, 이유, 행동](traditional-agents.md)
+ [생성형 AI 에이전트: 심볼 로직LLMs으로 대체](generative-ai-agents.md)
+ [기존 AI와 소프트웨어 에이전트 및 에이전트 AI 비교](comparison.md)

# 소프트웨어 에이전트의 핵심 구성 요소
<a name="core-modules"></a>

다음 다이어그램은 대부분의 지능형 에이전트에서 찾을 수 있는 주요 기능 모듈을 보여줍니다. 각 구성 요소는 복잡한 환경에서 에이전트가 자율적으로 운영할 수 있는 능력에 기여합니다.

![\[지능형 에이전트의 주요 기능 모듈 및 하위 모듈.\]](http://docs.aws.amazon.com/ko_kr/prescriptive-guidance/latest/agentic-ai-foundations/images/functional-modules.png)


인식, 이유, 행동 루프의 맥락에서 에이전트의 추론 기능은 인지 및 학습 모듈 모두에 분산됩니다. 메모리와 학습의 통합을 통해 에이전트는 과거 경험을 기반으로 적응형 추론을 개발합니다. 에이전트는 환경 내에서 행동할 때 새로운 피드백 루프를 생성합니다. 각 행동은 향후 지각에 영향을 미치며, 그 결과로 얻은 경험은 학습 모듈을 통해 메모리 및 내부 모델에 통합됩니다. 이러한 지속적인 지각, 추론 및 행동 루프를 통해 에이전트는 시간이 지남에 따라 개선되고 전체 지각, 이유, 행동 주기를 완료할 수 있습니다.

## 인식 모듈
<a name="perception"></a>

지각 모듈을 사용하면 에이전트가 텍스트, 오디오 및 센서와 같은 다양한 입력 양식을 통해 환경과 인터페이스할 수 있습니다. 이러한 입력은 모든 추론 및 작업이 기반으로 하는 원시 데이터를 형성합니다. 텍스트 입력에는 자연어 프롬프트, 구조화된 명령 또는 문서가 포함될 수 있습니다. 오디오 입력에는 음성 지침 또는 환경 사운드가 포함됩니다. 센서 입력에는 시각적 피드, 모션 신호 또는 GPS 좌표와 같은 물리적 데이터가 포함됩니다. 지각의 핵심 기능은이 원시 데이터에서 의미 있는 특징과 표현을 추출하는 것입니다. 이를 통해 에이전트는 현재 컨텍스트를 정확하고 실행 가능하게 이해할 수 있습니다. 이 프로세스에는 특성 추출, 객체 또는 이벤트 인식, 의미 해석이 포함될 수 있으며 인식, 이유, 행동 루프의 중요한 첫 번째 단계를 구성합니다. 효과적인 지각은 다운스트림 추론 및 의사 결정이 관련성 있는 up-to-date 상황 인식을 기반으로 하도록 합니다.

## 인지 모듈
<a name="cognitive"></a>

인지 모듈은 소프트웨어 에이전트의 의도적인 코어 역할을 합니다. 이는 지각을 해석하고, 의도를 형성하고, 목표 기반 계획 및 의사 결정을 통해 목적 있는 행동을 안내하는 역할을 합니다. 이 모듈은 입력을 구조화된 추론 프로세스로 변환하므로 에이전트가 사후 대응이 아닌 의도적으로 작동할 수 있습니다. 이러한 프로세스는 목표, 계획 및 의사 결정이라는 세 가지 주요 하위 모듈을 통해 관리됩니다.

### 목표 하위 모듈
<a name="cognitive-goals"></a>

목표 하위 모듈은 에이전트의 의도와 방향을 정의합니다. 목표는 명시적(예: "위치로 이동" 또는 "보고서 제출")이거나 암시적(예: "사용자 참여 극대화" 또는 "지연 시간 최소화")일 수 있습니다. 에이전트의 추론 주기의 핵심이며 계획 및 결정을 위한 대상 상태를 제공합니다.

에이전트는 목표에 대한 진행 상황을 지속적으로 평가하고 새로운 인식 또는 학습을 기반으로 목표의 우선순위를 다시 지정하거나 다시 생성할 수 있습니다. 이러한 목표 인식은 동적 환경에서 에이전트의 적응성을 유지합니다.

### 하위 모듈 계획
<a name="cognitive-planning"></a>

계획 하위 모듈은 에이전트의 현재 목표를 달성하기 위한 전략을 구성합니다. 작업 시퀀스를 생성하고, 작업을 계층적으로 분해하고, 사전 정의되거나 동적으로 생성된 계획 중에서 선택합니다.

비결정적 또는 변화하는 환경에서 효과적으로 운영하기 위해 계획은 정적이지 않습니다. 현대 에이전트는 chain-of-thought 시퀀스를 생성하고, 하위 목표를 중간 단계로 도입하고, 조건이 변경될 때 실시간으로 계획을 수정할 수 있습니다.

이 하위 모듈은 메모리 및 학습과 밀접하게 연결되며 에이전트는 과거 결과를 기반으로 시간 경과에 따른 계획을 세분화할 수 있습니다.

### 의사 결정 하위 모듈
<a name="cognitive-decision-making"></a>

의사 결정 하위 모듈은 사용 가능한 계획과 작업을 평가하여 가장 적합한 다음 단계를 선택합니다. 지각, 현재 계획, 에이전트의 목표 및 환경 컨텍스트의 입력을 통합합니다.

의사 결정 계정:
+ 충돌하는 목표 간의 절충
+ 신뢰도 임계값(예: 지각의 불확실성)
+ 작업의 결과
+ 에이전트의 학습된 경험

아키텍처에 따라 에이전트는 심볼 추론, 휴리스틱, 강화 학습 또는 언어 모델(LLMs)에 의존하여 정보에 입각한 결정을 내릴 수 있습니다. 이 프로세스는 에이전트의 동작 컨텍스트 인식, 목표 정렬 및 적응을 유지합니다.

## 작업 모듈
<a name="action"></a>

작업 모듈은 에이전트가 선택한 결정을 실행하고 외부 세계 또는 내부 시스템과 상호 작용하여 의미 있는 효과를 생성하는 역할을 합니다. 의도가 행동으로 변환되는 지각, 이유, 행동 루프의 행동 단계를 나타냅니다.

인지 모듈이 작업을 선택하면 작업 모듈은 특수 하위 모듈을 통해 실행을 조정합니다. 여기서 각 하위 모듈은 에이전트의 통합 환경에 맞게 조정됩니다.
+ 물리적 작동: 로봇 시스템 또는 IoT 디바이스에 포함된 에이전트의 경우이 하위 모듈은 결정을 실제 물리적 이동 또는 하드웨어 수준 지침으로 변환합니다.

  예: 로봇 조향, 밸브 트리거, 센서 켜기.
+ 통합 상호 작용:이 하위 모듈은 소프트웨어 시스템, 플랫폼 또는 APIs와의 상호 작용과 같은 비물리적이지만 외부에서 볼 수 있는 작업을 처리합니다.

  예: 클라우드 서비스에 명령 전송, 데이터베이스 업데이트, API를 호출하여 보고서 제출.
+ 도구 호출: 에이전트는 특수 도구를 사용하여 다음과 같은 하위 작업을 수행하여 기능을 확장하는 경우가 많습니다.
  + 검색: 정형 또는 비정형 지식 소스 쿼리
  + 요약: 대규모 텍스트 입력을 상위 수준 개요로 압축
  + 계산: 논리적, 수치적 또는 심볼 계산 수행

  도구 호출은 모듈식의 호출 가능한 기술을 통해 복잡한 동작 구성을 가능하게 합니다.

## 학습 모듈
<a name="learning"></a>

학습 모듈을 통해 에이전트는 경험을 기반으로 시간이 지남에 따라 적응, 일반화 및 개선할 수 있습니다. 인식 및 조치의 피드백을 사용하여 에이전트의 내부 모델, 전략 및 결정 정책을 지속적으로 개선하여 추론 프로세스를 지원합니다.

이 모듈은 단기 및 장기 메모리와 함께 작동합니다.
+ 단기 메모리: 대화 상태, 현재 작업 정보 및 최근 관측치와 같은 일시적인 컨텍스트를 저장합니다. 에이전트가 상호 작용 및 작업 내에서 연속성을 유지하는 데 도움이 됩니다.
+ 장기 메모리: 이전에 마주한 목표, 행동 결과 및 환경 상태를 포함하여 과거 경험의 지속적인 지식을 인코딩합니다. 장기 메모리를 사용하면 에이전트가 패턴을 인식하고, 전략을 재사용하고, 실수가 반복되지 않도록 할 수 있습니다.

### 학습 모드
<a name="learning-modes"></a>

학습 모듈은 다양한 환경과 에이전트 역할을 지원하는 지도, 비지도 및 강화 학습과 같은 다양한 패러다임을 지원합니다.
+ 지도 학습: 레이블이 지정된 예제를 기반으로 내부 모델을 업데이트합니다. 종종 인적 피드백 또는 훈련 데이터 세트에서 업데이트합니다.

  예: 이전 대화를 기반으로 사용자 의도를 분류하는 방법을 학습합니다.
+ 비지도 학습: 명시적 레이블 없이 데이터에서 숨겨진 패턴 또는 구조를 식별합니다.

  예: 환경 신호를 클러스터링하여 이상을 감지합니다.
+ 강화 학습: 대화형 환경에서 누적 보상을 극대화하여 시도 및 오류를 통해 동작을 최적화합니다.

  예: 어떤 전략이 가장 빠른 작업 완료로 이어지는지 학습합니다.

학습은 에이전트의 인지 모듈과 긴밀하게 통합됩니다. 과거 결과를 기반으로 계획 전략을 구체화하고, 과거 성공 평가를 통해 의사 결정을 개선하며, 지각과 행동 간의 매핑을 지속적으로 개선합니다. 이 닫힌 학습 및 피드백 루프를 통해 에이전트는 사후 대응 실행을 넘어 시간이 지남에 따라 새로운 목표, 조건 및 컨텍스트에 적응할 수 있는 자체 개선 시스템으로 발전합니다.

# 기존 에이전트 아키텍처: 인지, 이유, 행동
<a name="traditional-agents"></a>

다음 다이어그램은 [이전 섹션에서](core-modules.md) 설명한 구성 요소가 인식, 이유, 행동 주기에 따라 작동하는 방식을 보여줍니다.

![\[핵심 구성 요소가 기존 에이전트 아키텍처에 적용되는 방식.\]](http://docs.aws.amazon.com/ko_kr/prescriptive-guidance/latest/agentic-ai-foundations/images/traditional-agent-modules.png)


## 인식 모듈
<a name="perceive"></a>

지각 모듈은 에이전트와 외부 세계의 감각 인터페이스 역할을 합니다. 원시 환경 입력을 추론에 정보를 제공하는 구조화된 표현으로 변환합니다. 여기에는 텍스트, 오디오 또는 센서 신호와 같은 멀티모달 데이터 처리가 포함됩니다.
+ 텍스트 입력은 사용자 명령, 문서 또는 대화에서 비롯될 수 있습니다.
+ 오디오 입력에는 음성 지침 또는 환경 사운드가 포함됩니다.
+ 센서 입력은 모션, 시각적 피드 또는 GPS와 같은 실제 신호를 캡처합니다.

원시 입력이 수집되면 지각 프로세스가 특성 추출을 수행한 다음 객체 또는 이벤트 인식 및 의미 해석을 수행하여 현재 상황에 대한 의미 있는 모델을 생성합니다. 이러한 출력은 다운스트림 의사 결정을 위한 구조화된 컨텍스트를 제공하고 에이전트의 추론을 실제 관측치에 고정합니다.

## 이유 모듈
<a name="reason"></a>

이유 모듈은 에이전트의 인지 코어입니다. 컨텍스트를 평가하고, 의도를 공식화하고, 적절한 조치를 결정합니다. 이 모듈은 학습한 지식과 추론을 모두 사용하여 목표 기반 행동을 오케스트레이션합니다.

이유 모듈은 긴밀하게 통합된 하위 모듈로 구성됩니다.
+ 메모리: 대화 상태, 작업 컨텍스트 및 간헐적 기록을 단기 및 장기 형식으로 유지합니다.
+ 지식 기반: 심볼 규칙, 온톨로지 또는 학습된 모델(예: 임베딩, 사실 및 정책)에 대한 액세스를 제공합니다.
+ 목표 및 계획: 원하는 결과를 정의하고 이를 달성하기 위한 행동 전략을 수립합니다. 목표는 동적으로 업데이트할 수 있으며 계획은 피드백에 따라 조정적으로 수정할 수 있습니다.
+ 의사 결정: 옵션을 평가하고, 장단점을 평가하고, 다음 작업을 선택하여 중앙 중재 엔진 역할을 합니다. 이 하위 모듈은 신뢰도 임계값, 목표 정렬 및 컨텍스트 제약 조건을 고려합니다.

이러한 구성 요소를 함께 사용하면 에이전트가 환경을 추론하고, 신념을 업데이트하고, 경로를 선택하고, 일관된 적응형 방식으로 행동할 수 있습니다. 이유 모듈은 지각과 행동 간의 격차를 해소합니다.

## Act 모듈
<a name="act"></a>

작업 모듈은 작업을 수행하기 위해 디지털 또는 물리적 환경과 인터페이스하여 에이전트가 선택한 결정을 실행합니다. 여기에서 의도가 조치가 됩니다.

이 모듈에는 세 가지 기능 채널이 포함되어 있습니다.
+ 액추에이터: 물리적으로 존재하는 에이전트(예: 로봇 및 IoT 디바이스)의 경우는 이동, 조작 또는 신호와 같은 하드웨어 수준 상호 작용을 제어합니다.
+ 실행: APIs 호출, 명령 디스패치, 시스템 업데이트 등 소프트웨어 기반 작업을 처리합니다.
+ 도구: 검색, 요약, 코드 실행, 계산 및 문서 처리와 같은 기능 기능을 활성화합니다. 이러한 도구는 동적이고 컨텍스트를 인식하여 에이전트의 유틸리티를 확장하는 경우가 많습니다.

작업 모듈의 출력은 환경으로 다시 공급되고 루프를 닫습니다. 이러한 결과는 에이전트가 다시 인식합니다. 에이전트의 내부 상태를 업데이트하고 향후 결정을 알려 지각, 이유, 행동 주기를 완료합니다.

# 생성형 AI 에이전트: 심볼 로직LLMs으로 대체
<a name="generative-ai-agents"></a>

다음 다이어그램은 대규모 언어 모델(LLMs 이제 소프트웨어 에이전트를 위한 유연하고 지능적인 인지 코어 역할을 하는 방법을 보여줍니다. 정적 계획 라이브러리 및 수동 코딩 규칙에 의존하는 기존 심볼 로직 시스템과 달리 LLMs 적응형 추론, 컨텍스트 계획 및 동적 도구 사용을 지원하여 에이전트가 인식, 추론 및 행동하는 방식을 변화시킵니다.

![\[Diagram showing LLM-based agent architecture with perceive, reason, and act components.\]](http://docs.aws.amazon.com/ko_kr/prescriptive-guidance/latest/agentic-ai-foundations/images/gen-ai-modules.png)


## 주요 개선 사항
<a name="enhancements"></a>

이 아키텍처는 다음과 같이 기존 에이전트 아키텍처를 개선합니다.
+ 인지 엔진으로서LLMs: 목표, 계획 및 쿼리는** **프롬프트 컨텍스트로 모델에 전달됩니다. LLM은 추론 경로(예: 사고 체인)를 생성하고, 작업을 하위 목표로 분해하고, 다음 작업을 결정합니다.
+ 프롬프트를 통한 도구 사용: LLMs은 API를 호출하고 출력을 검색, 쿼리, 계산 및 해석하라는 도구 사용 에이전트 또는 추론 및 행동(ReAct) 프롬프트를 통해 전달될 수 APIs.
+ 컨텍스트 인식 계획: 에이전트는 하드 코딩된 계획 라이브러리 없이 에이전트의 현재 목표, 입력 환경 및 피드백을 기반으로 계획을 동적으로 생성하거나 수정합니다.
+ 프롬프트 컨텍스트를 메모리로: 에이전트는 심볼 지식 기반을 사용하는 대신 메모리, 계획 및 목표를 모델에 전달되는 프롬프트 토큰으로 인코딩합니다.
+ 단 몇 번의 컨텍스트 내 학습을 통한 학습: LLMs 프롬프트 엔지니어링을 통해 동작을 조정하므로 명시적 재훈련 또는 엄격한 계획 라이브러리의 필요성이 줄어듭니다.

## LLM 기반 에이전트에서 장기 메모리 확보
<a name="long-term-memory"></a>

구조화된 지식 기반에 장기 메모리를 저장한 기존 에이전트와 달리 생성형 AI 에이전트는 LLMs의 컨텍스트 기간 제한 내에서 작동해야 합니다. 메모리를 확장하고 지속적인 인텔리전스를 지원하기 위해 생성형 AI 에이전트는 에이전트 스토어, 검색 증강 생성(RAG), 컨텍스트 내 학습 및 프롬프트 체인, 사전 훈련 등 여러 보완 기법을 사용합니다.

**에이전트 스토어: 외부 장기 메모리**

에이전트 상태, 사용자 기록, 결정 및 결과는 장기 에이전트 메모리 스토어(예: 벡터 데이터베이스, 객체 스토어 또는 문서 스토어)에 저장됩니다. 관련 메모리는 온디맨드 방식으로 검색되어 런타임 시 LLM 프롬프트 컨텍스트에 주입됩니다. 이렇게 하면 에이전트가 세션, 작업 또는 상호 작용 전반에 걸쳐 연속성을 유지하는 영구 메모리 루프가 생성됩니다.

**RAG**

RAG는 검색된 지식과 생성형 기능을 결합하여 LLM 성능을 향상시킵니다. 목표 또는 쿼리가 실행되면 에이전트는 검색 인덱스를 검색합니다(예: 문서 의미 체계 검색, 이전 대화 또는 구조화된 지식을 통해). 검색된 결과는 LLM 프롬프트에 추가되며, 이는 외부 사실 또는 개인화된 컨텍스트에서 생성을 기반으로 합니다. 이 방법은 에이전트의 유효 메모리를 확장하고 신뢰성과 사실적 정확성을 개선합니다.

**컨텍스트 내 학습 및 프롬프트 체인**

에이전트는 세션 내 토큰 컨텍스트와 구조화된 프롬프트 체인을 사용하여 단기 메모리를 유지합니다. 현재 계획, 이전 작업 결과, 에이전트 상태와 같은 컨텍스트 요소는 행동 안내를 위한 호출 간에 전달됩니다.

**지속적인 사전 훈련 및 미세 조정**

도메인별 에이전트의 경우 로그, LLMs을 계속 사전 훈련할 수 있습니다. 또는 인적 피드백(RLHF)을 통한 지침 미세 조정 또는 강화 학습을 통해 에이전트와 같은 동작을 모델에 직접 포함할 수 있습니다. 이렇게 하면 추론 패턴이 프롬프트 시간 로직에서 모델의 내부 표현으로 전환되고 프롬프트 길이가 줄어들며 효율성이 향상됩니다.

## 에이전트 AI의 결합된 이점
<a name="benefits"></a>

이러한 기술을 함께 사용하면 생성형 AI 에이전트가 다음을 수행할 수 있습니다.
+ 시간이 지남에 따라 상황에 대한 인식을 유지합니다.
+ 사용자 기록 또는 기본 설정에 따라 동작을 조정합니다.
+ up-to-date, 사실적 또는 비공개 지식을 사용하여 결정을 내립니다.
+ 지속적이고 규정을 준수하며 설명 가능한 행동을 통해 엔터프라이즈 사용 사례로 확장합니다.

외부 메모리, 검색 계층 및 지속적인 훈련으로 LLMs을 보강하면 에이전트는 심볼 시스템만으로는 이전에는 달성할 수 없었던 수준의 인지 연속성과 목적을 달성할 수 있습니다.

# 기존 AI와 소프트웨어 에이전트 및 에이전트 AI 비교
<a name="comparison"></a>

다음 표에서는 기존 AI, 소프트웨어 에이전트 및 에이전트 AI를 자세히 비교합니다.


| 기능 | 기존 AI | 소프트웨어 에이전트 | 에이전트 AI | 
| --- | --- | --- | --- | 
|  예제  |  스팸 필터, 이미지 분류기, 추천 엔진  |  챗봇, 작업 스케줄러, 에이전트 모니터링  |  AI 어시스턴트, 자율 개발자 에이전트, 다중 에이전트 LLM 오케스트레이션  | 
|  실행 모델  |  배치 또는 동기  |  이벤트 기반 또는 예약  |  비동기식, 이벤트 기반 및 목표 기반  | 
|  자율성  |  제한적입니다. 종종 인적 또는 외부 오케스트레이션이 필요합니다.  |  중간, 사전 정의된 경계 내에서 독립적으로 작동  |  높음, 적응형 전략과 독립적으로 작동함  | 
|  반응성  |  입력 데이터에 대한 대응  |  환경 및 이벤트에 대응  |  대응적이고 선제적입니다. 조치를 예상하고 시작합니다.  | 
|  사전 대응  |  드물게  |  일부 시스템에 있음  |  핵심 속성, 목표 지향 동작 주도  | 
|  통신  |  미니멀, 일반적으로 독립 실행형 또는 API 바인딩  |  에이전트 간 또는 에이전트-인간 메시징  |  풍부한 다중 에이전트 및 human-in-the-loop 상호 작용  | 
|  의사 결정  |  모델 추론 전용(분류, 예측 등)  |  심볼 추론 또는 규칙 기반 또는 스크립팅된 결정  |  컨텍스트, 목표 기반, 동적 추론(대개 LLM 강화)  | 
|  위임된 의도  |  아니요. 사용자가 직접 정의한 작업을 수행합니다.  |  부분적, 범위가 제한된 사용자 또는 시스템을 대신합니다.  |  예. 종종 서비스, 사용자 또는 시스템 전반에서 위임된 목표를 가지고 행동합니다.  | 
|  학습 및 적응  |  종종 모델 중심(예: ML 훈련)  |  때때로 적응형  |  임베디드 학습, 메모리 또는 추론(예: 피드백, 자체 수정)  | 
|  기관  |  없음, 인간을 위한 도구  |  암시적 또는 기본적  |  명시적, 목적, 목표 및 자기 주도적으로 운영됨  | 
|  컨텍스트 인식  |  낮음, 상태 비저장 또는 스냅샷 기반  |  보통, 일부 상태 추적  |  높음, 메모리, 상황 컨텍스트 및 환경 모델 사용  | 
|  인프라 역할  |  앱 또는 분석 파이프라인에 내장  |  미들웨어 또는 서비스 계층 구성 요소  |  클라우드, 서버리스 또는 엣지 시스템과 통합된 구성 가능한 에이전트 메시  | 

요약하면 다음과 같습니다.
+ 기존 AI는 도구 중심이며 기능적으로 좁습니다. 예측 또는 분류에 중점을 둡니다.
+ 기존 소프트웨어 에이전트는 자율성과 기본 통신을 도입하지만 규칙 바인딩 또는 정적인 경우가 많습니다.
+ 에이전트 AI는 자율성, 비동기성 및 기관을 결합합니다. 복잡한 시스템 내에서 추론, 행동 및 적응할 수 있는 지능형 목표 기반 엔터티를 지원합니다. 따라서 에이전트 AI는 클라우드 네이티브 AI 기반 미래에 이상적입니다.