

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 軟體代理程式到代理程式 AI
<a name="new-generation"></a>

軟體代理程式是自主的數位實體，旨在感知其環境、考量其目標的原因，並採取相應行動。與遵循固定邏輯的傳統軟體程式不同，客服人員會根據內容輸入和決策架構來調整其行為。這使得它們非常適合動態的分散式環境，例如雲端原生系統、機器人、智慧型自動化，以及現在的生成式 AI 協同運作。

本節介紹軟體代理程式的核心建置區塊，並根據感知、原因和行為模型，說明這些元件如何在傳統架構中互動。它討論了生成式 AI，特別是大型語言模型 (LLMs) 如何改變軟體代理程式推理和規劃的方式。這表示從規則型系統到資料驅動型的客服人員 AI 情報的基本轉移。

**Topics**
+ [軟體代理程式的核心建置區塊](core-modules.md)
+ [傳統代理程式架構：感知、原因、行為](traditional-agents.md)
+ [生成式 AI 代理器：以 LLMs 取代符號邏輯](generative-ai-agents.md)
+ [比較傳統 AI 與軟體代理程式和代理程式 AI](comparison.md)

# 軟體代理程式的核心建置區塊
<a name="core-modules"></a>

下圖顯示大多數智慧型代理程式中發現的主要功能模組。每個元件都有助於代理程式在複雜環境中自動操作的能力。

![\[智慧代理程式中的關鍵功能模組和子模組。\]](http://docs.aws.amazon.com/zh_tw/prescriptive-guidance/latest/agentic-ai-foundations/images/functional-modules.png)


在感知、原因、動作迴圈的情況下，代理程式的推理功能會分佈在其認知和學習模組中。透過整合記憶體和學習，客服人員開發以過去經驗為基礎的適應性推理。當代理程式在其環境中運作時，會建立緊急意見回饋迴圈：每個動作都會影響未來的感知，而產生的體驗會透過學習模組整合到記憶體和內部模型中。這種持續的感知、推理和動作迴圈，可讓代理程式隨著時間改善，並完成完整的感知、原因、動作週期。

## 感知模組
<a name="perception"></a>

感知模組可讓代理程式透過文字、音訊和感應器等各種輸入方式與其環境互動。這些輸入會形成所有推理和動作所依據的原始資料。文字輸入可能包含自然語言提示、結構化命令或文件。音訊輸入包含語音指示或環境聲音。感應器輸入包括實體資料，例如視覺摘要、動作訊號或 GPS 座標。感知的核心功能是從此原始資料中擷取有意義的特徵和表示。這可讓代理程式建構對其目前內容的準確且可行的理解。此程序可能涉及特徵擷取、物件或事件辨識，以及語意解釋，並構成感知、原因、行為迴圈中的關鍵第一步。有效的感知可確保下游推理和決策是以相關up-to-date情境感知為基礎。

## 認知模組
<a name="cognitive"></a>

認知模組做為軟體代理程式的刻意核心。它負責解釋感知、形成意圖，並透過目標驅動的規劃和決策來引導有目的的行為。此模組會將輸入轉換為結構化推理程序，讓代理程式能夠刻意操作，而非被動操作。這些程序是透過三個關鍵子模組進行管理：目標、規劃和決策。

### 目標子模組
<a name="cognitive-goals"></a>

目標子模組定義代理程式的意圖和方向。目標可以是明確 （例如，「導覽至位置」或「提交報告」) 或隱含 （例如，「最大化使用者參與度」或「最小化延遲」)。它們是客服人員推理週期的核心，並為其規劃和決策提供目標狀態。

代理程式會持續評估其目標的進度，並根據新的感知或學習，重新排定目標的優先順序或重新產生目標。此目標意識可讓代理程式在動態環境中適應。

### 規劃子模組
<a name="cognitive-planning"></a>

規劃子模組會建構策略，以達成代理程式目前的目標。它會產生動作序列、以階層方式分解任務，並從預先定義或動態產生的計劃中選取。

若要在非確定性或不斷變化的環境中有效操作，規劃不是靜態的。現代客服人員可以產生chain-of-thought序列、將子目標引入中繼步驟，並在條件轉移時即時修訂計畫。

此子模組與記憶體和學習緊密連接，並允許代理程式根據過去的結果隨著時間改進其規劃。

### 決策子模組
<a name="cognitive-decision-making"></a>

決策子模組會評估可用的計劃和動作，以選取最適合的下一個步驟。它整合了感知、目前計劃、客服人員的目標和環境內容的輸入。

決策考量：
+ 衝突目標之間的權衡
+ 可信度閾值 （例如，感知中的不確定性）
+ 動作的後果
+ 客服人員的學習經驗

根據架構，客服人員可能會依賴符號推理、啟發式、強化學習或語言模型 (LLMs) 做出明智的決策。此程序會保持代理程式的行為內容感知、目標一致和適應性。

## 動作模組
<a name="action"></a>

動作模組負責執行客服人員選取的決策，並與外部世界或內部系統互動，以產生有意義的效果。它代表感知、原因、動作迴圈的動作階段，其中意圖轉換為行為。

當認知模組選取動作時，動作模組會透過特殊的子模組協調執行，其中每個子模組都與代理程式的整合環境一致：
+ 實體致動：對於內嵌在機器人系統或 IoT 裝置的代理程式，此子模組會將決策轉換為實際的實體移動或硬體層級指示。

  範例：轉向機器人、觸發閥、開啟感應器。
+ 整合互動：此子模組會處理非實體但外部可見的動作，例如與軟體系統、平台或 APIs 互動。

  範例：將命令傳送至雲端服務、更新資料庫、呼叫 API 提交報告。
+ 工具調用：客服人員通常會使用專門的工具來完成子任務，以擴展其功能，如下所示：
  + 搜尋：查詢結構化或非結構化的知識來源
  + 摘要：將大型文字輸入壓縮為高階概觀
  + 計算：執行邏輯、數值或符號運算

  工具調用可透過模組化、可呼叫的技能來實現複雜的行為合成。

## 學習模組
<a name="learning"></a>

學習模組可讓客服人員根據經驗調整、一般化和改善一段時間。它使用感知和動作的意見回饋，持續精簡客服人員的內部模型、策略和決策政策，以支援推理程序。

此模組會與短期和長期記憶體協調運作：
+ 短期記憶體：儲存暫時性內容，例如對話狀態、目前任務資訊和最近的觀察。它有助於客服人員在互動和任務中維持持續性。
+ 長期記憶體：編碼過去經驗的持久性知識，包括先前遇到的目標、動作結果和環境狀態。長期記憶體可讓代理程式辨識模式、重複使用策略，並避免重複錯誤。

### 學習模式
<a name="learning-modes"></a>

學習模組支援一系列範例，例如監督式、非監督式和強化式學習，其支援不同的環境和客服人員角色：
+ 監督式學習：根據標記的範例更新內部模型，通常是來自人工意見回饋或訓練資料集。

  範例：學習根據先前的對話分類使用者意圖。
+ 非監督式學習：在沒有明確標籤的情況下識別資料中的隱藏模式或結構。

  範例：叢集環境訊號以偵測異常。
+ 強化學習：透過在互動式環境中最大化累積獎勵，透過試驗和錯誤來最佳化行為。

  範例：了解哪些策略導致最快的任務完成。

Learning 與代理程式的認知模組緊密整合。它根據過去的結果精簡規劃策略，透過評估歷史成功來增強決策能力，並持續改善感知和動作之間的映射。透過此封閉式學習和意見回饋迴圈，客服人員會超越被動執行，成為能夠隨著時間適應新目標、條件和內容的自我改善系統。

# 傳統代理程式架構：感知、原因、行為
<a name="traditional-agents"></a>

下圖說明[上一節](core-modules.md)討論的建置區塊如何在感知、原因、動作週期下運作。

![\[核心建置區塊如何套用至傳統代理程式架構。\]](http://docs.aws.amazon.com/zh_tw/prescriptive-guidance/latest/agentic-ai-foundations/images/traditional-agent-modules.png)


## 感知模組
<a name="perceive"></a>

感知模組做為代理程式與外部世界的感官界面。它將原始環境輸入轉換為告知推理的結構化表示法。這包括處理多模式資料，例如文字、音訊或感應器訊號。
+ 文字輸入可能來自使用者命令、文件或對話。
+ 音訊輸入包括語音指示或環境聲音。
+ 感應器輸入會擷取動作、視覺摘要或 GPS 等真實訊號。

擷取原始輸入後，感知程序會執行特徵擷取，接著進行物件或事件辨識和語意解釋，以建立目前情況的有意義模型。這些輸出提供下游決策的結構化內容，並將代理程式的推理錨定在實際觀察中。

## 原因模組
<a name="reason"></a>

原因模組是代理程式的認知核心。它評估內容、制定意圖，並確定適當的動作。本單元使用學習到的知識和推理來協調目標驅動的行為。

原因模組由緊密整合的子模組組成：
+ 記憶體：維持短期和長期格式的對話狀態、任務內容和偶發歷史記錄。
+ 知識庫：提供對符號規則、拓撲或學習模型 （例如內嵌、事實和政策） 的存取權。
+ 目標和計劃：定義所需的成果，並建構動作策略以達成這些成果。目標可以動態更新，而且計劃可以根據意見回饋進行調整。
+ 決策：透過權衡選項、評估權衡和選取下一個動作，充當中央仲裁引擎。此子模組會考量可信度閾值、目標對齊和內容限制。

這些元件共同允許代理程式推理其環境、更新想法、選取路徑，並以一致、適應性的方式行事。原因模組會縮小感知和行為之間的差距。

## 動作模組
<a name="act"></a>

動作模組會透過與數位或實體環境互動來執行任務，來執行代理程式選取的決策。這是意圖成為動作的地方。

本單元包含三個功能頻道：
+ 傳動器：對於具有實體存在的代理程式 （例如機器人和 IoT 裝置）， 會控制硬體層級的互動，例如移動、操作或訊號。
+ 執行：處理以軟體為基礎的動作，包括叫用 APIs、分派命令和更新系統。
+ 工具：啟用搜尋、摘要、程式碼執行、計算和文件處理等功能。這些工具通常具有動態和內容感知，可擴展代理程式的公用程式。

動作模組的輸出會回饋環境並關閉迴圈。代理程式會再次感知這些結果。它們會更新客服人員的內部狀態並通知未來的決策，因此完成感知、原因、動作週期。

# 生成式 AI 代理器：以 LLMs 取代符號邏輯
<a name="generative-ai-agents"></a>

下圖說明大型語言模型 (LLMs) 現在如何做為軟體代理程式的彈性和智慧型認知核心。與依賴靜態計劃程式庫和手動編碼規則的傳統符號邏輯系統相比，LLMs可實現適應性推理、內容規劃和動態工具使用，從而改變客服人員如何感知、推理和行動。

![\[Diagram showing LLM-based agent architecture with perceive, reason, and act components.\]](http://docs.aws.amazon.com/zh_tw/prescriptive-guidance/latest/agentic-ai-foundations/images/gen-ai-modules.png)


## 金鑰增強功能
<a name="enhancements"></a>

此架構增強了傳統代理程式架構，如下所示：
+ LLMs做為認知引擎：目標、計劃和查詢會做為** **提示內容傳遞至模型。LLM 會產生推理路徑 （例如思考鏈）、將任務分解為子目標，並決定下一個動作。
+ 透過提示使用工具：LLMs可以透過工具使用代理程式或推理和動作 (ReAct) 提示來呼叫 APIs，以及搜尋、查詢、計算和解譯輸出。
+ 內容感知規劃：客服人員會根據客服人員的目前目標、輸入環境和意見回饋動態產生或修改計劃，而不需要硬式編碼的計劃程式庫。
+ 提示內容做為記憶體：客服人員不會使用符號知識庫，而是將記憶體、計劃和目標編碼為傳遞給模型的提示字符。
+ 透過少量擷取內容學習進行學習：LLMs 透過提示工程來調整行為，從而減少明確重新訓練或嚴格計劃程式庫的需求。

## 在 LLM 型代理程式中實現長期記憶體
<a name="long-term-memory"></a>

與將長期記憶體存放在結構化知識庫中的傳統代理程式不同，生成式 AI 代理程式必須在 LLMs的內容時段限制內運作。為了擴展記憶體並支援持久性智慧，生成式 AI 代理器使用數種補充技術：代理程式存放區、擷取增強生成 (RAG)、內容內學習和提示鏈結，以及預先訓練。

**代理程式存放區：外部長期記憶體**

客服人員狀態、使用者歷史記錄、決策和結果會存放在長期客服人員記憶體存放區 （例如向量資料庫、物件存放區或文件存放區）。相關記憶體會隨需擷取，並在執行時間插入 LLM 提示內容。這會建立持久性記憶體迴圈，其中代理程式會保留跨工作階段、任務或互動的連續性。

**RAG**

RAG 透過結合擷取的知識與生成功能來增強 LLM 效能。發出目標或查詢時，客服人員會搜尋擷取索引 （例如，透過對文件的語意搜尋、先前的對話或結構化知識）。擷取的結果會附加到 LLM 提示中，這將導致產生外部事實或個人化內容。此方法可擴展代理程式的有效記憶體，並改善可靠性和事實正確性。

**內容內學習和提示鏈結**

客服人員會使用工作階段內字符內容和結構化提示鏈結來維護短期記憶體。內容元素，例如目前的計劃、先前的動作結果和客服人員狀態，會在呼叫之間傳遞，以引導行為。

**持續預先訓練和微調**

對於特定網域的代理程式，LLMs 可以在自訂集合上繼續預先訓練，例如日誌、企業資料或產品文件。或者，從人類意見回饋 (RLHF) 進行指令微調或強化學習，可以將類似客服人員的行為直接嵌入模型中。這會將推理模式從提示時間邏輯轉移到模型的內部表示法、減少提示長度並提高效率。

## 代理式 AI 的合併優勢
<a name="benefits"></a>

這些技術一起使用時，可讓生成式 AI 代理器：
+ 隨著時間的推移保持情境感知。
+ 根據使用者歷史記錄或偏好設定調整行為。
+ 使用up-to-date、事實或私有知識做出決策。
+ 使用持久性、合規且可解釋的行為擴展到企業使用案例。

透過使用外部記憶體、擷取層和持續訓練增強 LLMs，客服人員可以達成先前無法單獨透過符號系統達成的認知持續性和目的層級。

# 比較傳統 AI 與軟體代理程式和代理程式 AI
<a name="comparison"></a>

下表提供傳統 AI、軟體代理程式和代理程式 AI 的詳細比較。


| 特性 | 傳統 AI | 軟體代理程式 | 代理式 AI | 
| --- | --- | --- | --- | 
|  範例  |  垃圾郵件篩選條件、影像分類器、建議引擎  |  Chatbot、任務排程器、監控代理程式  |  AI 助理、自主開發人員代理程式、多代理程式 LLM 協調  | 
|  執行模型  |  批次或同步  |  事件驅動或排程  |  非同步、事件驅動和目標驅動  | 
|  自主性  |  有限；通常需要人工或外部協同運作  |  中；在預先定義的邊界內獨立運作  |  高；獨立執行自適應策略  | 
|  反應  |  對輸入資料有反應  |  對環境和事件有反應  |  被動和主動；預測並啟動動作  | 
|  主動性  |  罕見  |  存在於某些系統中  |  核心屬性；推動目標導向行為  | 
|  Communication  |  最小；通常為獨立或 API 繫結  |  客服人員間或客服人員-人類傳訊  |  豐富的多代理程式和human-in-the-loop互動  | 
|  決策  |  僅限模型推論 （分類、預測等）  |  符號推理，或規則式或指令碼式決策  |  內容式、目標型、動態推理 （通常是 LLM 增強型）  | 
|  委派的意圖  |  否；執行使用者直接定義的任務  |  部分；代表範圍有限的使用者或系統  |  是；通常跨服務、使用者或系統使用委派的目標  | 
|  學習和適應  |  通常以模型為中心 （例如 ML 訓練）  |  有時適應性  |  內嵌學習、記憶體或推理 （例如，意見回饋、自我修正）  | 
|  代理程式  |  無；人類的工具  |  隱含或基本  |  明確； 以目的、目標和自我導向運作  | 
|  內容感知  |  低；無狀態或以快照為基礎的  |  中度；某些狀態追蹤  |  高；使用記憶體、情境內容和環境模型  | 
|  基礎結構角色  |  內嵌在應用程式或分析管道中  |  中介軟體或服務層元件  |  與雲端、無伺服器或邊緣系統整合的可編譯代理程式網格  | 

綜上所述：
+ 傳統 AI 以工具為中心，功能更窄。它著重於預測或分類。
+ 傳統軟體代理程式引入自主權和基本通訊，但它們通常受到規則限制或靜態。
+ 代理式 AI 將自主權、非同步和代理整合在一起。它可讓智慧、目標驅動的實體在複雜的系統中進行推理、行動和調整。這使得代理式 AI 非常適合雲端原生 AI 驅動的未來。