

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 建立和使用轉接器
<a name="creating-and-using-adapters"></a>

轉接器是模組化元件，可新增至現有的 Rekognition 深度學習模型中，擴充其功能以適用於其所訓練的任務。透過使用轉接器訓練深度學習模型，您可以使與特定使用案例相關的映像分析工作達到更高的準確度。

若要建立和使用轉接器，您必須提供訓練和測試資料給 Rekognition。您可以透過兩種方式完成此操作：
+ 批量分析和驗證：您可以透過批量分析 Rekognition 將分析並指派標籤的映像來建立訓練資料集。然後，您可以查看為映像生成的註釋，並驗證或更正預測。如需映像批量分析如何運作的詳細資訊，請參閱[批量分析](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html)。
+ 手動註釋：使用這種方法，可以透過上傳和註釋映像來建立訓練資料。您可以透過上傳和註釋映像或通過自動分割來建立測試資料。

選擇下列其中一個主題以進一步了解：

**Topics**
+ [

# 批量分析和驗證
](adapters-bulk-analysis.md)
+ [

# 手動註釋
](adapters-manual-annotation.md)

# 批量分析和驗證
<a name="adapters-bulk-analysis"></a>

透過這種方法，您可以上傳大量要用作訓練資料的映像，然後使用 Rekognition 取得這些映像的預測結果，並自動為這些映像指派標籤。您可以使用這些預測做為轉接器的起點。您可以驗證預測的準確性，然後根據驗證的預測來訓練轉接器。這可以透過 AWS 主控台完成。



 以下影片示範如何使用 Rekognition 的大量分析功能來取得和驗證大量影像的預測，然後使用這些預測來訓練轉接器。

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY)


## 上傳映像以進行批量分析
<a name="adapters-bulk-analysis-upload-images"></a>

若要為您的轉接器建立訓練資料集，請批量上傳映像以供 Rekognition 預測標籤。為了獲得最佳結果，應盡可能提供最多可訓練的映像，最高限制為 10000，並確保映像代表使用案例的各個層面。

使用 AWS 主控台時，您可以直接從電腦上傳映像，或提供存放映像的 Amazon Simple Storage Service 儲存貯體。但是，將 Rekognition API 與 SDK 搭配使用時，您必須提供資訊清單檔案，該檔案參考存放在 Amazon Simple Storage Service 儲存貯體中的映像。如需詳細資訊，請參閱[批量分析](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html)。

## 審查預測
<a name="adapters-bulk-analysis-review-predictions"></a>

一旦您將映像上傳到 Rekognition 主控台，Rekognition 就會為這些映像產生標籤。然後，您可以將預測驗證為以下類別之一：真陽性、偽陽性、真陰性、偽陰性。驗證預測後，可以根據您的反饋訓練轉接器。

## 訓練轉接器
<a name="adapters-bulk-analysis-train-adapter"></a>

完成批量分析傳回的預測驗證後，您可以啟動轉接器的訓練程序。

## 取得 AdapterId
<a name="adapters-bulk-analysis-get-adapter"></a>

轉接器訓練完畢後，您就可以取得轉接器的唯一 ID，以便與 Rekognition 的映像分析 API 搭配使用。

## 呼叫 API 操作
<a name="adapters-bulk-analysis-call-operation"></a>

若要套用您的自訂轉接器，請在呼叫其中一個支援轉接器的映像分析 API 時提供其 ID。這樣可以增強映像預測的準確性。

# 手動註釋
<a name="adapters-manual-annotation"></a>

使用這種方法，您可以透過手動上傳和註釋映像來建立訓練資料。您可以透過上傳和註解測試映像或自動分割來建立測試資料，讓 Rekognition 自動使用部分訓練資料做為測試映像。

## 上傳和註解映像
<a name="adapters-upload-sample-images"></a>

若要訓練轉接器，您必須上傳一組代表您使用案例的範例映像。為了獲得最佳結果，應盡可能提供最多可訓練的映像，最高限制為 10000，並確保映像代表使用案例的各個層面。

![\[介面顯示匯入訓練影像的選項，以及匯入資訊清單檔案、從 S3 儲存貯體匯入或從電腦上傳影像的選項。包含 S3 URI 欄位，並注意確保讀取/寫入許可。\]](http://docs.aws.amazon.com/zh_tw/rekognition/latest/dg/images/adapters-11-traiing-dataset.png)


使用 AWS 主控台時，您可以直接從電腦上傳映像、提供資訊清單檔案，或提供存放映像的 Amazon S3 儲存貯體。

 但是，將 Rekognition API 與 SDK 搭配使用時，必須提供清單檔案，該檔案參考儲存在 Amazon S3 儲存貯體中的映像。

您可以使用 [Rekognition 主控台](https://console.aws.amazon.com/rekognition)的註解介面來為映像加上註解。通過使用標籤標記映像來註釋映像，為培訓確立「基本真相」。您也必須指定訓練和測試集，或使用自動分割特徵，才能訓練轉接器。完成指定資料集並註解映像後，您可以根據測試集中的註解映像建立配接器。然後，您可以評估轉接器的效能。

## 建立測試集。
<a name="adapters-training-testing"></a>

您將需要提供帶註釋的測試集或使用自動拆分特徵。訓練組是用來實際訓練轉接器。轉接器學習這些帶註釋的映像中包含的模式。測試集用於在完成轉接器之前評估模型的效能。

## 訓練轉接器
<a name="adapters-train-adapter"></a>

 完成訓練資料的註解或提供資訊清單檔案後，您可以啟動轉接器的訓練串流程。

## 取得轉接器 ID
<a name="adapter-get-adapter"></a>

轉接器訓練完畢後，您就可以取得轉接器的唯一 ID，以便與 Rekognition 的映像分析 API 搭配使用。

## 呼叫 API 操作
<a name="adapter-call-operation"></a>

若要套用您的自訂轉接器，請在呼叫其中一個支援轉接器的映像分析 API 時提供其 ID。這樣可以增強映像預測的準確性。