

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# アダプターの作成と使用
<a name="creating-and-using-adapters"></a>

アダプターは、既存の Rekognition 深層学習モデルに追加できるモジュール式のコンポーネントであり、トレーニング対象のタスクに合わせて機能を拡張できます。アダプターを使って深層学習モデルをトレーニングすることにより、特定のユースケースに関連するイメージ分析タスクの精度を高めることができます。

アダプターを作成して使用するには、Rekognition にトレーニングデータとテストデータを提供する必要があります。そのためには、次のうちいずれかの方法を実行します。
+ 一括分析と検証 - Rekognition が分析とラベルの割り当てを行うイメージを一括分析することで、トレーニングデータセットを作成できます。その後、イメージ用に生成された注釈をレビューし、予測を検証または修正します。イメージを一括分析する方法の詳細については、「[Bulk analysis](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html)」を参照してください。
+ 手動での注釈 - イメージをアップロードし注釈を付けることによりトレーニングデータを作成するときはこの方法を使います。テストデータは、イメージをアップロードして注釈を付けるか、自動分割することにより作成します。

詳細については、以下のトピックをご覧ください。

**Topics**
+ [

# 一括分析と検証
](adapters-bulk-analysis.md)
+ [

# 手動での注釈
](adapters-manual-annotation.md)

# 一括分析と検証
<a name="adapters-bulk-analysis"></a>

この方法では、トレーニングデータとして使用する大量のイメージをアップロードし、Rekognition を使ってそれらイメージの予測を取得します。それにより、イメージに自動的にラベルが割り当てられます。これらの予測は、アダプターの出発点として使用できます。予測の精度は検証が可能で、アダプターは検証済みの予測に基づいてトレーニングします。これは AWS コンソールで実行できます。



 以下のビデオでは、Rekognition の一括分析機能を使用して大量の画像の予測を取得して検証し、それらの予測でアダプターをトレーニングする方法について説明しています。

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY)


## 一括分析用のイメージのアップロード
<a name="adapters-bulk-analysis-upload-images"></a>

アダプター用のトレーニングデータセットを作成するには、Rekognition がラベルを予測できるよう、イメージを一括でアップロードします。最善の結果を得るには、10,000 を上限として、できる限り多くのトレーニング用イメージを用意し、それらのイメージで、ユースケースのありとあらゆる側面を表現できるようにします。

 AWS コンソールを使用する場合、コンピュータから直接イメージをアップロードしたり、イメージを保存する Amazon Simple Storage Service バケットを提供したりできます。ただし、Rekognition API と SDK を使用する場合は、Amazon Simple Storage Service バケットに保存されているイメージを参照する、マニフェストファイルを提供する必要があります。詳細については「[Bulk analysis](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html)」を参照してください。

## 予測のレビュー
<a name="adapters-bulk-analysis-review-predictions"></a>

イメージを Rekognition コンソールにアップロードすると、Rekognition でそのイメージ用のラベルが生成されます。それにより、これらの予測を真陽性、偽陽性、真陰性、偽陰性のいずれかのカテゴリとして検証できます。予測を検証した後、フィードバックに基づいてアダプターをトレーニングできます。

## アダプターのトレーニング
<a name="adapters-bulk-analysis-train-adapter"></a>

一括分析で返された予測の検証が完了すると、アダプターのトレーニングプロセスを開始できます。

## AdapterId の取得
<a name="adapters-bulk-analysis-get-adapter"></a>

アダプターのトレーニングが完了すると、アダプターの一意の ID を取得して、Rekognition のイメージ分析 API と共に使用できるようになります。

## API オペレーションの呼び出し
<a name="adapters-bulk-analysis-call-operation"></a>

カスタムのアダプターを適用するには、アダプターをサポートしているイメージ分析 API を呼び出す際にその ID を指定します。これにより、イメージの予測精度が高まります。

# 手動での注釈
<a name="adapters-manual-annotation"></a>

イメージを手動でアップロードし注釈を付けることによりトレーニングデータを作成するときは、この方法を使います。テストデータは、テストイメージをアップロードしこれに注釈をつけるか、自動分割により、Rekognition でトレーニングデータの一部をテストイメージとして使用することによって作成します。

## イメージのアップロードと注釈付け
<a name="adapters-upload-sample-images"></a>

アダプターをトレーニングするには、典型的なユースケースの、サンプルイメージのセットをアップロードする必要があります。最善の結果を得るには、10,000 を上限として、できる限り多くのトレーニング用イメージを用意し、それらのイメージで、ユースケースのありとあらゆる側面を表現できるようにします。

![\[トレーニング画像をインポートするためのオプションを示すインターフェイス。マニフェストファイルをインポートする、S3 バケットからインポートする、コンピュータから画像をアップロードするなどのオプションがある。S3 URI フィールドと、読み取り/書き込みアクセス許可の確保に関する注意が表示されている。\]](http://docs.aws.amazon.com/ja_jp/rekognition/latest/dg/images/adapters-11-traiing-dataset.png)


 AWS コンソールを使用する場合、コンピュータから直接イメージをアップロードしたり、マニフェストファイルを提供したり、イメージを保存する Amazon S3 バケットを提供したりできます。

 ただし、Rekognition API と SDK を使用する場合は、Amazon S3 バケットに保存されているイメージを参照する、マニフェストファイルを提供する必要があります。

イメージの注釈は [Rekognition コンソール](https://console.aws.amazon.com/rekognition)の注釈インターフェイスを使って付けることができます。ラベルを使ってタグ付けすることでイメージに注釈を付けると、トレーニングの「グラウンドトゥルース」が設定されます。また、アダプターをトレーニングする前にトレーニングセットとテストセットを指定するか、自動分割機能を使用する必要があります。データセットの指定とイメージの注釈付けが完了したら、テストセット内の注釈付きイメージに基づいてアダプターを作成できるようになります。その後、アダプターのパフォーマンスを評価できます。

## テストセットの作成
<a name="adapters-training-testing"></a>

注釈付きのテストセットを提供するか、自動分割機能を使用します。トレーニングセットは、アダプターを実際にトレーニングするのに使用します。アダプターは、これらの注釈付きイメージに含まれるパターンを学習します。テストセットは、アダプターを完成させる前にモデルのパフォーマンスを評価するために使用します。

## アダプターのトレーニング
<a name="adapters-train-adapter"></a>

 トレーニングデータの注釈が完了すると、または、マニフェストファイルを提供すると、アダプターのトレーニングプロセスを開始できます。

## アダプター ID の取得
<a name="adapter-get-adapter"></a>

アダプターのトレーニングが完了すると、アダプターの一意の ID を取得して Rekognition のイメージ分析 API と共に使用できるようになります。

## API オペレーションの呼び出し
<a name="adapter-call-operation"></a>

カスタムのアダプターを適用するには、アダプターをサポートしているイメージ分析 API を呼び出す際にその ID を指定します。これにより、イメージの予測精度が高まります。