

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Amazon Rekognition の仕組み
<a name="how-it-works"></a>

Amazon Rekognition には、視覚的分析用に 2 つの API セットが用意されています。
+  画像分析用の Amazon Rekognition Image 
+  ビデオ分析用の Amazon Rekognition Video 

**画像分析**

Amazon Rekognition Image を使用すると、アプリケーションで以下のことができます。
+ 画像内の物体、シーン、概念を検出する
+ 有名人を認識する
+ さまざまな言語のテキストを検出する
+ 画像内の露骨な描写、不適切な内容、暴力的な表現を検出する
+ 顔および顔属性 (年齢や感情など) を検出、分析、比較する
+ 個人用保護具 (PPE) の有無を検出する

ユースケースとしては、写真アプリケーションの機能強化、画像のカタログ化、コンテンツのモデレーションなどがあります。

**ビデオ分析**

Amazon Rekognition Video を使用すると、アプリケーションで以下のことができます。
+ ビデオフレーム間で人物や物体を追跡する
+ 物体を認識する
+ 有名人を認識する
+ 保存済みビデオとストリーミングビデオ内で対象となる人物を検索する
+ 年齢や感情などの顔属性に基づいて顔を分析する
+ 画像内の露骨な描写、不適切な内容、暴力的な表現を検出する
+ タイムスタンプとセグメント別に分析結果の集計、ソートする
+ ストリーミングビデオ内の人、ペット、荷物を検出する

ユースケースには、ビデオの分析、ビデオのカタログ化、不適切なコンテンツのフィルタリングなどがあります。

**主な特徴**
+ 強力な深層学習分析
+ 物体、シーン、顔、テキストの高精度な検出
+ アプリケーションへの統合が容易な API
+ データに合わせてチューニング可能なモデル
+ メディアライブラリのスケーラブルな分析



Amazon Rekognition では、カスタムアダプターをトレーニングすることで、特定の深層学習モデルの精度を向上させることができます。例えば、Amazon Rekognition のカスタムモデレーションを使用すると、お客様の画像でカスタムアダプターをトレーニングすることで、Amazon Rekognition の基本画像分析モデルを必要に応じて調整できます。詳細については、「[カスタムモデレーションによる精度の向上](https://docs.aws.amazon.com/rekognition/latest/dg/moderation-custom-moderation.html)」を参照してください。

以下のセクションでは、Amazon Rekognition で可能な分析のタイプと、Amazon Rekognition Image および Amazon Rekognition Video のオペレーションの概要について説明します。また、非ストレージ型オペレーションとストレージ型オペレーションの違いについても説明します。

Amazon Rekognition APIs をデモするには、[ステップ 3: AWS CLI と AWS SDK API の使用を開始する](https://docs.aws.amazon.com/rekognition/latest/dg/get-started-exercise.html)を参照してください。ここでは、 AWS コンソールで Rekognition を試す方法について説明します。

**Topics**
+ [Rekognition の分析タイプについて](how-it-works-types.md)
+ [Rekognition の画像およびビデオオペレーションについて](how-it-works-operations-intro.md)
+ [非ストレージ型およびストレージ型の API オペレーションについて](how-it-works-storage-non-storage.md)
+ [モデルのバージョニングについて](face-detection-model.md)

# Rekognition の分析タイプについて
<a name="how-it-works-types"></a>

Amazon Rekognition Image API と Amazon Rekognition Video API で実行できる分析のタイプは以下のとおりです。API の詳細については、「[Rekognition の画像およびビデオオペレーションについて](how-it-works-operations-intro.md)」を参照してください。

以下の表は、使用するメディアのタイプおよびユースケースに応じて使用すべきオペレーションを一覧にまとめたものです。


****  

| ユースケース | メディアタイプ | オペレーション | 
| --- | --- | --- | 
|  [コンテンツのモデレーション](moderation.md)  | イメージ |  [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)、[StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html)、[GetMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetMediaAnalysisJob.html)、[ListMediaAnalysisJobs](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListMediaAnalysisJobs.html)  | 
|  | 保存済みビデオ |  [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html)、[GetContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetContentModeration.html)   | 
| 本人確認 | [イメージ](collections.md) | [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html)、[CreateUser](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateUser.html)、[IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html)、[AssociateFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_AssociateFaces.html)、[SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html)、[SearchUsersByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchUsersByImage.html) | 
|  | [保存済みビデオ](procedure-person-search-videos.md) | [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html)、[IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html)、[StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html)、[GetFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceSearch.html) | 
|  | ストリーミングビデオ ([顔のライブネスの検出](face-liveness.md)) |  [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)、[StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceLivenessSession.html)、[GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html)  | 
| [顔分析](faces.md) | イメージ | [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html)、[CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html) | 
|  | 保存済みビデオ | [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html)、[GetFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceDetection.html) | 
|  | ストリーミングビデオ | [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html)、[StartStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartStreamProcessor.html) | 
| [オブジェクトとアクティビティの認識](labels.md) | イメージ | [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html) | 
|  | 保存済みビデオ | [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartLabelDetection.html)、[GetLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetLabelDetection.html) | 
| [コネクテッドホーム](https://github.com/aws-samples/rekognition-streaming-video-events) | ストリーミングビデオ | [StartStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartStreamProcessor.html) | 
| [メディア分析](segments.md) | 保存済みビデオ | [StartSegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartSegmentDetection.html)、[GetSegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetSegmentDetection.html) | 
| [職場の安全](ppe-detection.md) | イメージ | [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html) | 
| [テキストの検出](text-detection.md) | イメージ | [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html) | 
|  | 動画 | [StartTextDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartTextDetection.html)、[GetTextDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetTextDetection.html) | 
| [人物の動線の検出](persons.md) | 動画 | [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html)、[GetPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetPersonTracking.html) | 
| [有名人の認識](celebrities.md) | イメージ | [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html) | 
|  | 動画 | [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html)、[GetCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetCelebrityRecognition.html) | 
| [カスタムラベル検出](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html) | イメージ | [DetectCustomLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectCustomLabels.html) | 
|  | モデルトレーニング | [「Custom Labels developer guide」を参照のこと](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html) | 

## ラベル
<a name="how-it-works-labels-intro"></a>

ラベルとは、オブジェクト (花、木、テーブルなど)、イベント (結婚式、卒業式、誕生日会など)、概念 (風景、夜、自然など)、アクティビティ (走る、バスケットボールをするなど) のうちのいずれかを指します。Amazon Rekognition では、イメージやビデオ内のラベルを検出できます。詳細については、「[オブジェクトおよび概念の検出](labels.md)」を参照してください。

Rekognition は、イメージや保存済みビデオから、大量のラベルリストを検出できます。また、ストリーミングビデオから少数のラベルを検出することもできます。

ラベルを検出するには、ユースケースに応じて次のオペレーションを使用します。
+ イメージ内のラベルを検出するには、[DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html) を使用します。主要な色や画質といったイメージの特性を識別できます。実行するには、[DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html) と共に `IMAGE_PROPERTIES` を入力パラメータとして使用します。
+ 保存済みビデオのラベルを検出するには、[StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartLabelDetection.html) を使用します。保存済みビデオでは、主要な色や画質の検出はサポートされていません。
+ ストリーミングビデオのラベルを検出するには、[CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html) を使用します。ストリーミングビデオでは、主要な色や画質の検出はサポートされていません。

イメージと保存済みビデオの両方で返すラベルの種類は、包含フィルターと除外フィルターのオプションを使用することで指定できます。

## カスタムラベル
<a name="how-it-works-custom-labels-intro"></a>

Amazon Rekognition カスタムラベルは、機械学習モデルをトレーニングすることで、ビジネスニーズに固有のイメージ内のオブジェクトやシーンを識別できます。たとえば、モデルをトレーニングして、ロゴを検出したり、組立ラインでエンジニアリング機械部品を検出したりできます。

**注記**  
Amazon Rekognition カスタムラベルの詳細については、[[Amazon Rekognition カスタムラベル開発者ガイド](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html)] を参照してください。

Amazon Rekognition には、機械学習モデルの作成、トレーニング、評価、実行に使用するコンソールが用意されています。詳細については、[[Amazon Rekognition カスタムラベル デベロッパーガイド](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/gs-introduction.html)] の [*Amazon Rekognition カスタムラベルを使い始める*] を参照してください。Amazon Rekognition カスタムラベル API を使用して、モデルをトレーニングおよび実行することもできます。詳細については、[[Amazon Rekognition カスタムラベル デベロッパー ガイド](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/gs-cli.html)] の [*Amazon Rekognition カスタムラベル SDK を使い始める*] を参照してください。

トレーニングされたモデルを使用してイメージを分析するには、[DetectCustomLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectCustomLabels.html) を使用します。

## Face Liveness による検出
<a name="face-liveness-detection"></a>

Amazon Rekognition Face Liveness を使用すると、顔での本人確認をパスしたユーザーが実際にカメラの前に存在しており、そのユーザーをかたった偽者ではないことを、確認できます。Face Liveness は、カメラにしかけられたなりすまし攻撃やカメラを回避する攻撃を検出する機能です。Face Liveness のチェックはユーザーが短い自撮り動画を撮影することで完了し、それにより Liveness のスコアが返されます。Face Liveness は確率的計算で算出され、チェック後に信頼スコア (0～100) が返されます。スコアが高いほど、チェックした人物が実在している確実性が高くなります。

Face Liveness の詳細については、「[顔のライブネスの検出](face-liveness.md)」を参照してください。

## 顔の検出と分析
<a name="how-it-works-faces-intro"></a>

Amazon Rekognition では、イメージおよび保存済みビデオ内の顔を検出できます。Amazon Rekognition を使用すると、以下に関する情報を取得できます。
+ イメージまたはビデオで顔が検出された場所
+ 顔のランドマーク (目の位置など)
+ イメージ内で顔を覆っている物の有無
+ 確認できる感情 (うれしい、悲しいなど)
+ イメージ内にいる人の視線の方向

性別や年齢といった人口統計的情報を読み取ることもできます。また、イメージ内の顔を、別のイメージで検出された顔と比較することもできます。顔に関する情報を保存して、後で取得することもできます。詳細については、「[顔の検出と分析](faces.md)」を参照してください。

イメージから顔を検出するときは [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html) を使用します。保存済みビデオから顔を検出するときは [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html) を使用します。

## 顔検索
<a name="how-it-works-search-faces-intro"></a>

Amazon Rekognition では顔を検索することができます。顔情報は、コレクションと呼ばれるコンテナ内にインデックス付けされます。これにより、コレクション内の顔情報を、イメージ、保存済みビデオ、ストリーミングビデオで検出された顔と照合することができます。詳細については、[コレクション内での顔の検索](collections.md) を参照してください。

イメージから既知の顔を検索するときは [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html) を使用します。保存済みビデオで顔を検索するときは [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html) を使用します。ストリーミングビデオで既知の顔を検索するときは [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html) を使用します。

## 人物の動線
<a name="how-it-works-persons-intro"></a>

Amazon Rekognition では、保存されたビデオで検出された人物のパスを追跡できます。Amazon Rekognition Video は、ビデオで検出された人物のパス追跡、顔の詳細、およびフレーム内の位置情報を提供します。詳細については、「[人物の動線の検出](persons.md)」を参照してください。

保存済みビデオから人物を検出するときは [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html) を使用します。

## 個人用保護具
<a name="how-it-works-ppe-intro"></a>

 Amazon Rekognition では、イメージ内で検出された人物が着用している個人用保護具 (PPE) を検出できます。Amazon Rekognition は、フェイスカバー、ハンドカバー、ヘッドカバーを検出します。Amazon Rekognition は、PPE のアイテムが適切な体の部位をカバーしているかどうかを予測します。検出された人物や PPE アイテムの境界ボックスを取得することもできます。詳細については、「[個人用保護具を検出する。](ppe-detection.md)」を参照してください。

イメージから PPE を検出するときは [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html) を使用します。

## 有名人
<a name="how-it-works-celebrities-intro"></a>

 Amazon Rekognition では、イメージや保存されたビデオに写っている多数の有名人を認識できます。イメージで有名人の顔が写っている場所、顔の特徴、表情に関する情報を取得できます。保存済みビデオ全体で表示される有名人の追跡情報を取得できます。また、認識されている有名人について、感情表現や性別の提示などの詳細情報を得ることもできます。詳細については、「[有名人の認識](celebrities.md)」を参照してください。

イメージから有名人を識別するときは [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html) を使用します。保存済みビデオから有名人を識別するときは [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html) を使用します。

## テキストの検出
<a name="how-it-works-text-intro"></a>

Amazon Rekognition Text in Image は、イメージ内のテキストを検出し、機械判読可能なテキストに変換することができます。詳細については、「[テキストの検出](text-detection.md)」を参照してください。

イメージからテキストを検出するときは [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html) を使用します。

## 不適切または不快なコンテンツ
<a name="how-it-works-moderation-intro"></a>

Amazon Rekognition では、イメージや保存されたビデオにアダルトコンテンツや暴力的なコンテンツが含まれていないかどうかを分析できます。詳細については、「[コンテンツのモデレーション](moderation.md)」を参照してください。

イメージから PPE を検出するときは [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) を使用します。保存済みビデオから適切でない内容を検出するときは [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html) を使用します。

## カスタマイズ
<a name="how-it-works-customization"></a>

Rekognition で利用できる特定のイメージ分析 API を使用すると、ユーザー独自のデータでトレーニングされたカスタムアダプターを作成することにより、深層学習モデルの精度を高めることができます。アダプターとは、Rekognition の事前トレーニング済み深層学習モデルにプラグインされるコンポーネントで、ユーザーのイメージに基づく専門知識によりモデルの精度を高めます。アダプターは、サンプルイメージを提供しこれに注釈をつけることにより、ニーズに合うようにトレーニングします。

アダプターを作成すると、AdapterID が提供されます。この AdapterID をオペレーションに提供することで、作成したアダプターを使用するように指定できます。例えば、AdapterId を、同期的にイメージを分析する [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) API に提供するとします。リクエストの一部で AdapterID を指定すると、Rekognition が自動的にこれを使用し、イメージの予測精度を高めます。こうして、Rekognition の機能を活用しつつニーズに合わせてこれをカスタマイズすることができます。

[StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html) API を使用して、イメージの予測を一括で取得することもできます。詳細については「[Bulk analysis](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html)」を参照してください。

Rekognition のコンソールにイメージをアップロードし分析を実行すると、Rekognition のオペレーションの精度を評価できます。Rekognition は選択した機能を使ってイメージに注釈を付けます。その後、予測を検証し、検証済みの予測を使って、アダプターを作成することで恩恵を受けるラベルはどれかを判断できます。

現在ご利用いただけるのは、[DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) の付いたアダプターです。アダプターの作成および使用に関する詳細は、「[カスタムモデレーションによる精度の向上](moderation-custom-moderation.md)」を参照してください。

## 一括分析
<a name="how-it-works-bulk"></a>

Rekognition の一括分析を使用すると、[StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html) オペレーションと併せてマニフェストファイルを使用することにより、大量のイメージのコレクションを非同期的に処理できます。詳細については「[Bulk analysis](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html)」を参照してください。

# Rekognition の画像およびビデオオペレーションについて
<a name="how-it-works-operations-intro"></a>

Amazon Rekognition には、画像分析用とビデオ分析用に 2 つの主要な API セットが用意されています。
+ Amazon Rekognition Image: この API は画像の分析用に設計されています。
+ Amazon Rekognition Video: この API は保存済みビデオとストリーミングビデオの両方の分析に重点を置いています。

どちらの API でも、顔や物体などのさまざまな要素を検出できます。サポートされている比較と検出の両タイプを包括的に理解するには、[Rekognition の分析タイプについて](how-it-works-types.md) に関するセクションを参照してください。

## Amazon Rekognition Image のオペレーション
<a name="how-it-works-operations-images"></a>

Amazon Rekognition Image のオペレーションは同期的に行われます。入力およびレスポンスは JSON 形式です。Amazon Rekognition Image オペレーションでは、.jpg 形式または .png 形式の入力イメージを分析します。Amazon Rekognition Image オペレーションに渡されたイメージは、Amazon S3 バケットに保存できます。AWS CLI を使用しない場合は、Base 64 エンコードされた画像のバイトを Amazon Rekognition オペレーションに直接渡すこともできます。詳細については、「[画像の操作](https://docs.aws.amazon.com/rekognition/latest/dg/images.html)」を参照してください。

## Amazon Rekognition Video オペレーション
<a name="how-it-works-operations-video-intro"></a>

Amazon Rekognition Video API により、Amazon S3 バケットに保存されたビデオまたは Amazon Kinesis Video Streams を介してストリーミングされるビデオの分析が容易になります。

保存済みビデオのオペレーションについては、以下の点に注意してください。
+ オペレーションは非同期的に実行されます。
+ 分析は「Start」オペレーション (例えば、保存済みビデオ内の顔検出の場合は [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html)) で開始する必要があります。
+ 分析の完了ステータスは Amazon SNS トピックに発行されます。
+ 分析結果を取得するには、対応する「Get」オペレーション (例えば、[GetFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceDetection.html)) を使用します。
+ 詳細については、「[保存済み動画分析での作業](https://docs.aws.amazon.com/rekognition/latest/dg/video.html)」を参照してください。

ストリーミングビデオ分析の場合:
+ Rekognition Video コレクションでの顔検索やラベル (物体や概念) 検出などの機能があります。
+ ラベルの分析結果は Amazon SNS と Amazon S3 の通知として送信されます。
+ 顔検索の結果は Kinesis データストリームに出力されます。
+ ストリーミングビデオ分析の管理は、Amazon Rekognition Video ストリームプロセッサを介して行われます (例えば、[CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html) を使用してプロセッサを作成します)。
+ 詳細については、「[ストリーミングビデオイベントの操作](https://docs.aws.amazon.com/rekognition/latest/dg/streaming-video.html)」を参照してください。

各ビデオ分析オペレーションでは、分析中のビデオに関するメタデータのほか、ジョブ ID とジョブタグが返されます。ビデオに対するラベルの検出やコンテンツのモデレーションなどのオペレーションでは、タイムスタンプまたはラベル名でソートしたり、タイムスタンプまたはセグメント別に結果を集計したりできます。

## 非ストレージ型およびストレージ型のオペレーション
<a name="how-it-works-operations-video-storage"></a>

Amazon Rekognition オペレーションは次の種類に分類されます。
+ [**非ストレージ型 API オペレーション**] - このオペレーションでは、Amazon Rekognition によって情報は保存されません。入力イメージやビデオを指定すると、オペレーションで分析が実行されてその結果が返されますが、Amazon Rekognition によって情報は保存されません。詳細については、「[非ストレージ型オペレーション](how-it-works-storage-non-storage.md#how-it-works-non-storage)」を参照してください。
+ [**ストレージ型 API オペレーション**] - Amazon Rekognition サーバーは、検出された顔情報をコレクションと呼ばれるコンテナに保存できます。Amazon Rekognition には、保存された顔情報から一致する顔を検索するための追加の API オペレーションが用意されています。詳細については、「[ストレージ型 API オペレーション](how-it-works-storage-non-storage.md#how-it-works-storage-based)」を参照してください。

## AWS SDK または HTTP による Amazon Rekognition API オペレーションの呼び出し
<a name="images-java-http"></a>

AWS SDK を使用するか、直接 HTTP を使用して Amazon Rekognition API オペレーションを呼び出すことができます。正当な理由がない限り、常に AWS SDK を使用してください。このセクションの Java の例では、[AWS SDK](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/setup-install.html) を使用しています。Java プロジェクトファイルは提供されていませんが、Java を使用する AWS アプリケーションは [AWS Toolkit for Eclipse](https://docs.aws.amazon.com/AWSToolkitEclipse/latest/GettingStartedGuide/) で開発できます。

このセクションの .NET 例では [AWS SDK for .NET](https://docs.aws.amazon.com/sdk-for-net/latest/developer-guide/welcome.html) を使用します。[AWS Toolkit for Visual Studio](https://docs.aws.amazon.com/AWSToolkitVS/latest/UserGuide/welcome.html) では、.NET を使用して AWS アプリケーションを開発できます。便利なテンプレートと AWS Explorer を使用して、アプリケーションをデプロイし、サービスを管理できます。

このガイドの「[API Reference](https://docs.aws.amazon.com/rekognition/latest/APIReference/Welcome.html)」では、HTTP を使用した Amazon Rekognition オペレーションの呼び出しについて説明します。Java に関する参考情報については、「[AWS SDK for Java](https://docs.aws.amazon.com/sdk-for-java/latest/reference/index.html)」を参照してください。

使用できる Amazon Rekognition サービスエンドポイントについては、[[AWS のリージョンとエンドポイント](https://docs.aws.amazon.com/general/latest/gr/rande.html#rekognition_region)] を参照してください。

HTTP で Amazon Rekognition を呼び出す場合は、POST HTTP オペレーションを使用します。

# 非ストレージ型およびストレージ型の API オペレーションについて
<a name="how-it-works-storage-non-storage"></a>

Amazon Rekognition には、2 つのタイプの API オペレーションがあります。1 つは Amazon Rekognition によって情報が保存されない非ストレージ型オペレーションで、もう 1 つは Amazon Rekognition によって特定の顔情報が保存されるストレージ型オペレーションです。

## 非ストレージ型オペレーション
<a name="how-it-works-non-storage"></a>

Amazon Rekognition には、以下のイメージ用の非ストレージ型 API オペレーションがあります。
+ [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html)
+ [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html) 
+ [CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html) 
+ [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) 
+ [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html) 
+ [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html) 
+ [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html) 
+ [GetCelebrityInfo](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetCelebrityInfo.html) 

Amazon Rekognition には、以下のビデオ用の非ストレージ型 API オペレーションがあります。
+ [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartlabelDetection.html) 
+ [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html) 
+ [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html)
+ [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html)
+ [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html)

これらは、[*非ストレージ型*] の API オペレーションと呼ばれます。この型のオペレーションを呼び出すと、Amazon Rekognition で入力イメージに関して検出された情報は保持されません。他のすべての Amazon Rekognition API オペレーションと同様に、非ストレージ型の API オペレーションでは入力イメージのバイトが保持されません。

以下のシナリオ例では、非ストレージ型の API オペレーションをアプリケーションに統合できることを示します。各シナリオでは、イメージのローカルリポジトリがあることを想定しています。

**Example 1: ローカルリポジトリ内で、特定のラベルを含むイメージを検索するアプリケーション**  
最初に、次に示すように Amazon Rekognition `DetectLabels` オペレーションを使用してリポジトリ内のイメージごとにラベル (オブジェクトと概念) を検出し、クライアント側のインデックスを構築します。  

```
Label        ImageID

tree          image-1
flower        image-1
mountain      image-1
tulip         image-2
flower        image-2
apple         image-3
```
次に、このインデックスを検索することで、ローカルリポジトリ内で特定のラベルを含むイメージを見つけることができます。たとえば、樹木を含むイメージを表示します。  
Amazon Rekognition で検出するラベルごとに、信頼値が関連付けられます。信頼値は、入力イメージにそのラベルが含まれている確率 (信頼度) を示します。この信頼値を使用して、検出の信頼度に関するアプリケーションの要件に応じて、ラベルに対するクライアント側の追加のフィルタリングを実行できます。たとえば、正確なラベルを必要とする場合は、信頼度の高い (95% 以上) ラベルに絞り込んで選択します。信頼値がそれほど高くなくてもよい場合は、信頼値が低い (50% 程度) ラベルに絞り込んで選択してください。

**Example 2: 強化した顔イメージを表示するアプリケーション**  
まず、Amazon Rekognition `DetectFaces` オペレーションを使用してローカルリポジトリ内のイメージごとに顔を検出し、クライアント側のインデックスを構築できます。検出された顔ごとに、境界ボックス、顔の特徴 (口や耳の位置)、顔の属性 (性別など) を含むメタデータが返されます。次に示すように、このメタデータはクライアント側のローカルインデックスに保存できます。  

```
ImageID     FaceID     FaceMetaData

image-1     face-1     <boundingbox>, etc.
image-1     face-2     <boundingbox>, etc.
image-1     face-3     <boundingbox>, etc.
...
```
このインデックスでは、プライマリキーは `ImageID` と `FaceID` の組み合わせです。  
次に、このインデックス内の情報を使用して、アプリケーションでローカルリポジトリのイメージを表示するときのイメージを強化できます。たとえば、境界ボックスを顔の周囲に配置したり、顔の特徴を強調したりできます。  
 

## ストレージ型 API オペレーション
<a name="how-it-works-storage-based"></a>

Amazon Rekognition Image は、イメージ内の顔を検出し、Amazon Rekognition コレクションで検出された顔の特徴の情報を保持するための [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html) オペレーションをサポートしています。サービスによって情報がサーバーに保持されるため、これは *ストレージベース* の API オペレーションの例です。

Amazon Rekognition Image に用意されているストレージ型 API オペレーションは次のとおりです。
+ [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html)
+ [ListFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListFaces.html) 
+ [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html) 
+ [SearchFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFaces.html) 
+ [DeleteFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteFaces.html) 
+ [DescribeCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeCollection.html) 
+ [DeleteCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteCollection.html)
+ [ListCollections](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListCollections.html)
+ [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html) 

Amazon Rekognition Video に用意されているストレージ型 API オペレーションは次のとおりです。
+ [StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html) 
+ [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html)

顔の情報を保存するには、まず、アカウントの AWS リージョンのいずれかで顔コレクションを作成する必要があります。この顔コレクションは、`IndexFaces` オペレーションを呼び出すときに指定します。顔コレクションを作成して、すべての顔の特徴情報を保存すると、コレクション内で一致する顔を検索できます。たとえば、イメージ内で最も大きい顔を検出し、一致する顔がないかコレクションを検索するには、`searchFacesByImage.` を呼び出します。

`IndexFaces` によってコレクション内に保存された顔情報は、Amazon Rekognition Video オペレーションで利用することができます。例えば、[StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html) を呼び出すと、既存コレクション内の顔と一致する顔の人物がいないか、ビデオを検索できます。

コレクションの作成および管理については、「[コレクション内での顔の検索](collections.md)」を参照してください。

**注記**  
コレクションには、顔の数学的表現である顔ベクトルが保存されます。コレクションには、顔の画像は保存されません。

**Example 1: ビルへの立ち入りを認証するアプリケーション**  
まず、`IndexFaces` オペレーションを使用して、バッジのスキャンイメージを保存する顔コレクションを作成します。これにより、顔が抽出され、検索可能なイメージベクトルとして保管されます。次に、従業員が建物に入る際に従業員の顔のイメージが撮影されて `SearchFacesByImage` オペレーションに送信されます。十分に高い類似度スコア (99% など) で顔が一致すると、この社員を認証できます。

# モデルのバージョニングについて
<a name="face-detection-model"></a>

Amazon Rekognition では、深層学習モデルを使用して顔検出を実行し、コレクション内の顔を検索します。顧客フィードバックに基づいてモデルの精度の改善を継続的に行い、ディープラーニング研究を進めています。これらの改善点はモデル更新に反映されて提供されます。例えば、バージョン 1.0 のモデルの場合は、[IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html) を使用すると、イメージ内にある 15 の最大の顔にインデックスを付けることができます。これ以降のバージョンのモデルでは、`IndexFaces` を使用し、イメージ内の 100 の大きい顔にインデックスを付けることができます。

新しいコレクションを作成すると、最新バージョンのモデルにこのコレクションが関連付けられます。精度を向上させるには、モデルを定期的に更新してください。

 新しいバージョンのモデルがリリースされると、以下の動作が発生します。
+ 作成する新しいコレクションが最新モデルに関連付けられます。[IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html) を使用して新しいコレクションに追加する顔は、この最新モデルを使用して検出されます。
+ 既存のコレクションでは、このコレクションを作成したバージョンのモデルを引き続き使用します。これらのコレクションに保存されている顔ベクトルは、最新バージョンのモデルに自動的に更新されません。
+ 既存のコレクションに追加された新しい顔は、そのコレクションに既に関連付けられているモデルを使用して検出されます。

各バージョンのモデルは互いに互換性はありません。具体的にいうと、異なるバージョンのモデルを使用した複数のコレクションのイメージにインデックスを付けた場合は、検出された顔が同じであっても顔の識別子は異なります。同じモデルに関連付けられた複数のコレクションのイメージにインデックスを付けた場合、顔の識別子は同じになります。

モデルのアップデートを考慮せずにコレクション管理を行うと、アプリケーションで互換性問題が発生する可能性があります。コレクションオペレーション (`CreateCollection` など) のレスポンスで返される `FaceModelVersion` フィールドを使用すると、コレクションで使用しているモデルのバージョンを確認できます。[DescribeCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeCollection.html) を呼び出して、既存のコレクションのモデルバージョンを取得できます。詳細については、「[コレクションの定義](describe-collection-procedure.md)」を参照してください。

コレクション内の既存の顔ベクトルは、それ以降のバージョンのモデルに更新することはできません。Amazon Rekognition はソースイメージのバイトを保存しないため、新しいバージョンのモデルを使用して自動的にイメージを再インデックスすることはできません。

既存のコレクションに保存されている顔に対して最新モデルを使用するには、新しいコレクションを作成し ([CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html))、この新しいコレクションのイメージにインデックスを付けます (`Indexfaces`)。新しいコレクションの顔の識別子は古いコレクションの顔の識別子とは異なるため、アプリケーションによって保存される顔の識別子をすべて更新する必要があります。古いコレクションが不要になった場合は、[DeleteCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteCollection.html) を使用して削除できます。

[DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html) などのステートレスオペレーションは、モデルの最新バージョンを使用します。