

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 物件偵測請求和回應格式
<a name="object-detection-in-formats"></a>

以下頁面說明 Amazon SageMaker AI 物件偵測 - MXNet 模型的推論請求和回應格式。

## 要求格式
<a name="object-detection-json"></a>

利用模型的端點來查詢訓練過的模型。端點可接受 .jpg 和 .png 影像格式，以及 `image/jpeg` 和 `image/png` 內容類型。

## 回應格式
<a name="object-detection-recordio"></a>

回應是一種類別索引，其具有以 JSON 格式編碼影像內之所有物件的可信度分數及邊界框座標。以下是回應 .json 檔案的範例：

```
{"prediction":[
  [4.0, 0.86419455409049988, 0.3088374733924866, 0.07030484080314636, 0.7110607028007507, 0.9345266819000244],
  [0.0, 0.73376623392105103, 0.5714187026023865, 0.40427327156066895, 0.827075183391571, 0.9712159633636475],
  [4.0, 0.32643985450267792, 0.3677481412887573, 0.034883320331573486, 0.6318609714508057, 0.5967587828636169],
  [8.0, 0.22552496790885925, 0.6152569651603699, 0.5722782611846924, 0.882301390171051, 0.8985623121261597],
  [3.0, 0.42260299175977707, 0.019305512309074402, 0.08386176824569702, 0.39093565940856934, 0.9574796557426453]
]}
```

此 .json 檔案中的每個資料列都包含一個代表偵測物件的陣列。每個物件陣列都包含六個數字的清單。第一個數字是預估的類別標籤。第二個數字是偵測的相關可信度分數。最後四個數字代表邊界框座標 [xmin, ymin, xmax, ymax]。這些輸出邊界框的邊角索引會由整體影像大小來標準化。請注意，這個編碼和輸入 .json 格式使用的編碼不同。例如，在偵測結果的第一個項目中，0.3088374733924866 (以整體影像寬度的比例表示) 是邊界框左側座標 (左上角 x 軸)，0.07030484080314636 (以整體影像高度的比例表示) 是邊界框上方座標 (左上角 y 軸)，0.7110607028007507 (以整體影像寬度的比例表示) 是邊界框右側座標 (右下角 x 軸)，而 0.9345266819000244 (以整體影像高度的比例表示) 是邊界框下方座標 (右下角 y 軸)。

為了避免不可靠的偵測結果，建議您篩選掉可信度分數較低的偵測結果。在[物件偵測範例筆記本](https://github.com/aws/amazon-sagemaker-examples/blob/main/introduction_to_amazon_algorithms/object_detection_birds/object_detection_birds.ipynb)中，我們會提供多個指令碼的範例，這些指令碼使用閾值來移除低可信度偵測，並在原始影像上繪製邊界框。

若是批次轉換，回應為 JSON 格式，並與上述的 JSON 格式相同。每個影像的偵測結果均以 JSON 檔案來表示。例如：

```
{"prediction": [[label_id, confidence_score, xmin, ymin, xmax, ymax], [label_id, confidence_score, xmin, ymin, xmax, ymax]]}
```

如需訓練與推論的詳細資訊，請參閱[物件偵測範例筆記本](object-detection.md#object-detection-sample-notebooks)。

## 輸出：JSON 回應格式
<a name="object-detection-output-json"></a>

accept：application/json;annotation=1

```
{
   "image_size": [
      {
         "width": 500,
         "height": 400,
         "depth": 3
      }
   ],
   "annotations": [
      {
         "class_id": 0,
         "score": 0.943,
         "left": 111,
         "top": 134,
         "width": 61,
         "height": 128
      },
      {
         "class_id": 0,
         "score": 0.0013,
         "left": 161,
         "top": 250,
         "width": 79,
         "height": 143
      },
      {
         "class_id": 1,
         "score": 0.0133,
         "left": 101,
         "top": 185,
         "width": 42,
         "height": 130
      }
   ]
}
```