

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# Kinesis 얼굴 인식 JSON 프레임 레코드 이해
<a name="streaming-video-kinesis-output-reference"></a>

Amazon Rekognition Video를 사용하면 스트리밍 비디오에서 얼굴을 인식할 수 있습니다. Amazon Rekognition Video는 분석된 각 프레임마다 JSON 프레임 레코드를 Kinesis 데이터 스트림으로 출력합니다. Amazon Rekognition Video는 Kinesis 비디오 스트림을 통해 전달되는 모든 프레임을 분석하지는 않습니다.

JSON 프레임 레코드에는 입력 및 출력 스트림, 스트림 프로세서의 상태, 분석된 프레임에서 인식되는 얼굴에 대한 정보가 들어 있습니다. 이 단원에서는 JSON 프레임 레코드에 대한 참조 정보를 제시합니다.

다음은 Kinesis 데이터 스트림 레코드에 대한 JSON 구문입니다. 자세한 내용은 [스트리밍 비디오 이벤트 작업](streaming-video.md) 단원을 참조하십시오.

**참고**  
Amazon Rekognition Video API는 입력 스트림의 얼굴을 얼굴 컬렉션과 비교하고 검색된 가장 근접한 일치 항목을 유사성 점수와 함께 반환하는 방식으로 작동합니다.

```
{
    "InputInformation": {
        "KinesisVideo": {
            "StreamArn": "string",
            "FragmentNumber": "string",
            "ProducerTimestamp": number,
            "ServerTimestamp": number,
            "FrameOffsetInSeconds": number
        }
    },
    "StreamProcessorInformation": {
        "Status": "RUNNING"
    },
    "FaceSearchResponse": [
        {
            "DetectedFace": {
                "BoundingBox": {
                    "Width": number,
                    "Top": number,
                    "Height": number,
                    "Left": number
                },
                "Confidence": number,
                "Landmarks": [
                    {
                        "Type": "string",
                        "X": number,
                        "Y": number
                    }
                ],
                "Pose": {
                    "Pitch": number,
                    "Roll": number,
                    "Yaw": number
                },
                "Quality": {
                    "Brightness": number,
                    "Sharpness": number
                }
            },
            "MatchedFaces": [
                {
                    "Similarity": number,
                    "Face": {
                        "BoundingBox": {
                            "Width": number,
                            "Top": number,
                            "Height": number,
                            "Left": number
                        },
                        "Confidence": number,
                        "ExternalImageId": "string",
                        "FaceId": "string",
                        "ImageId": "string"
                    }
                }
            ]
        }
    ]
}
```

## JSON 레코드
<a name="streaming-video-kinesis-output-reference-processorresult"></a>

JSON 레코드에는 Amazon Rekognition Video에서 처리하는 프레임에 대한 정보가 포함되어 있습니다. 레코드에는 스트리밍 비디오, 분석된 프레임의 상태, 프레임에서 인식되는 얼굴에 대한 정보가 포함됩니다.

**InputInformation**

Amazon Rekognition Video로 비디오를 스트리밍하는 데 사용되는 Kinesis 비디오 스트림에 대한 정보입니다.

유형: [InputInformation](#streaming-video-kinesis-output-reference-inputinformation)객체

**StreamProcessorInformation**

Amazon Rekognition Video 스트림 프로세서에 대한 정보. 여기에는 스트림 프로세서의 현재 상태에 대한 상태 정보가 포함됩니다.

유형: [StreamProcessorInformation](streaming-video-kinesis-output-reference-streamprocessorinformation.md)객체 

**FaceSearchResponse**

스트리밍 비디오 프레임에서 감지된 얼굴과 입력 모음에서 발견된 일치하는 얼굴에 대한 정보입니다.

유형: [FaceSearchResponse](#streaming-video-kinesis-output-reference-facesearchresponse) 객체 배열

## InputInformation
<a name="streaming-video-kinesis-output-reference-inputinformation"></a>

Amazon Rekognition Video에서 사용하는 소스 비디오 스트림에 대한 정보입니다. 자세한 내용은 [스트리밍 비디오 이벤트 작업](streaming-video.md) 단원을 참조하십시오.

**KinesisVideo**

유형: [KinesisVideo](#streaming-video-kinesis-output-reference-kinesisvideostreams-kinesisvideo)객체

## KinesisVideo
<a name="streaming-video-kinesis-output-reference-kinesisvideostreams-kinesisvideo"></a>

소스 비디오를 Amazon Rekognition Video로 스트리밍하는 Kinesis 비디오 스트림에 대한 정보입니다. 자세한 내용은 [스트리밍 비디오 이벤트 작업](streaming-video.md) 단원을 참조하십시오.

**StreamArn**

Kinesis 비디오 스트림의 Amazon 리소스 이름(ARN)입니다.

유형: 문자열 

**FragmentNumber**

이 레코드가 나타내는 프레임이 포함된 스트리밍 비디오 조각입니다.

유형: 문자열

**ProducerTimestamp**

조각의 생산자 측 Unix 타임스탬프입니다. 자세한 내용은 [PutMedia](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/API_dataplane_PutMedia.html) 단원을 참조하십시오.

형식: 숫자

**ServerTimestamp**

조각의 서버 측 Unix 타임스탬프입니다. 자세한 내용은 [PutMedia](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/API_dataplane_PutMedia.html) 단원을 참조하십시오.

형식: 숫자

**FrameOffsetInSeconds**

조각 내의 프레임 오프셋(초 단위)입니다.

형식: 숫자 

# StreamProcessorInformation
<a name="streaming-video-kinesis-output-reference-streamprocessorinformation"></a>

스트림 프로세서에 대한 상태 정보입니다.

**상태**

스트림 프로세서의 현재 상태입니다. 가능한 값은 RUNNING입니다.

유형: 문자열

## FaceSearchResponse
<a name="streaming-video-kinesis-output-reference-facesearchresponse"></a>

스트리밍 비디오 프레임에서 감지된 얼굴과 모음에서 발견된 그것과 일치하는 얼굴에 대한 정보입니다. 컬렉션은 [CreateStreamProcessor를](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html) 직접 호출하여 지정합니다. 자세한 내용은 [스트리밍 비디오 이벤트 작업](streaming-video.md) 단원을 참조하십시오.

**DetectedFace**

분석된 비디오 프레임에서 감지된 얼굴의 세부 정보입니다.

유형: [DetectedFace](#streaming-video-kinesis-output-reference-detectedface)객체

**MatchedFaces**

`DetectedFace`에서 감지된 얼굴과 일치하는 얼굴 모음의 세부 정보 배열입니다.

유형: [MatchedFace](#streaming-video-kinesis-output-reference-facematch) 객체 배열

## DetectedFace
<a name="streaming-video-kinesis-output-reference-detectedface"></a>

스트리밍 비디오 프레임에서 감지된 얼굴에 대한 정보입니다. 입력 모음에 들어 있는 일치하는 얼굴은 [MatchedFace](#streaming-video-kinesis-output-reference-facematch) 객체 필드에서 사용할 수 있습니다.

**BoundingBox**

분석된 비디오 프레임 내에서 감지된 얼굴의 경계 상자 좌표입니다. BoundingBox 객체는 이미지 분석에 사용되는 BoundingBox 객체와 동일한 속성을 가집니다.

유형: [BoundingBox](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_BoundingBox.html) 객체 

**신뢰도**

Amazon Rekognition Video에서 감지된 얼굴이 실제로 얼굴임을 신뢰할 수 있는 수준(1\$1100)입니다. 1은 가장 낮은 신뢰도, 100은 가장 높은 신뢰도입니다.

형식: 숫자

**표식**

얼굴 표식의 배열입니다.

유형: [Landmark](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_Landmark.html) 객체 배열

**포즈**

피치, 롤 및 요로 판단되는 얼굴의 포즈를 나타냅니다.

유형: [Pose](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_Pose.html) 객체

**화질**

얼굴 이미지의 밝기와 선명도를 나타냅니다.

유형: [ImageQuality](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ImageQuality.html) 객체

## MatchedFace
<a name="streaming-video-kinesis-output-reference-facematch"></a>

분석된 비디오 프레임에서 감지된 얼굴과 일치하는 얼굴에 대한 정보입니다.

**얼굴**

[DetectedFace](#streaming-video-kinesis-output-reference-detectedface) 객체의 얼굴과 일치하는, 입력 모음의 얼굴에 대한 얼굴 일치 정보입니다.

유형: [Face](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_Face.html) 객체 

**유사성**

얼굴 일치의 신뢰 수준(1\$1100)입니다. 1은 가장 낮은 신뢰도, 100은 가장 높은 신뢰도입니다.

형식: 숫자 