

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Descripción del registro de fotogramas de JSON para reconocimiento facial de Kinesis
<a name="streaming-video-kinesis-output-reference"></a>

Amazon Rekognition Video puede reconocer rostros en una transmisión de vídeo. Amazon Rekognition Video coloca un registro de fotograma de JSON para cada fotograma analizado en el flujo de datos de Kinesis. Amazon Rekognition Video no analiza todos los fotogramas que recibe a través de la transmisión de vídeo de Kinesis. 

El registro de fotograma de JSON contiene información acerca del streaming de entrada y de salida, el estado del procesador de streaming e información acerca de rostros que se han reconocido en el fotograma analizado. Esta sección contiene información de referencia para el registro de fotogramas de JSON.

La siguiente es la sintaxis de JSON para un registro de flujo de datos de Kinesis. Para obtener más información, consulte [Trabajar con eventos de vídeo en streaming](streaming-video.md).

**nota**  
La API de Amazon Rekognition Video funciona comparando los rostros de la secuencia de entrada con una colección de caras y devolviendo las coincidencias más próximas que se encuentren con una puntuación de similitud.

```
{
    "InputInformation": {
        "KinesisVideo": {
            "StreamArn": "string",
            "FragmentNumber": "string",
            "ProducerTimestamp": number,
            "ServerTimestamp": number,
            "FrameOffsetInSeconds": number
        }
    },
    "StreamProcessorInformation": {
        "Status": "RUNNING"
    },
    "FaceSearchResponse": [
        {
            "DetectedFace": {
                "BoundingBox": {
                    "Width": number,
                    "Top": number,
                    "Height": number,
                    "Left": number
                },
                "Confidence": number,
                "Landmarks": [
                    {
                        "Type": "string",
                        "X": number,
                        "Y": number
                    }
                ],
                "Pose": {
                    "Pitch": number,
                    "Roll": number,
                    "Yaw": number
                },
                "Quality": {
                    "Brightness": number,
                    "Sharpness": number
                }
            },
            "MatchedFaces": [
                {
                    "Similarity": number,
                    "Face": {
                        "BoundingBox": {
                            "Width": number,
                            "Top": number,
                            "Height": number,
                            "Left": number
                        },
                        "Confidence": number,
                        "ExternalImageId": "string",
                        "FaceId": "string",
                        "ImageId": "string"
                    }
                }
            ]
        }
    ]
}
```

## Registro de JSON
<a name="streaming-video-kinesis-output-reference-processorresult"></a>

El registro de JSON incluye información sobre un fotograma que ha procesado Amazon Rekognition Video. El registro incluye información acerca del vídeo de streaming, el estado del fotograma analizado e información acerca de rostros que se han reconocido en el fotograma.

**InputInformation**

Información sobre la transmisión de vídeo de Kinesis que se utiliza para transmitir vídeo en Amazon Rekognition Video.

Tipo: objeto [InputInformation](#streaming-video-kinesis-output-reference-inputinformation)

**StreamProcessorInformation**

Información acerca del procesador de streaming de Amazon Rekognition Video. Esto incluye información de estado para el estado actual del procesador de streaming.

Tipo: objeto [StreamProcessorInformation](streaming-video-kinesis-output-reference-streamprocessorinformation.md) 

**FaceSearchResponse**

Información acerca de los rostros detectados en un fotograma de vídeo en streaming y los rostros coincidentes encontrados en la colección de entrada.

Tipo: matriz de objetos [FaceSearchResponse](#streaming-video-kinesis-output-reference-facesearchresponse)

## InputInformation
<a name="streaming-video-kinesis-output-reference-inputinformation"></a>

Información acerca de una transmisión de vídeo de origen que utiliza Amazon Rekognition Video. Para obtener más información, consulte [Trabajar con eventos de vídeo en streaming](streaming-video.md).

**KinesisVideo**

Tipo: objeto [KinesisVideo](#streaming-video-kinesis-output-reference-kinesisvideostreams-kinesisvideo)

## KinesisVideo
<a name="streaming-video-kinesis-output-reference-kinesisvideostreams-kinesisvideo"></a>

Información sobre la transmisión de vídeo de Kinesis que transmite el vídeo de origen a Amazon Rekognition Video. Para obtener más información, consulte [Trabajar con eventos de vídeo en streaming](streaming-video.md).

**StreamArn**

El nombre de recurso de Amazon (ARN) de la transmisión de vídeo de Kinesis.

Tipo: cadena 

**FragmentNumber**

El fragmento del vídeo en streaming que contiene el fotograma que representa este registro.

Tipo: cadena

**ProducerTimestamp**

La marca temporal Unix del lado del productor del fragmento. Para obtener más información, consulte [PutMedia](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/API_dataplane_PutMedia.html).

Tipo: Number

**ServerTimestamp**

La marca temporal Unix del lado del servidor del fragmento. Para obtener más información, consulte [PutMedia](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/API_dataplane_PutMedia.html).

Tipo: Number

**FrameOffsetInSeconds**

El desfase del fotograma (en segundos) dentro del fragmento.

Tipo: Number 

# StreamProcessorInformation
<a name="streaming-video-kinesis-output-reference-streamprocessorinformation"></a>

Información de estado acerca del procesador de streaming.

**Estado**

El estado actual del procesador de streaming. El único valor posible es RUNNING.

Tipo: cadena

## FaceSearchResponse
<a name="streaming-video-kinesis-output-reference-facesearchresponse"></a>

Información acerca de un rostro detectado en un fotograma de vídeo en streaming y los rostros de una colección que coinciden con el rostro detectado. Especifica la colección en una llamada a [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html). Para obtener más información, consulte [Trabajar con eventos de vídeo en streaming](streaming-video.md). 

**DetectedFace**

Detalles de un rostro detectado en un fotograma de vídeo analizado.

Tipo: objeto [DetectedFace](#streaming-video-kinesis-output-reference-detectedface)

**MatchedFaces**

Una matriz de detalles de rostros en una colección que coincide con el rostro detectado en `DetectedFace`.

Tipo: matriz de objetos [MatchedFace](#streaming-video-kinesis-output-reference-facematch)

## DetectedFace
<a name="streaming-video-kinesis-output-reference-detectedface"></a>

Información sobre un rostro que se detectó en un fotograma de vídeo en streaming. Los rostros coincidentes en la colección de entrada están disponibles en campo de objeto [MatchedFace](#streaming-video-kinesis-output-reference-facematch).

**BoundingBox**

Las coordenadas del cuadro delimitador de un rostro que se ha detectado dentro de un fotograma de vídeo analizado. El BoundingBox objeto tiene las mismas propiedades que el BoundingBox objeto que se utiliza para el análisis de imágenes.

Tipo: objeto [BoundingBox](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_BoundingBox.html) 

**Confianza**

El nivel de confianza (de 1 a 100) que tiene Amazon Rekognition Video de que el rostro detectado es en realidad un rostro. 1 es la confianza más baja y 100 es la más alta.

Tipo: Number

**Referencias**

Una matriz de referencias faciales.

Tipo: matriz de objetos [Landmark](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_Landmark.html)

**Postura**

Indica la postura del rostro tal como determina su cabeceo, balanceo y desviación.

Tipo: Objeto de [Pose](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_Pose.html)

**Calidad**

Identifica el brillo y la nitidez de la imagen del rostro. 

Tipo: objeto [ImageQuality](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ImageQuality.html)

## MatchedFace
<a name="streaming-video-kinesis-output-reference-facematch"></a>

Información sobre un rostro que coincide con un rostro detectado en un fotograma de vídeo analizado.

**Rostro**

Información de coincidencia de rostro para un rostro en la colección de entrada que coincide con el rostro en el objeto [DetectedFace](#streaming-video-kinesis-output-reference-detectedface). 

Tipo: objeto [Face](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_Face.html) 

**Similitud**

El nivel de confianza (de 1 a 100) con el que coinciden las caras. 1 es la confianza más baja y 100 es la más alta.

Tipo: Number 