

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Referência: arquivo de resumo dos resultados do treinamento
<a name="im-summary-file"></a>

O resumo dos resultados do treinamento contém métricas que é possível usar para avaliar seu modelo. O arquivo de resumo também é usado para exibir métricas na página de resultados do treinamento do console. O arquivo de resumo é armazenado em um bucket do Amazon S3 após o treinamento. Para obter o arquivo de resumo, chame `DescribeProjectVersion`. Para obter um código de exemplo, consulte [Como acessar o arquivo de resumo e o snapshot do manifesto de avaliação (SDK)](im-access-summary-evaluation-manifest.md). 

## Arquivo de resumo
<a name="im-summary-reference"></a>

O JSON a seguir é o formato do arquivo de resumo.



**EvaluationDetails (seção 3)**  
Informações gerais sobre a tarefa de treinamento. Isso inclui o ARN do projeto ao qual o modelo pertence (`ProjectVersionArn)`), a data e a hora em que o treinamento foi concluído, a versão do modelo que foi avaliada (`EvaluationEndTimestamp`) e uma lista de rótulos detectados durante o treinamento (`Labels`). Também está incluído o número de imagens usadas para treinamento (`NumberOfTrainingImages`) e avaliação (`NumberOfTestingImages`). 

**AggregatedEvaluationResults (seção 1)**  
É possível usar `AggregatedEvaluationResults` para avaliar o desempenho geral do modelo treinado quando usado com o conjunto de dados de teste. As métricas agregadas estão incluídas para as métricas `Precision`, `Recall` e `F1Score`. Para detecção de objetos (a localização do objeto em uma imagem), as métricas `AverageRecall` (mAR) e `AveragePrecision` (mAP) são retornadas. Para classificação (o tipo de objeto em uma imagem), uma métrica de matriz de confusão é retornada. 

**LabelEvaluationResults (seção 2)**  
É possível usar `labelEvaluationResults` para avaliar o desempenho de rótulos individuais. Os rótulos são classificados pela pontuação F1 de cada rótulo. As métricas incluídas são `Precision`, `Recall`, `F1Score` e `Threshold` (usadas para classificação). 

O nome do arquivo é formatado da seguinte maneira: `EvaluationSummary-ProjectName-VersionName.json`.

```
{
  "Version": "integer",
  // section-3
  "EvaluationDetails": {
    "ProjectVersionArn": "string",
    "EvaluationEndTimestamp": "string",
    "Labels": "[string]",
    "NumberOfTrainingImages": "int",
    "NumberOfTestingImages": "int"
  },
  // section-1
  "AggregatedEvaluationResults": {
    "Metrics": {
      "Precision": "float",
      "Recall": "float",
      "F1Score": "float",
      // The following 2 fields are only applicable to object detection
      "AveragePrecision": "float",
      "AverageRecall": "float",
      // The following field is only applicable to classification
      "ConfusionMatrix":[
        {
          "GroundTruthLabel": "string",
          "PredictedLabel": "string",
          "Value": "float"
        },
        ...
      ],
    }
  },
  // section-2
  "LabelEvaluationResults": [
    {
      "Label": "string",
      "NumberOfTestingImages", "int",
      "Metrics": {
        "Threshold": "float",
        "Precision": "float",
        "Recall": "float",
        "F1Score": "float"
      },
    },
    ...
  ]
}
```