

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Configurações avançadas de treinamento
<a name="adv-training-configs"></a>

## Configuração da taxa de amostragem
<a name="sample-rate-configuration"></a>

A **taxa de amostragem** define a frequência com que as leituras do sensor são registradas (por exemplo, uma vez a cada segundo ou uma vez a cada minuto). Essa configuração afeta diretamente a **granularidade** dos dados de treinamento e influencia a capacidade do modelo de capturar variações de curto prazo no comportamento do sensor.

Visite [Amostragem para dados de alta frequência e consistência entre treinamento e inferência](ano-best-practices.md#apply-sampling-high-frequency-data) para saber mais sobre as melhores práticas.

### Configurar a taxa de amostragem alvo
<a name="configuring-target-sampling-rate"></a>

Opcionalmente, você pode especificar a `TargetSamplingRate` em sua configuração de treinamento para controlar a frequência com que os dados são amostrados. Os valores compatíveis são:

```
PT1S | PT5S | PT10S | PT15S | PT30S | PT1M | PT5M | PT10M | PT15M | PT30M | PT1H
```

Esses são formatos de duração ISO 8601, representando os seguintes formatos de hora:
+ `PT1S`= 1 segundo
+ `PT1M`= 1 minuto
+ `PT1H`= 1 hora

Escolha uma taxa de amostragem que atinja o equilíbrio certo entre **resolução de dados** e **eficiência do treinamento**. As seguintes tarifas estão disponíveis:
+ **Taxas de amostragem mais altas** (`PT1S`) oferecem detalhes mais precisos, mas podem aumentar o volume de dados e o tempo de treinamento.
+ **Taxas de amostragem mais baixas** (`PT10M`,`PT1H`) reduzem o tamanho e o custo dos dados, mas podem ignorar anomalias de curta duração.

### Lidando com o desalinhamento do timestamp
<a name="handling-timestamp-misalignment"></a>

AWS IoT SiteWise compensa automaticamente o **desalinhamento do timestamp** em vários fluxos de dados durante o treinamento. Isso garante um comportamento consistente do modelo, mesmo que os sinais de entrada não estejam perfeitamente alinhados no tempo.

Visite [Amostragem para dados de alta frequência e consistência entre treinamento e inferência](ano-best-practices.md#apply-sampling-high-frequency-data) para saber mais sobre as melhores práticas.

### Ativar amostragem
<a name="enable-sampling"></a>

Adicione o código a seguir `anomaly-detection-training-payload.json` a.

Configure a amostragem adicionando `TargetSamplingRate` a carga útil da ação de treinamento, com a taxa de amostragem dos dados. Os valores permitidos são:`PT1S | PT5S | PT10S | PT15S | PT30S | PT1M | PT5M | PT10M | PT15M | PT30M | PT1H`.

```
{
    "exportDataStartTime": StartTime,
    "exportDataEndTime": EndTime,
    "targetSamplingRate": "TargetSamplingRate"
}
```

**Example de uma configuração de taxa de amostragem:**  

```
{
    "exportDataStartTime": 1717225200,
    "exportDataEndTime": 1722789360,
    "targetSamplingRate": "PT1M"
}
```

## Rotule seus dados
<a name="ano-labeling-data"></a>

Ao rotular seus dados, você deve definir intervalos de tempo que representem períodos de comportamento anormal do equipamento. Essas informações de rotulagem são fornecidas como um `CSV` arquivo, onde cada linha especifica um intervalo de tempo durante o qual o equipamento não estava operando corretamente.

Cada linha contém dois carimbos de data/hora:
+ A **hora de início**, indicando quando se acredita que um comportamento anormal tenha começado.
+ A **hora de término**, representando quando a falha ou problema foi observado pela primeira vez.

Esse arquivo CSV é armazenado em um bucket do Amazon S3 e é usado durante o treinamento do modelo para ajudar o sistema a aprender com exemplos conhecidos de comportamento anormal. O exemplo a seguir mostra como os dados da etiqueta devem aparecer como um `.csv` arquivo. O arquivo não tem cabeçalho.

**Example de um arquivo CSV:**  

```
2024-06-21T00:00:00.000000,2024-06-21T12:00:00.000000
2024-07-11T00:00:00.000000,2024-07-11T12:00:00.000000
2024-07-31T00:00:00.000000,2024-07-31T12:00:00.000000
```

A **linha 1** representa um evento de manutenção em **21 de junho de 2024**, com uma **janela de 12 horas** (de `2024-06-21T00:00:00.000000Z` até`2024-06-21T12:00:00.000000Z`) AWS IoT SiteWise para procurar comportamentos anormais.

A **linha 2** representa um evento de manutenção em **11 de julho de 2024**, com uma **janela de 12 horas** (de `2024-07-11T00:00:00.000000Z` até`2024-07-11T12:00:00.000000Z`) AWS IoT SiteWise para procurar comportamentos anormais.

A **linha 3** representa um evento de manutenção em **31 de julho de 2024**, com uma **janela de 12 horas** (de `2024-07-31T00:00:00.000000Z` até`2024-07-31T12:00:00.000000Z`) AWS IoT SiteWise para procurar comportamentos anormais.

AWS IoT SiteWise usa todas essas janelas de tempo para treinar e avaliar modelos que podem identificar comportamentos anormais em torno desses eventos. Observe que nem todos os eventos são detectáveis e os resultados são altamente dependentes da qualidade e das características dos dados subjacentes.

Para obter detalhes sobre as melhores práticas de amostragem, consulte[Práticas recomendadas](ano-best-practices.md).

### Etapas de marcação de dados
<a name="label-data-steps"></a>
+ [Configure seu bucket do Amazon S3 de acordo com os pré-requisitos de rotulagem em Pré-requisitos de dados de rotulagem.](anomaly-prerequisites.md#label-data) 
+ Faça o upload do arquivo para seu balde de etiquetagem.
+ Adicione o seguinte `anomaly-detection-training-payload.json` a.
  + Forneça os locais na `labelInputConfiguration` seção do arquivo. `labels-bucket`Substitua pelo nome do bucket e `files-prefix` pelo caminho do (s) arquivo (s) ou por qualquer parte do prefixo. Todos os arquivos no local são analisados e (em caso de sucesso) usados como arquivos de etiquetas.

```
{
    "exportDataStartTime": StartTime,
    "exportDataEndTime": EndTime,
    "labelInputConfiguration": 
      {
       "bucketName": "label-bucket",
       "prefix": "files-prefix"
      }
}
```

**Example de uma configuração de etiqueta:**  

```
{
    "exportDataStartTime": 1717225200,
    "exportDataEndTime": 1722789360,
    "labelInputConfiguration": {
      "bucketName": "anomaly-detection-customer-data-278129555252-iad",
      "prefix": "Labels/model=b2d8ab3e-73af-48d8-9b8f-a290bef931b4/asset[d3347728-4796-4c5c-afdb-ea2f551ffe7a]/Lables.csv"
    }
}
```

## Avaliar seu modelo
<a name="evaluating-model"></a>

O diagnóstico pontual do modelo para um modelo de AWS IoT SiteWise treinamento é uma avaliação do desempenho do modelo em eventos individuais. Durante o treinamento, AWS IoT SiteWise gera uma pontuação de anomalia e diagnósticos de contribuição do sensor para cada linha no conjunto de dados de entrada. Uma pontuação de anomalia mais alta indica uma maior probabilidade de um evento anormal.

Diagnósticos pontuais estão disponíveis quando você treina um modelo com [ExecuteAction](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_ExecuteAction.html)API e tipo de `AWS/ANOMALY_DETECTION_TRAINING` ação.

Para configurar a avaliação do modelo,
+ [Configure seu bucket do Amazon S3 de acordo com os pré-requisitos de rotulagem em Pré-requisitos de dados de rotulagem.](anomaly-prerequisites.md#label-data)
+ Adicione o seguinte `anomaly-detection-training-payload.json` a.
  + Forneça o `evaluationStartTime` e `evaluationEndTime` (ambos em segundos de época) para os dados na janela usada para avaliar o desempenho do modelo.
  + Forneça a localização do bucket do Amazon S3 (`resultDestination`) para que os diagnósticos de avaliação sejam gravados.

**nota**  
O intervalo de avaliação do modelo (`dataStartTime`to`dataEndtime`) deve se sobrepor ou ser contíguo ao intervalo de treinamento. Nenhuma lacuna é permitida.

```
{
  "exportDataStartTime": StartTime,
  "exportDataEndTime": EndTime,
  "modelEvaluationConfiguration": {
    "dataStartTime": evaluationStartTime,
    "dataEndTime": evaluationEndTime
    "resultDestination": {
      "bucketName": "s3BucketName",
      "prefix": "bucketPrefix"
    }
  }
}
```

**Example de uma configuração de avaliação do modelo:**  

```
{
  "exportDataStartTime": 1717225200,
  "exportDataEndTime": 1722789360,
  "modelEvaluationConfiguration": {
    "dataStartTime": 1722789360,
    "dataEndTime": 1725174000,
    "resultDestination": {
      "bucketName": "anomaly-detection-customer-data-278129555252-iad",
      "prefix": "Evaluation/asset[d3347728-4796-4c5c-afdb-ea2f551ffe7a]/1747681026-evaluation_results.jsonl"
    }
  }
}
```

## Gere métricas de modelo
<a name="generating-model-metrics"></a>

As métricas do modelo fornecem informações abrangentes sobre o desempenho e a qualidade de seus modelos treinados de detecção de anomalias. O processo de treinamento gera automaticamente essas métricas e as publica em seu bucket específico do Amazon S3, tornando-as facilmente acessíveis para análise, comparação de modelos e decisões de promoção em fluxos de trabalho de reciclagem.

### Entendendo as métricas do modelo
<a name="understanding-model-metrics"></a>

O processo de treinamento gera automaticamente métricas de modelo e fornece informações detalhadas sobre:
+ **Desempenho do modelo**: medidas quantitativas como precisão, recall e AUC quando os dados rotulados estão disponíveis
+ **Qualidade dos dados**: informações sobre os dados de treinamento usados e os períodos abrangidos
+ **Detecção de eventos**: estatísticas sobre anomalias identificadas e eventos rotulados
+ **Comparação de modelos**: métricas de comparação entre diferentes versões do modelo durante o reciclagem

### Configurar o destino das métricas do modelo
<a name="configuring-model-metrics-destination"></a>

Para permitir a geração de métricas do modelo, configure um destino do Amazon S3 onde as métricas sejam publicadas.

1. Configure seu bucket Amazon S3 de acordo com o. [Pré-requisitos de avaliação do modelo](anomaly-prerequisites.md#prerequisites-model-evaluation)

1. Adicione o seguinte à sua carga de ação de treinamento para especificar onde as métricas do modelo devem ser armazenadas:

   ```
   {
       "trainingMode": "TRAIN_MODEL",
       "exportDataStartTime": StartTime,
       "exportDataEndTime": EndTime,
       "modelMetricsDestination": {
           "bucketName": "bucket-name",
           "prefix": "prefix"
       }
   }
   ```  
**Example Exemplo de configuração de métricas do modelo**  

   ```
   {
       "exportDataStartTime": 1717225200,
       "exportDataEndTime": 1722789360,
       "modelMetricsDestination": {
           "bucketName": "anomaly-detection-metrics-bucket-123456789012-iad",
           "prefix": "ModelMetrics/computation-model-id/asset-id/training-metrics.json"
       }
   }
   ```

### Configurar métricas do modelo para reciclagem
<a name="configuring-model-metrics-retraining"></a>

Quando você configura os cronogramas de reciclagem, o destino das métricas do modelo é necessário para permitir o rastreamento e a comparação abrangentes do desempenho do modelo:

```
{
    "trainingMode": "START_RETRAINING_SCHEDULER",
    "modelMetricsDestination": {
        "bucketName": "bucket-name",
        "prefix": "prefix"
    },
    "retrainingConfiguration": {
        "lookbackWindow": "P180D",
        "promotion": "SERVICE_MANAGED",
        "retrainingFrequency": "P30D",
        "retrainingStartDate": "StartDate"
    }
}
```Parâmetros

`bucketName`  
Bucket do Amazon S3 onde as métricas do modelo serão armazenadas

`prefix`  
Amazon S3 prefix/path para organizar arquivos de métricas de modelo

### Estrutura de métricas do modelo
<a name="model-metrics-structure"></a>

As métricas do modelo são armazenadas como arquivos JSON em seu bucket do Amazon S3 na seguinte estrutura:

```
{
    "labeled_ranges": [],
    "labeled_event_metrics": {
        "num_labeled": 0,
        "num_identified": 0,
        "total_warning_time_in_seconds": 0
    },
    "predicted_ranges": [],
    "unknown_event_metrics": {
        "num_identified": 0,
        "total_duration_in_seconds": 0
    },
    "data_start_time": "2023-11-01",
    "data_end_time": "2023-12-31",
    "labels_present": false,
    "model_version_metrics": {
        "precision": 1.0,
        "recall": 1.0,
        "mean_fractional_lead_time": 0.7760964912280702,
        "auc": 0.5971207364893062
    }
}
```Métricas-chave

`labeled_ranges`  
Intervalos de tempo em que as anomalias rotuladas foram fornecidas durante o treinamento

`labeled_event_metrics`  
Estatísticas sobre o quão bem o modelo identificou eventos rotulados conhecidos

`num_labeled`  
Número total de eventos rotulados nos dados de treinamento

`num_identified`  
Número de eventos rotulados que o modelo identificou corretamente

`total_warning_time_in_seconds`  
Tempo total que o modelo passou no estado de aviso para eventos rotulados

`predicted_ranges`  
Intervalos de tempo em que o modelo previu anomalias durante a avaliação

`unknown_event_metrics`  
Estatísticas sobre anomalias detectadas em dados não identificados

`data_start_time / data_end_time`  
Janela de tempo coberta pelos dados de treinamento

`labels_present`  
Booleano indicando se os dados rotulados foram usados durante o treinamento

`model_version_metrics`  
Métricas adicionais específicas da versão para comparação de modelos

### Métricas avançadas para modelos rotulados
<a name="advanced-metrics-labeled-models"></a>

Quando você fornece dados rotulados durante o treinamento, métricas adicionais de desempenho são incluídas nos arquivos do Amazon S3:
+ **Recordar**: a proporção de eventos que foram identificados AWS IoT SiteWise corretamente em relação aos eventos que você rotulou durante o mesmo período. Por exemplo, você pode ter rotulado 10 eventos, mas identificado AWS IoT SiteWise apenas 9 deles. Nesse caso, o recall é de 90%.
+ **Precisão**: a proporção de verdadeiros positivos em relação ao total de eventos identificados. Por exemplo, se AWS IoT SiteWise identificar 10 eventos, mas somente 7 desses eventos corresponderem aos eventos que você rotulou, a precisão será de 70%.
+ **MeanFractionalLeadTime**: uma medida da rapidez (em relação à duração do evento), em média, AWS IoT SiteWise detecta cada evento. Por exemplo, um evento típico em suas instalações pode durar 10 horas. Em média, o modelo pode levar 3 horas para identificar o evento. Nesse caso, o lead time fracionário médio é 0,7.
+ **AUC**: Area Under the Curve (AUC) mede a capacidade de um modelo de aprendizado de máquina de prever uma pontuação mais alta para exemplos positivos em comparação com exemplos negativos. Um valor entre 0 e 1 que indica o quão bem seu modelo é capaz de separar as categorias em seu conjunto de dados. Um valor de 1 indica que ele foi capaz de separar as categorias perfeitamente.

### Promoção e métricas do modelo
<a name="model-promotion-metrics"></a>

Durante os fluxos de trabalho de reciclagem, as métricas armazenadas no Amazon S3 permitem decisões informadas de promoção de modelos:

#### Modo gerenciado (promoção automática)
<a name="managed-mode-promotion"></a>
+ O sistema compara automaticamente as métricas entre versões antigas e novas do modelo usando os dados armazenados no Amazon S3
+ Os modelos são promovidos com base em indicadores de desempenho aprimorados
+ As decisões de promoção incluem códigos de motivos específicos armazenados junto com as métricas:
  + `AUTO_PROMOTION_SUCCESSFUL`: As métricas do novo modelo são melhores do que a versão atual
  + `MODEL_METRICS_DIDNT_IMPROVE`: O desempenho do novo modelo não melhorou
  + `POOR_MODEL_QUALITY_DETECTED`: O novo modelo tem uma avaliação de qualidade ruim

#### Modo manual (promoção controlada pelo cliente)
<a name="manual-mode-promotion"></a>
+ Você pode baixar e analisar métricas detalhadas do Amazon S3 para tomar decisões de promoção
+ Todas as versões históricas do modelo e suas métricas permanecem acessíveis no Amazon S3
+ Você pode criar painéis e ferramentas de análise personalizados usando as métricas armazenadas no Amazon S3