

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Creazione di un processo AutoML per la classificazione del testo utilizzando l’API
<a name="autopilot-create-experiment-text-classification"></a>

[Le seguenti istruzioni mostrano come creare un job Amazon SageMaker Autopilot come esperimento pilota per tipi di problemi di classificazione del testo utilizzando SageMaker API Reference.](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-reference.html)

**Nota**  
Attività come la classificazione di testo e immagini, la previsione di serie temporali e il fine-tuning di modelli linguistici di grandi dimensioni sono disponibili esclusivamente tramite la versione 2 della [REST API AutoML](autopilot-reference.md). Se il linguaggio che preferisci è Python, puoi fare riferimento [AWS SDK per Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker/client/create_auto_ml_job_v2.html)o direttamente all'[MLV2 oggetto Auto dell'SDK](https://sagemaker.readthedocs.io/en/stable/api/training/automlv2.html#sagemaker.automl.automlv2.AutoMLV2) Amazon SageMaker Python.  
Gli utenti che preferiscono la comodità di un'interfaccia utente possono utilizzare [Amazon SageMaker Canvas](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-getting-started.html) per accedere a modelli pre-addestrati e modelli di base di intelligenza artificiale generativa o creare modelli personalizzati su misura per testi specifici, classificazione delle immagini, esigenze di previsione o intelligenza artificiale generativa.

Puoi creare un esperimento di classificazione del testo Autopilot a livello di codice richiamando l'azione dell'[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html)API in qualsiasi lingua supportata da Amazon Autopilot o da. SageMaker AWS CLI

Per informazioni su come questa azione API si traduce in una funzione nella lingua che preferisci, consulta [Vedi anche](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_SeeAlso) di `CreateAutoMLJobV2` e seleziona un SDK. Ad esempio, per gli utenti di Python, vedi la sintassi completa della richiesta di `[create\$1auto\$1ml\$1job\$1v2](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_auto_ml_job_v2)` in AWS SDK per Python (Boto3).

Di seguito è riportata una raccolta di parametri di richiesta di input obbligatori e facoltativi per l'azione API `CreateAutoMLJobV2` utilizzata nella classificazione del testo.

## Parametri obbligatori
<a name="text-classification-api-required-params"></a>

Quando chiami `[CreateAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html)` per creare un esperimento Autopilot per la classificazione del testo, devi fornire i seguenti valori:
+ Un `[AutoMLJobName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_RequestSyntax)` per specificare il nome del processo.
+ Almeno un `[AutoMLJobChannel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html)` in `[AutoMLJobInputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLJobInputDataConfig)` per specificare l'origine dati.
+ Un `[AutoMLProblemTypeConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLProblemTypeConfig)` di tipo `[TextClassificationJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TextClassificationJobConfig.html)`. 
+ Un `[OutputDataConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLOutputDataConfig.html)` per specificare il percorso di output di Amazon S3 per archiviare gli artefatti del processo AutoML.
+ Un `[RoleArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJob.html#sagemaker-CreateAutoMLJob-request-RoleArn)` per specificare l'ARN del ruolo utilizzato per accedere ai dati.

Tutti gli altri parametri sono facoltativi.

## Parametri facoltativi
<a name="text-classification-api-optional-params"></a>

Le sezioni seguenti forniscono dettagli su alcuni parametri opzionali che è possibile passare al processo AutoML di classificazione del testo.

### Come specificare i set di dati di addestramento e convalida di un processo AutoML
<a name="text-classification-data-training-or-validation"></a>

È possibile fornire il proprio set di dati di convalida e un rapporto di suddivisione dei dati personalizzato oppure lasciare che Autopilot suddivida automaticamente il set di dati.

Ogni [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLJobChannel.html)oggetto (vedi il parametro obbligatorio [Auto MLJob InputDataConfig](https://docs.aws.amazon.com/sagemaker-api/src/AWSSageMakerAPIDoc/build/server-root/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-AutoMLJobInputDataConfig)) ha un`ChannelType`, che può essere impostato su uno `training` o più `validation` valori che specificano come utilizzare i dati durante la creazione di un modello di apprendimento automatico. 

È necessario fornire almeno un'origine dati ed è consentito un massimo di due origine dati: una per i dati di addestramento e una per i dati di convalida. Il modo in cui suddividere i dati in set di dati di addestramento e convalida dipende dalla presenza di una o due origine dati. 

Il modo in cui suddividere i dati in set di dati di addestramento e convalida dipende dalla presenza di una o due origine dati.
+ Se disponi di **una origine dati**, `ChannelType` è impostato su `training` come impostazione predefinita e deve avere questo valore.
  + Se il valore `ValidationFraction` in [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLDataSplitConfig.html) non è impostato, per impostazione predefinita viene utilizzato per la convalida lo 0,2 (20%) dei dati di questa origine. 
  + Se `ValidationFraction` è impostato su un valore compreso tra 0 e 1, il set di dati viene suddiviso in base al valore specificato, dove il valore specifica la frazione del set di dati utilizzata per la convalida.
+ Se si dispone di **due origini dati**, per impostazione predefinita il `ChannelType` di uno degli oggetti `AutoMLJobChannel` deve essere impostato su `training`. Il `ChannelType` dell'altra origine dati deve essere impostato su `validation`. Le due origine dati devono avere lo stesso formato, CSV o Parquet, e lo stesso schema. In questo caso non è necessario impostare `ValidationFraction` perché tutti i dati di ciascuna origine vengono utilizzati per l'addestramento o la convalida. L'impostazione di questo valore causa un errore.

### Come specificare la configurazione dell’implementazione automatica del modello per un processo AutoML
<a name="text-classification-auto-model-deployment"></a>

Per abilitare l’implementazione automatica per il miglior modello candidato di un processo AutoML, includi un `[ModelDeployConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-ModelDeployConfig)` nella richiesta di processo AutoML. Ciò consentirà l'implementazione del modello migliore su un endpoint di SageMaker intelligenza artificiale. Di seguito sono riportate le configurazioni disponibili per la personalizzazione.
+ Per consentire ad Autopilot di generare il nome dell'endpoint, imposta `[AutoGenerateEndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents)` su `True`.
+ Per fornire il tuo nome per l'endpoint, imposta. `[AutoGenerateEndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents) to False and provide a name of your choice in [EndpointName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelDeployConfig.html#API_ModelDeployConfig_Contents)`

# Formato dei set di dati e parametro obiettivo per la classificazione del testo
<a name="text-classification-data-format-and-metric"></a>

In questa sezione apprenderemo i formati disponibili per i set di dati utilizzati nella classificazione del testo e il parametro utilizzato per valutare la qualità predittiva dei modelli di machine learning candidati. Le metriche calcolate per i candidati vengono specificate utilizzando una serie di [MetricDatum](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_MetricDatum.html)tipi.

## Formati di set di dati
<a name="text-classification-data-format"></a>

Autopilot supporta dati tabulari formattati come file CSV o come file Parquet. per i dati tabulari, ogni colonna contiene una funzionalità con un tipo di dati specifico e ogni riga contiene un'osservazione. Le proprietà di questi due formati di file differiscono notevolmente.
+ **CSV** (comma-separated-values) è un formato di file basato su righe che archivia i dati in testo semplice leggibile dall'uomo, una scelta popolare per lo scambio di dati in quanto sono supportati da un'ampia gamma di applicazioni.
+ **Parquet** è un formato di file basato su colonne in cui i dati vengono archiviati ed elaborati in modo più efficiente rispetto ai formati di file basati su righe. Ciò li rende un'opzione migliore per i problemi relativi ai big data.

I **tipi di dati** accettati per le colonne includono testo numerico, categorico.

Autopilot supporta la creazione di modelli di apprendimento automatico su set di dati di grandi dimensioni fino a centinaia di. GBs Per dettagli sui limiti di risorse predefiniti per i set di dati di input e su come aumentarli, consulta le quote di [Amazon SageMaker Autopilot](https://docs.aws.amazon.com/sagemaker/latest/dg/autopilot-quotas.html).

## Parametro obiettivo
<a name="text-classification-objective-metric"></a>

L'elenco seguente contiene i nomi dei parametri attualmente disponibili per misurare le prestazioni dei modelli per la classificazione del testo.

**`Accuracy`**  
 Il rapporto tra il numero di elementi classificati correttamente e il numero totale di elementi classificati (correttamente e erroneamente). La precisione misura quanto i valori delle classi previsti si avvicinano ai valori effettivi. I valori per i parametri di precisione variano tra zero (0) e uno (1). Un valore pari a 1 indica una perfetta precisione e 0 indica una perfetta imprecisione.

# Implementazione di modelli di Autopilot per l’inferenza in tempo reale
<a name="text-classification-deploy-models"></a>

Dopo aver addestrato i tuoi modelli Amazon SageMaker Autopilot, puoi configurare un endpoint e ottenere previsioni in modo interattivo. La sezione seguente descrive i passaggi per distribuire il modello su un endpoint di inferenza SageMaker AI in tempo reale per ottenere previsioni dal modello.

## Inferenza in tempo reale
<a name="autopilot-deploy-models-text-image-classification-realtime"></a>

L'inferenza in tempo reale è ideale per carichi di lavoro di inferenza in cui sono previsti requisiti in tempo reale, interattivi e a bassa latenza. Questa sezione mostra come utilizzare l'inferenza in tempo reale per ottenere previsioni in modo interattivo dal modello.

Puoi utilizzarlo SageMaker APIs per distribuire manualmente il modello che ha prodotto la migliore metrica di convalida in un esperimento Autopilot come segue.

In alternativa, puoi scegliere l'opzione di implementazione automatica durante la creazione dell'esperimento Autopilot. Per informazioni sulla configurazione dell’implementazione automatica dei modelli, consulta `[ModelDeployConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-ModelDeployConfig)` nei parametri di richiesta di `[CreateAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_RequestParameters)`. Questo crea automaticamente un endpoint.

**Nota**  
Per evitare di incorrere in costi inutili, puoi eliminare gli endpoint e le risorse non necessari creati dall'implementazione del modello. Per informazioni sui prezzi delle istanze per regione, consulta la pagina [ SageMaker dei prezzi di Amazon](https://aws.amazon.com/sagemaker/pricing/).

1. **Ottenere le definizioni dei container di candidati**

   Ottieni le definizioni dei container candidati da [InferenceContainers](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidate.html#sagemaker-Type-AutoMLCandidate-InferenceContainers). Una definizione di contenitore per inferenza si riferisce all'ambiente containerizzato progettato per implementare ed eseguire un modello di SageMaker intelligenza artificiale addestrato per fare previsioni. 

   Il seguente esempio di AWS CLI comando utilizza l'API [DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html) per ottenere le definizioni candidate per il miglior modello candidato.

   ```
   aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name job-name --region region
   ```

1. **Elencare i candidati**

   Il seguente esempio di AWS CLI comando utilizza l'[ListCandidatesForAutoMLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ListCandidatesForAutoMLJob.html)API per elencare tutti i modelli candidati.

   ```
   aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name <job-name> --region <region>
   ```

1. **Crea un modello di SageMaker intelligenza artificiale**

   Usa le definizioni dei contenitori dei passaggi precedenti e un candidato a tua scelta per creare un modello di SageMaker intelligenza artificiale utilizzando l'[CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker create-model --model-name '<your-candidate-name>' \
                       --containers ['<container-definition1>, <container-definition2>, <container-definition3>]' \
                       --execution-role-arn '<execution-role-arn>' --region '<region>
   ```

1. **Creare una configurazione endpoint**

   Il seguente esempio di AWS CLI comando utilizza l'[CreateEndpointConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpointConfig.html)API per creare una configurazione dell'endpoint.

   ```
   aws sagemaker create-endpoint-config --endpoint-config-name '<your-endpoint-config-name>' \
                       --production-variants '<list-of-production-variants>' \
                       --region '<region>'
   ```

1. **Creare l'endpoint ** 

   L' AWS CLI esempio seguente utilizza l'[CreateEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpoint.html)API per creare l'endpoint.

   ```
   aws sagemaker create-endpoint --endpoint-name '<your-endpoint-name>' \
                       --endpoint-config-name '<endpoint-config-name-you-just-created>' \
                       --region '<region>'
   ```

   Controlla lo stato di avanzamento della distribuzione degli endpoint utilizzando l'[DescribeEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeEndpoint.html)API. Vedi il AWS CLI comando seguente come esempio.

   ```
   aws sagemaker describe-endpoint —endpoint-name '<endpoint-name>' —region <region>
   ```

   Dopo che `EndpointStatus` cambia in `InService`, l'endpoint è pronto per l'uso per l'inferenza in tempo reale.

1. **Richiamare l'endpoint** 

   La seguente struttura di comandi richiama l'endpoint per l'inferenza in tempo reale.

   ```
   aws sagemaker invoke-endpoint --endpoint-name '<endpoint-name>' \ 
                     --region '<region>' --body '<your-data>' [--content-type] '<content-type>' <outfile>
   ```

# Report di spiegabilità
<a name="text-classification-explainability-report"></a>

Amazon SageMaker Autopilot fornisce un rapporto di spiegabilità per aiutare a spiegare in che modo il miglior modello candidato fa previsioni per problemi di classificazione del testo. Questo report può aiutare gli ingegneri del machine learning, i product manager e altri stakeholder interni a comprendere le caratteristiche del modello. Sia i consumatori che le autorità di regolamentazione si affidano alla trasparenza del machine learning per fidarsi e interpretare le decisioni prese sulla base delle previsioni dei modelli. Puoi utilizzare queste spiegazioni per verificare e soddisfare i requisiti normativi, creare fiducia nel modello, supportare il processo decisionale umano, eseguire il debug e migliorare le prestazioni del modello.

La funzionalità esplicativa Autopilot per la classificazione del testo utilizza il metodo di attribuzione assiomatica *Gradienti integrati*. Questo approccio si basa su un'implementazione dell’[Attribuzione assiomatica per Deep Network.](https://arxiv.org/pdf/1703.01365.pdf)

Autopilot genera il report di spiegabilità come file JSON. Il report include dettagli di analisi basati sul set di dati di convalida. Ogni esempio utilizzato per generare il report contiene le seguenti informazioni:
+ `text`: spiegazione del contenuto del testo di input.
+ `token_scores`: l'elenco dei punteggi per ogni token nel testo.
+ 
  + `attribution`: il punteggio che descrive l'importanza del token.
  + `description.partial_text`: la sottostringa parziale che rappresenta il token.
+ `predicted_label`: la classe di etichetta prevista dal miglior modello candidato.
+ `probability`: la sicurezza con cui `predicted_label` è stato previsto.

Puoi trovare il prefisso Amazon S3 per gli artefatti di spiegabilità generati per il miglior candidato nella risposta a `[DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)` in `[BestCandidate.CandidateProperties.CandidateArtifactLocations.Explainability](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateArtifactLocations.html#sagemaker-Type-CandidateArtifactLocations-Explainability)`.

Di seguito è riportato un esempio di contenuto di analisi che è possibile trovare negli artefatti di spiegabilità.

```
{
    "text": "It was a fantastic movie!",
    "predicted_label": 2,
    "probability": 0.9984835,
    "token_scores": [
        {
            "attribution": 0,
            "description": {
                "partial_text": "It"
            }
        },
        {
            "attribution": -0.022447118861679088,
            "description": {
                "partial_text": "was"
            }
        },
        {
            "attribution": -0.2164326456817965,
            "description": {
                "partial_text": "a"
            }
        },
        {
            "attribution": 0.675,
            "description": {
                "partial_text": "fantastic"
            }
        },
        {
            "attribution": 0.416,
            "description": {
                "partial_text": "movie!"
            }
        }
    ]
}
```

In questo esempio del report JSON, la funzionalità esplicativa valuta il testo `It was a fantastic movie!` e assegna un punteggio al contributo di ciascuno dei relativi token all'etichetta complessiva prevista. L'etichetta prevista è `2`, che rappresenta un forte sentiment positivo, con una probabilità del 99,85%. L'esempio JSON descrive quindi in dettaglio il contributo di ogni singolo token a questa previsione. Ad esempio, il token `fantastic` ha un'attribuzione più forte rispetto al token `was`. È il token che ha contribuito maggiormente alla previsione finale.

# Report sulle prestazioni del modello
<a name="text-classification-model-performance-report"></a>

Un report sulla qualità del modello Amazon SageMaker AI (noto anche come rapporto sulle prestazioni) fornisce approfondimenti e informazioni sulla qualità per il miglior modello candidato generato da un job di AutoML. Ciò include informazioni sui dettagli del processo, sul tipo di problema del modello, sulla funzione obiettivo e su vari parametri. Questa sezione descrive in dettaglio il contenuto di un report sulle prestazioni per problemi di classificazione del testo e spiega come accedere ai parametri come dati non elaborati in un file JSON.

Puoi trovare il prefisso Amazon S3 per gli artefatti del report sulla qualità del modello generati per il miglior candidato nella risposta a `[DescribeAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html)` in `[BestCandidate.CandidateProperties.CandidateArtifactLocations.ModelInsights](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CandidateArtifactLocations.html#sagemaker-Type-CandidateArtifactLocations-ModelInsights)`.

Il report sulle prestazioni contiene due sezioni:
+ La prima sezione contiene dettagli sul processo Autopilot che ha prodotto il modello.
+  La seconda sezione contiene un report sulla qualità del modello con vari parametri delle prestazioni.

## Dettagli del processo Autopilot
<a name="text-classification-performance-report-jobdetails"></a>

Questa prima sezione del report fornisce alcune informazioni generali sul processo Autopilot che ha prodotto il modello. Questi dettagli includono le seguenti informazioni:
+ Nome del candidato Autopilot: il nome del miglior candidato modello.
+ Nome del processo Autopilot: Il nome del processo.
+ Tipo di problema: il tipo di problema. Nel nostro caso, *classificazione del testo*.
+ Parametro obiettivo: il parametro obiettivo utilizzato per ottimizzare le prestazioni del modello. Nel nostro caso, *Precisione*.
+ Direzione di ottimizzazione: indica se minimizzare o massimizzare il parametro obiettivo.

## Report sulla qualità del modello
<a name="text-classification-performance-report-modelquality"></a>

Le informazioni sulla qualità del modello vengono generate dalle informazioni del modello Autopilot. Il contenuto del report generato dipende dal tipo di problema risolto. Il report specifica il numero di righe incluse nel set di dati di valutazione e l'ora in cui è avvenuta la valutazione.

### Tabelle di parametri
<a name="text-classification-model-quality-report-metrics"></a>

La prima parte del report sulla qualità del modello contiene le tabelle dei parametri. Questi sono i parametri appropriati per il tipo di problema risolto dal modello.

L'immagine seguente è un esempio di tabella dei parametri generata da Autopilot per un problema di classificazione di immagini o testi. Mostra il nome, il valore e la deviazione standard del parametro.

![\[Esempio di report sulle metriche di classificazione del testo o delle immagini di Amazon SageMaker Autopilot Model Insights.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-multiclass-metrics-report.png)


### Informazioni sulle prestazioni del modello grafico
<a name="text-classification-model-quality-report-graphs"></a>

La seconda parte del report sulla qualità del modello contiene informazioni grafiche per aiutarti a valutare le prestazioni del modello. Il contenuto di questa sezione dipende dal tipo di problema selezionato.

#### Matrice di confusione
<a name="text-classification--model-insights-confusion-matrix"></a>

Una matrice di confusione consente di visualizzare l'accuratezza delle previsioni fatte da un modello per la classificazione binaria e multiclasse per diversi problemi.

Un riepilogo dei componenti del grafico della **percentuale di falsi positivi** (FPR) e della **percentuale di veri positivi** (TPR) è definito come segue.
+ Previsioni corrette
  + **True positive** (TP): ha previsto il valore come 1 e il valore true è 1.
  + **True positive** (TN): ha previsto il valore come 0 e il valore true è 0.
+ Previsioni errate
  + **False positive** (FP): ha previsto il valore come 1, ma il valore true è 0.
  + **False negative** (FN): ha previsto il valore come 0, ma il valore true è 1.

La matrice di confusione nel report sulla qualità del modello contiene quanto segue.
+ Il numero e la percentuale di previsioni corrette ed errate per le etichette effettive
+ Il numero e la percentuale di previsioni accurate sulla diagonale dall'angolo superiore sinistro a quello inferiore destro
+ Il numero e la percentuale di previsioni imprecise sulla diagonale dall'angolo superiore destro a quello inferiore sinistro

Le previsioni errate su una matrice di confusione sono i valori di confusione.

Il diagramma seguente è un esempio di matrice di confusione per un problema di classificazione multiclasse. La matrice di confusione nel report sulla qualità del modello contiene quanto segue.
+ L'asse verticale è diviso in tre righe contenenti tre diverse etichette effettive.
+ L'asse orizzontale è diviso in tre colonne contenenti le etichette previste dal modello.
+ La barra dei colori assegna una tonalità più scura a un numero maggiore di campioni per indicare visivamente il numero di valori classificati in ciascuna categoria.

Nell'esempio seguente, il modello ha previsto correttamente 354 valori effettivi per l'etichetta **f**, 1094 valori per l'etichetta **i** e 852 valori per l'etichetta **m**. La differenza di tonalità indica che il set di dati non è bilanciato perché ci sono molte più etichette per il valore **i** che per **f** o **m**.

![\[Esempio di matrice di confusione multiclasse di Amazon SageMaker Autopilot.\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/images/autopilot/autopilot-model-insights-confusion-matrix-multiclass.png)


La matrice di confusione contenuta nel report sulla qualità del modello fornito può contenere un massimo di 15 etichette per tipi di problemi di classificazione multiclasse. Se una riga corrispondente a un'etichetta mostra un valore `Nan`, significa che il set di dati di convalida utilizzato per verificare le previsioni del modello non contiene dati con quell'etichetta.