

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Risolvi errori di inferenza Neo
<a name="neo-troubleshooting-inference"></a>

Questa sezione contiene informazioni su come prevenire e risolvere alcuni degli errori più comuni che potresti riscontrare durante la distribuzione e l' and/or invocazione dell'endpoint. **Questa sezione si applica alla **PyTorch versione 1.4.0 o successiva e MXNet alla versione 1.7.0 o successiva**.** 
+ Assicurati che la prima inferenza (inferenza di warm-up) su un dato di input valido venga eseguita in `model_fn()`, se hai definito un `model_fn` nello script di inferenza, altrimenti potrebbe essere visualizzato il seguente messaggio di errore sul terminale quando viene chiamato [https://sagemaker.readthedocs.io/en/stable/api/inference/predictors.html#sagemaker.predictor.Predictor.predict](https://sagemaker.readthedocs.io/en/stable/api/inference/predictors.html#sagemaker.predictor.Predictor.predict). 

  ```
  An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (0) from <users-sagemaker-endpoint> with message "Your invocation timed out while waiting for a response from container model. Review the latency metrics for each container in Amazon CloudWatch, resolve the issue, and try again."                
  ```
+ Assicurati che siano impostate le variabili di ambiente nella tabella seguente. Se non sono impostate, potrebbe apparire il seguente messaggio di errore: 

  **Sul terminale:**

  ```
  An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (503) from <users-sagemaker-endpoint> with message "{ "code": 503, "type": "InternalServerException", "message": "Prediction failed" } ".
  ```

  **In: CloudWatch**

  ```
  W-9001-model-stdout com.amazonaws.ml.mms.wlm.WorkerLifeCycle - AttributeError: 'NoneType' object has no attribute 'transform'
  ```    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/sagemaker/latest/dg/neo-troubleshooting-inference.html)
+ Assicurati che la variabile di `MMS_DEFAULT_RESPONSE_TIMEOUT` ambiente sia impostata su 500 o un valore superiore durante la creazione del modello Amazon SageMaker AI; in caso contrario, sul terminale potrebbe essere visualizzato il seguente messaggio di errore: 

  ```
  An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (0) from <users-sagemaker-endpoint> with message "Your invocation timed out while waiting for a response from container model. Review the latency metrics for each container in Amazon CloudWatch, resolve the issue, and try again."
  ```