

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Solucionar errores de inferencia de Neo
<a name="neo-troubleshooting-inference"></a>

Esta sección contiene información sobre cómo prevenir y resolver algunos de los errores más comunes que se pueden producir al implementar and/or el dispositivo final. Esta sección se aplica a la **PyTorch versión 1.4.0 o posterior** y a la **MXNetversión 1.7.0** o posterior. 
+ Asegúrese de que la primera inferencia (inferencia de calentamiento) sobre un dato de entrada válido se haya realizado en `model_fn()`, si ha definido un `model_fn` en el guión de inferencia; de lo contrario, podría aparecer el siguiente mensaje de error en la terminal cuando se llame a [https://sagemaker.readthedocs.io/en/stable/api/inference/predictors.html#sagemaker.predictor.Predictor.predict](https://sagemaker.readthedocs.io/en/stable/api/inference/predictors.html#sagemaker.predictor.Predictor.predict): 

  ```
  An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (0) from <users-sagemaker-endpoint> with message "Your invocation timed out while waiting for a response from container model. Review the latency metrics for each container in Amazon CloudWatch, resolve the issue, and try again."                
  ```
+ Establezca las variables de entorno como se muestra en la siguiente tabla. Si no están configurados, puede aparecer el siguiente mensaje de error: 

  **En la terminal:**

  ```
  An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (503) from <users-sagemaker-endpoint> with message "{ "code": 503, "type": "InternalServerException", "message": "Prediction failed" } ".
  ```

  ** CloudWatchEn:**

  ```
  W-9001-model-stdout com.amazonaws.ml.mms.wlm.WorkerLifeCycle - AttributeError: 'NoneType' object has no attribute 'transform'
  ```    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/neo-troubleshooting-inference.html)
+ Asegúrese de que la variable de `MMS_DEFAULT_RESPONSE_TIMEOUT` entorno esté establecida en 500 o un valor superior al crear el modelo Amazon SageMaker AI; de lo contrario, podría aparecer el siguiente mensaje de error en la terminal: 

  ```
  An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (0) from <users-sagemaker-endpoint> with message "Your invocation timed out while waiting for a response from container model. Review the latency metrics for each container in Amazon CloudWatch, resolve the issue, and try again."
  ```