

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Criar um endpoint de inferência para consulta
<a name="machine-learning-on-graphs-inference-endpoint"></a>

Um endpoint de inferência permite consultar um modelo específico que o processo de treinamento de modelos criou. O endpoint se conecta ao modelo de melhor desempenho de um tipo específico que o processo de treinamento conseguiu gerar. O endpoint então pode aceitar consultas do Gremlin do Neptune e gerar as previsões desse modelo para entradas nas consultas. Depois de criar um endpoint de referência, ele permanece ativo até a exclusão.

## Gerenciar endpoints de inferência para o Neptune ML
<a name="machine-learning-on-graphs-endpoint-managing"></a>

Depois de concluir o treinamento de modelos em dados que você exportou do Neptune, você poderá criar um endpoint de inferência usando um comando `curl` (ou `awscurl`) como o seguinte:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "mlModelTrainingJobId": "(the model-training job-id of a completed job)"
      }'
```

Também é possível criar um endpoint de inferência a partir de um modelo criado por um trabalho de transformação de modelos concluído, da mesma forma:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "mlModelTransformJobId": "(the model-transform job-id of a completed job)"
      }'
```

Os detalhes de como usar esses comandos são explicados em [O comando endpoints](machine-learning-api-endpoints.md), junto com informações sobre como obter o status de um endpoint, excluir um endpoint e listar todos os endpoints de inferência.