

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Como o XGBoost algoritmo de SageMaker IA funciona
<a name="xgboost-HowItWorks"></a>

[XGBoost](https://github.com/dmlc/xgboost)é uma implementação popular e eficiente de código aberto do algoritmo de árvores com aumento de gradiente. O aumento de gradiente é um algoritmo de aprendizado supervisionado, que tenta prever com precisão uma variável de destino. Para isso, combina as estimativas de um conjunto de modelos mais simples e mais fracos.

Ao usar o [aumento de gradiente](https://en.wikipedia.org/wiki/Gradient_boosting) para regressão, os alunos fracos são árvores de regressão, e cada árvore de regressão mapeia um ponto de dados de entrada em uma de suas folhas que contém uma pontuação contínua. XGBoost minimiza uma função objetiva regularizada (L1 e L2) que combina uma função de perda convexa (com base na diferença entre as saídas previstas e alvo) e um termo de penalidade para a complexidade do modelo (em outras palavras, as funções da árvore de regressão). O treinamento prossegue iterativamente, adicionando novas árvores que preveem resíduos ou erros de árvores anteriores, com as quais são combinadas para fazer a predição final. É chamado de aumento de gradiente porque usa um algoritmo descendente de gradiente para minimizar a perda quando novos modelos são adicionados.

 Abaixo está uma breve ilustração de como funciona o aumento de gradiente da árvore.

![\[Um diagrama que ilustra o aumento de gradiente da árvore.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/xgboost_illustration.png)


**Para obter mais detalhes sobre XGBoost, consulte:**
+ [XGBoost: Um sistema escalável de aumento de árvores](https://arxiv.org/pdf/1603.02754.pdf)
+ [Aumento de gradiente da árvore ](https://www.sas.upenn.edu/~fdiebold/NoHesitations/BookAdvanced.pdf#page=380)
+ [Introduction to Boosted Trees](https://xgboost.readthedocs.io/en/latest/tutorials/model.html)