

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# SageMaker AI XGBoost 算法的工作原理
<a name="xgboost-HowItWorks"></a>

[XGBoost](https://github.com/dmlc/xgboost)是梯度提升树算法的一种流行且高效的开源实现。梯度提升是一种指导式学习算法，它尝试将一组较简单、较弱的模型的估计值结合在一起，从而准确地预测目标变量。

使用[梯度提升](https://en.wikipedia.org/wiki/Gradient_boosting)进行回归时，弱学习者是回归树，每棵回归树都将一个输入数据点映射到其中一个包含连续分数的叶子。 XGBoost 最小化正则化（L1 和 L2）目标函数，该函数结合了凸损失函数（基于预测输出和目标输出之间的差异）和模型复杂度的惩罚项（换句话说，回归树函数）。训练以迭代的方式进行，从而添加新树来预测先前树的残差或错误，然后再与先前树结合，做出最后的预测。这称为梯度提升，因为它使用梯度下降算法来最小化添加新模型时的损失。

 下面是关于梯度树提升工作原理的简要说明。

![\[此图表说明了梯度树提升。\]](http://docs.aws.amazon.com/zh_cn/sagemaker/latest/dg/images/xgboost_illustration.png)


**有关更多详细信息 XGBoost，请参阅：**
+ [XGBoost: 可扩展的树木提升系统](https://arxiv.org/pdf/1603.02754.pdf)
+ [梯度树提升](https://www.sas.upenn.edu/~fdiebold/NoHesitations/BookAdvanced.pdf#page=380)
+ [提升树简介](https://xgboost.readthedocs.io/en/latest/tutorials/model.html)