08 集成学习 - XGBoost概述

简介:

概述

__XGBoost__是GBDT算法的一种变种,是一种常用的有监督集成学习算法;是一种
伸缩性强、便捷的可并行构建模型的Gradient Boosting算法。

__注意:__这里说可以并行构建模型,并不是说XGBoost建立的下一轮基模型不依赖于上一步的结果,而是指生成每个基模型的决策树时,能够快速进行并行运算,即加速了单个模型的运算。

面试中 可能会问为什么XGBoost是一个并行结构?我们可以反驳他说:XGBoost模型本身还是串行的,该模型还是基于梯度提升的理念进行模型构建的。只是在构建每一个模型的时候可以进行并行操作,相对提升一些运行速度。

相关文献

XGBoost官网:http://xgboost.readthedocs.io
XGBoost Github源码位置:https://github.com/dmlc/xgboost
XGBoost支持开发语言:Python、R、Java、Scala、C++

在XGBoost中其实包含了两套不同的API,虽然都在XGBoost包里,两种不同的API拥有两种不同的传输方式。一种是将数据转化成XGBoost认识的DMatrix。第二种兼容了Pthon的接受数据的方式:x_train,y_train。

安装

在Python中集成XGBoost,请参考我写的《安装 xgboost 库


回顾 CART、GBDT
05 决策树 - 生成算法 ID3、C4.5、CART

预测小男孩和老爷爷

__回顾 GBDT算法流程:__最终预测结果=∑ 每棵树上的预测值
小男孩在第1棵树预测结果是2,第2棵树预测结果是0.9,最终预测结果=f(1)+f(2) = 2+0.9;

XGBoost模型-目标函数:
Boosting的模型多少会存在一些过拟合的问题,由于过拟合的存在,对最后的预测结果始终会存在一些错误,即使调参也调不好。所以在建立模型的时候会考虑加上惩罚项。

Obj(θ) 就是我想在第n+1轮构建的目标函数,在原有误差 L(θ) 基础上,增加一个惩罚项 Ω(θ) ; 以上是模型构建的初步思路,具体惩罚项加的是什么?后续再考虑。

XGBoost 目标函数

回顾 过拟合和欠拟合的概念:
06 回归算法 - 损失函数、过拟合欠拟合

过拟合和欠拟合

GBDT目标函数 - y^
通过加入基模型,下图引用自一篇陈天奇的论文,其中用__f(x)表示基模型__,我们之前讲GDBT章节的时候用的符合是h(x);注意一下即可。

一步一步得预测,最后得到第t步的预测结果。

GBDT在每一轮迭代过程中,使得预测值和损失值的误差和达到最小,即完成了最优模型的构建。 obj=∑ L(y,y^) ;

GBDT目标函数

XGBoost的目标函数 - y^
XGBoost做了一个更新,从下图可以看到,左边这部分提升算法的模型的步骤没有变化。但提升算法中基模型f(x)的值怎么去计算发生了变化。
即最终的预测模型怎么得到发生了变化,最优解y^对应的损失函数obj在GBDT的损失函数obj基础上,我们增加的惩罚项来控制基模型的复杂度。

至此我们构建了新的损失函数obj作为XGBoost的损失函数:

XGBoost的目标函数

q(x)是啥? 回顾上面小男孩、老爷爷的那张图。
x是小男孩、小姑娘、老爷爷。__q(x)是落入当前模型的叶子节点编号。__
看下图左边这棵树:q(小男孩) = 1,小男孩的观测值落入了当前叶子节点编号1。同理,得到其他的q(x)值。

对于左边这棵树,__w1__ 是第一个叶子节点的预测值 = 小男孩;
ft(x) = wq(x)

最后分析针对第t棵树的惩罚项:Ω(ft) = γTt + 0.5λ∑wj2 其中 j=(1,2,3...T)
Tt代表第t棵树叶子节点个数,γ、λ即超参数。∑wj2 代表第t棵树叶子节点预测值的平方和。这个思想和构建L2正则比较像,08 回归算法 - 解决过拟合 - L2(Ridge)和L1(LASSO)正则

根据上面的知识对XGBoost公式推导

第t次迭代后,模型的预测值= t-1次模型的预测值+第t棵树的预测值。

目标函数可以写成:

回顾泰勒公式:

泰勒公式

将误差函数在yi^(t-1) 处进行二阶泰勒展开。即对原损失函数进行展开,yi是定值,y^t是变化量,即泰勒公式中的Δx。
然后将yit展开: yit = L( y^ it-1 + ft(x))

原始损失函数左,转化为右边的公式,再做泰勒展开

相关文章
|
1月前
|
机器学习/深度学习 Python
CatBoost高级教程:深度集成与迁移学习
CatBoost高级教程:深度集成与迁移学习【2月更文挑战第17天】
28 1
|
1月前
|
机器学习/深度学习 算法 Python
CatBoost中级教程:集成学习与模型融合
CatBoost中级教程:集成学习与模型融合【2月更文挑战第13天】
40 3
|
2月前
|
机器学习/深度学习 算法 Python
LightGBM高级教程:深度集成与迁移学习
LightGBM高级教程:深度集成与迁移学习【2月更文挑战第6天】
99 4
|
3月前
|
存储 Go
Go 浅析主流日志库:从设计层学习如何集成日志轮转与切割功能
本文将探讨几个热门的 go 日志库如 logrus、zap 和官网的 slog,我将分析这些库的的关键设计元素,探讨它们是如何支持日志轮转与切割功能的配置。
99 0
Go 浅析主流日志库:从设计层学习如何集成日志轮转与切割功能
|
3月前
|
机器学习/深度学习 算法
集成学习发展史
集成学习发展史
96 0
|
3月前
|
机器学习/深度学习 算法 Python
集成学习(上):机器学习基础task1-熟悉机器学习的三大主要任务
集成学习(上):机器学习基础task1-熟悉机器学习的三大主要任务
34 0
|
3月前
|
机器学习/深度学习 算法
机器学习 - [集成学习]Bagging算法的编程实现
机器学习 - [集成学习]Bagging算法的编程实现
32 1
|
29天前
|
机器学习/深度学习 算法
大模型开发:描述集成学习以及它如何工作。
集成学习通过结合多个模型预测提升性能,减少偏差和方差。分为Bagging和Boosting:Bagging使用数据子集并行训练模型,如随机森林;Boosting则顺序训练,聚焦前一轮错误,如AdaBoost。Stacking利用模型输出训练新模型。多样性是关键,广泛应用于分类、回归等任务,能有效提高泛化能力和防止过拟合。
16 0
|
1天前
|
机器学习/深度学习 缓存 算法
【视频】Boosting集成学习原理与R语言提升回归树BRT预测短鳍鳗分布生态学实例-2
【视频】Boosting集成学习原理与R语言提升回归树BRT预测短鳍鳗分布生态学实例
15 5
|
6天前
|
机器学习/深度学习 算法 前端开发
Scikit-learn进阶:探索集成学习算法
【4月更文挑战第17天】本文介绍了Scikit-learn中的集成学习算法,包括Bagging(如RandomForest)、Boosting(AdaBoost、GradientBoosting)和Stacking。通过结合多个学习器,集成学习能提高模型性能,减少偏差和方差。文中展示了如何使用Scikit-learn实现这些算法,并提供示例代码,帮助读者理解和应用集成学习提升模型预测准确性。

热门文章

最新文章