AdaBoostClassifier实战

简介:

AdaBoostClassifier实战

部分内容摘自:http://blog.csdn.net/sun_shengyun/article/details/54289955   

 这里我们用一个具体的例子来讲解AdaBoostClassifier的使用。

    1. #gnu  
    2. >>> from sklearn.model_selection import cross_val_score  
    3. >>> from sklearn.datasets import load_iris  
    4. >>> from sklearn.ensemble import AdaBoostClassifier  
    5.   
    6. >>> iris = load_iris() #还是那个数据集  
    7. >>> clf = AdaBoostClassifier(n_estimators=100) #迭代100次  
    8. >>> scores = cross_val_score(clf, iris.data, iris.target) #分类器的精确度  
    9. >>> scores.mean()                               
    10. 0.9...   #得分比较理想  
    11. #  

Methods

decision_function(X) Compute the decision function of X.
fit(X, y[, sample_weight]) Build a boosted classifier from the training set (X, y).
get_params([deep]) Get parameters for this estimator.
predict(X) Predict classes for X.
predict_log_proba(X) Predict class log-probabilities for X.
predict_proba(X) Predict class probabilities for X.
score(X, y[, sample_weight]) Returns the mean accuracy on the given test data and labels.
set_params(**params) Set the parameters of this estimator.
staged_decision_function(X) Compute decision function of X for each boosting iteration.
staged_predict(X) Return staged predictions for X.
staged_predict_proba(X) Predict class probabilities for X.
staged_score(X, y[, sample_weight]) Return staged scores for X, y.

    首先我们载入需要的类库:

复制代码
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
from sklearn.ensemble import AdaBoostClassifier from sklearn.tree import DecisionTreeClassifier from sklearn.datasets import make_gaussian_quantiles
复制代码

    接着我们生成一些随机数据来做二元分类,如果对如何产生随机数据不熟悉,在另一篇文章机器学习算法的随机数据生成中有比较详细的介绍。

复制代码
# 生成2维正态分布,生成的数据按分位数分为两类,500个样本,2个样本特征,协方差系数为2
X1, y1 = make_gaussian_quantiles(cov=2.0,n_samples=500, n_features=2,n_classes=2, random_state=1)
# 生成2维正态分布,生成的数据按分位数分为两类,400个样本,2个样本特征均值都为3,协方差系数为2
X2, y2 = make_gaussian_quantiles(mean=(3, 3), cov=1.5,n_samples=400, n_features=2, n_classes=2, random_state=1) #讲两组数据合成一组数据 X = np.concatenate((X1, X2)) y = np.concatenate((y1, - y2 + 1))
复制代码

    我们通过可视化看看我们的分类数据,它有两个特征,两个输出类别,用颜色区别。

plt.scatter(X[:, 0], X[:, 1], marker= 'o', c=y)

    输出为下图:

    可以看到数据有些混杂,我们现在用基于决策树的Adaboost来做分类拟合。

bdt = AdaBoostClassifier(DecisionTreeClassifier(max_depth=2, min_samples_split=20, min_samples_leaf=5 ), algorithm="SAMME", n_estimators=200, learning_rate=0.8) bdt.fit(X, y)

    这里我们选择了SAMME算法,最多200个弱分类器,步长0.8,在实际运用中你可能需要通过交叉验证调参而选择最好的参数。拟合完了后,我们用网格图来看看它拟合的区域。

复制代码
x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
xx, yy = np.meshgrid(np.arange(x_min, x_max, 0.02),
                     np.arange(y_min, y_max, 0.02))

Z = bdt.predict(np.c_[xx.ravel(), yy.ravel()])
Z = Z.reshape(xx.shape) cs = plt.contourf(xx, yy, Z, cmap=plt.cm.Paired) plt.scatter(X[:, 0], X[:, 1], marker='o', c=y) plt.show()
复制代码

    输出的图如下:

    从图中可以看出,Adaboost的拟合效果还是不错的,现在我们看看拟合分数:

print "Score:", bdt.score(X,y)

    输出为:

    也就是说拟合训练集数据的分数还不错。当然分数高并不一定好,因为可能过拟合。

 

    现在我们将最大弱分离器个数从200增加到300。再来看看拟合分数。

复制代码
bdt = AdaBoostClassifier(DecisionTreeClassifier(max_depth=2, min_samples_split=20, min_samples_leaf=5),
                         algorithm="SAMME",
                         n_estimators=300, learning_rate=0.8) bdt.fit(X, y) print "Score:", bdt.score(X,y)
复制代码

    此时的输出为:

    这印证了我们前面讲的,弱分离器个数越多,则拟合程度越好,当然也越容易过拟合。

 

    现在我们降低步长,将步长从上面的0.8减少到0.5,再来看看拟合分数。

复制代码
bdt = AdaBoostClassifier(DecisionTreeClassifier(max_depth=2, min_samples_split=20, min_samples_leaf=5),
                         algorithm="SAMME",
                         n_estimators=300, learning_rate=0.5) bdt.fit(X, y) print "Score:", bdt.score(X,y)
复制代码

    此时的输出为:

    可见在同样的弱分类器的个数情况下,如果减少步长,拟合效果会下降。

 

    最后我们看看当弱分类器个数为700,步长为0.7时候的情况:

复制代码
bdt = AdaBoostClassifier(DecisionTreeClassifier(max_depth=2, min_samples_split=20, min_samples_leaf=5),
                         algorithm="SAMME",
                         n_estimators=600, learning_rate=0.7) bdt.fit(X, y) print "Score:", bdt.score(X,y)
复制代码

    此时的输出为:

    此时的拟合分数和我们最初的300弱分类器,0.8步长的拟合程度相当。也就是说,在我们这个例子中,如果步长从0.8降到0.7,则弱分类器个数要从300增加到700才能达到类似的拟合效果。

 

















本文转自张昺华-sky博客园博客,原文链接:http://www.cnblogs.com/bonelee/p/8241844.html,如需转载请自行联系原作者


相关文章
|
6月前
|
存储 网络协议 Linux
C++项目实战-实际应用(一)
C++项目实战-实际应用(一)
58 0
|
28天前
|
存储 安全 编译器
【C++进阶】C++11入门基础
【C++进阶】C++11入门基础
24 0
|
6月前
|
存储 搜索推荐 Linux
5个值得学习的C++完整项目实战
5个值得学习的C++完整项目实战
|
6月前
|
缓存 算法 Java
C++项目实战-实际应用(二)
C++项目实战-实际应用(二)
47 0
|
10月前
|
测试技术 Android开发 Kotlin
QMUI实战(一)—为何我们要使用 LauncherActivity?
QMUI 2 发布了,但是里面换肤等相关的很多东西,如果不讲,那么很多人估计就只能复制粘贴下 QMUIDemo 的代码,而并不能用好 QMUI, 或者是通过 QMUI 来提升自己的 UI 开发能力,毕竟现在很多 Android 开发都是轻 UI 而重数据流,遇到需要复杂 UI 的地方,在 Github 上随便找个组件套上去就行了,如果找得到刚好符合需求的还好,如果找到的不是那么切合需求,那一天的状态很可能就是“一壶茶、一包烟、几个间距颜色调一天”了。
164 0
|
Kubernetes 安全 应用服务中间件
案例实战| 学习笔记
快速学习案例实战。
107 0
案例实战| 学习笔记
|
机器学习/深度学习 Kubernetes 安全
案例实战二| 学习笔记
快速学习案例实战二。
89 0
案例实战二| 学习笔记
|
监控 JavaScript 机器人
Hubot 实战 | 学习笔记
快速学习 Hubot 实战
558 0
|
SQL 存储 分布式计算
HBSAE实战总结
HBSAE实践:(先启动zookeeper)
165 0
HBSAE实战总结