欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Python & 机器学习之项目实践

程序员文章站 2022-12-23 07:51:08
机器学习是一项经验技能,经验越多越好。在项目建立的过程中,实践是掌握机器学习的最佳手段。在实践过程中,通过实际操作加深对分类和回归问题的每一个步骤的理解,达到学习机器学习的目的。 预测模型项目模板不能只通过阅读来掌握机器学习的技能,需要进行大量的练习。本文将介绍一个通用的机器学习的项目模板,创建这个 ......

 

机器学习是一项经验技能,经验越多越好。在项目建立的过程中,实践是掌握机器学习的最佳手段。在实践过程中,通过实际操作加深对分类和回归问题的每一个步骤的理解,达到学习机器学习的目的。

预测模型项目模板
不能只通过阅读来掌握机器学习的技能,需要进行大量的练习。本文将介绍一个通用的机器学习的项目模板,创建这个模板总共有六个步骤。通过本文将学到:

端到端地预测(分类与回归)模型的项目结构。
如何将前面学到的内容引入到项目中。
如何通过这个项目模板来得到一个高准确度的模板。
机器学习是针对数据进行自动挖掘,找出数据的内在规律,并应用这个规律来预测新数据,如图19-1所示。

Python & 机器学习之项目实践

图19-1

在项目中实践机器学习

端到端地解决机器学习的问题是非常重要的。可以学习机器学习的知识,可以实践机器学习的某个方面,但是只有针对某一个问题,从问题定义开始到模型部署为止,通过实践机器学习的各个方面,才能真正掌握并应用机器学习来解决实际问题。

在部署一个项目时,全程参与到项目中可以更加深入地思考如何使用模型,以及勇于尝试用机器学习解决问题的各个方面,而不仅仅是参与到自己感兴趣或擅长的方面。一个很好的实践机器学习项目的方法是,使用从 uci机器学习仓库(http://archive.ics.uci.edu/ml/datasets.html) 获取的数据集开启一个机器学习项目。如果从一个数据集开始实践机器学习,应该如何将学到的所有技巧和方法整合到一起来处理机器学习的问题呢?

分类或回归模型的机器学习项目可以分成以下六个步骤:

(1)定义问题。
(2)理解数据。
(3)数据准备。
(4)评估算法。
(5)优化模型。
(6)结果部署。

有时这些步骤可能被合并或进一步分解,但通常是按上述六个步骤来开展机器学习项目的。为了符合python的习惯,在下面的python项目模板中,按照这六个步骤分解整个项目,在接下来的部分会明确各个步骤或子步骤中所要实现的功能。

机器学习项目的python模板

下面会给出一个机器学习项目的python模板。代码如下:

 

# python机器学习项目的模板

# 1. 定义问题
# a) 导入类库
# b) 导入数据集

# 2. 理解数据
# a) 描述性统计
# b) 数据可视化

# 3. 数据准备
# a) 数据清洗
# b) 特征选择
# c) 数据转换

# 4. 评估算法
# a) 分离数据集
# b) 定义模型评估标准
# c) 算法审查
# d) 算法比较

# 5. 优化模型
# a) 算法调参
# b) 集成算法

# 6. 结果部署
# a) 预测评估数据集
# b) 利用整个数据集生成模型
# c) 序列化模型

当有新的机器学习项目时,新建一个python文件,并将这个模板粘贴进去,再按照前面章节介绍的方法将其填充到每一个步骤中。

各步骤的详细说明

接下来将详细介绍项目模板的各个步骤。

步骤1:定义问题

主要是导入在机器学习项目中所需要的类库和数据集等,以便完成机器学习的项目,包括导入python的类库、类和方法,以及导入数据。同时这也是所有的配置参数的配置模块。当数据集过大时,可以在这里对数据集进行瘦身处理,理想状态是可以在1分钟内,甚至是30秒内完成模型的建立或可视化数据集。

步骤2:理解数据

这是加强对数据理解的步骤,包括通过描述性统计来分析数据和通过可视化来观察数据。在这一步需要花费时间多问几个问题,设定假设条件并调查分析一下,这对模型的建立会有很大的帮助。

步骤3:数据准备

数据准备主要是预处理数据,以便让数据可以更好地展示问题,以及熟悉输入与输出结果的关系。包括:

通过删除重复数据、标记错误数值,甚至标记错误的输入数据来清洗数据。
特征选择,包括移除多余的特征属性和增加新的特征属性。
数据转化,对数据尺度进行调整,或者调整数据的分布,以便更好地展示问题。
要不断地重复这个步骤和下一个步骤,直到找到足够准确的算法生成模型。

步骤4:评估算法

评估算法主要是为了寻找最佳的算法子集,包括:

分离出评估数据集,以便于验证模型。
定义模型评估标准,用来评估算法模型。
抽样审查线性算法和非线性算法。
比较算法的准确度。
在面对一个机器学习的问题的时候,需要花费大量的时间在评估算法和准备数据上,直到找到3~5种准确度足够的算法为止。

步骤5:优化模型

当得到一个准确度足够的算法列表后,要从中找出最合适的算法,通常有两种方法可以提高算法的准确度:

对每一种算法进行调参,得到最佳结果。
使用集合算法来提高算法模型的准确度。
步骤6:结果部署

一旦认为模型的准确度足够高,就可以将这个模型序列化,以便有新数据时使用该模型来预测数据。

通过验证数据集来验证被优化过的模型。
通过整个数据集来生成模型。
将模型序列化,以便于预测新数据。
做到这一步的时候,就可以将模型展示并发布给相关人员。当有新数据产生时,就可以采用这个模型来预测新数据。

使用模板的小技巧

快速执行一遍:首先要快速地在项目中将模板中的每一个步骤执行一遍,这样会加强对项目每一部分的理解并给如何改进带来灵感。

循环:整个流程不是线性的,而是循环进行的,要花费大量的时间来重复各个步骤,尤其是步骤3或步骤4(或步骤3~步骤5),直到找到一个准确度足够的模型,或者达到预定的周期。

尝试每一个步骤:跳过某个步骤很简单,尤其是不熟悉、不擅长的步骤。坚持在这个模板的每一个步骤中做些工作,即使这些工作不能提高算法的准确度,但也许在后面的操作就可以改进并提高算法的准确度。即使觉得这个步骤不适用,也不要跳过这个步骤,而是减少该步骤所做的贡献。

定向准确度:机器学习项目的目标是得到一个准确度足够高的模型。每一个步骤都要为实现这个目标做出贡献。要确保每次改变都会给结果带来正向的影响,或者对其他的步骤带来正向的影响。在整个项目的每个步骤中,准确度只能向变好的方向移动。
按需适用:可以按照项目的需要来修改步骤,尤其是对模板中的各个步骤非常熟悉之后。需要把握的原则是,每一次改进都以提高算法模型的准确度为前提。

总结

本章介绍了预测模型项目的模板,这个模板适用于分类或回归问题。接下来将介绍机器学习中的一个回归问题的项目,这个项目比前面介绍的鸢尾花的例子更加复杂,会利用到本章介绍的每个步骤。

回归项目实例
机器学习是一项经验技能,实践是掌握机器学习、提高利用机器学习解决问题的能力的有效方法之一。那么如何通过机器学习来解决问题呢?本章将通过一个实例来一步一步地介绍一个回归问题。本章主要介绍以下内容:

如何端到端地完成一个回归问题的模型。
如何通过数据转换提高模型的准确度。
如何通过调参提高模型的准确度。
如何通过集成算法提高模型的准确度。
定义问题

在这个项目中将分析研究波士顿房价(boston house price)数据集,这个数据集中的每一行数据都是对波士顿周边或城镇房价的描述。数据是1978年统计收集的。数据中包含以下14个特征和506条数据(uci机器学习仓库中的定义)。

crim:城镇人均犯罪率。
zn:住宅用地所占比例。
indus:城镇中非住宅用地所占比例。
chas:chas虚拟变量,用于回归分析。
nox:环保指数。
rm:每栋住宅的房间数。
age:1940年以前建成的自住单位的比例。
dis:距离5个波士顿的就业中心的加权距离。
rad:距离高速公路的便利指数。
tax:每一万美元的不动产税率。
prtatio:城镇中的教师学生比例。
b:城镇中的黑人比例。
lstat:地区中有多少房东属于低收入人群。
medv:自住房屋房价中位数。
通过对这些特征属性的描述,我们可以发现输入的特征属性的度量单位是不统一的,也许需要对数据进行度量单位的调整。

导入数据

首先导入在项目中需要的类库。代码如下:

# 导入类库
import numpy as np
from numpy import arange
from matplotlib import pyplot
from pandas import read_csv
from pandas import  set_option
from pandas.plotting import scatter_matrix
from sklearn.preprocessing import standardscaler
from sklearn.model_selection import train_test_split
from sklearn.model_selection import kfold
from sklearn.model_selection import cross_val_score
from sklearn.model_selection import gridsearchcv
from sklearn.linear_model import linearregression
from sklearn.linear_model import lasso
from sklearn.linear_model import elasticnet
from sklearn.tree import decisiontreeregressor
from sklearn.neighbors import kneighborsregressor
from sklearn.svm import svr
from sklearn.pipeline import pipeline
from sklearn.ensemble import randomforestregressor
from sklearn.ensemble import gradientboostingregressor
from sklearn.ensemble import extratreesregressor
from sklearn.ensemble import adaboostregressor
from sklearn.metrics import mean_squared_error

接下来导入数据集到python中,这个数据集也可以从uci机器学习仓库下载,在导入数据集时还设定了数据属性特征的名字。代码如下:

# 导入数据
filename = 'housing.csv'
names = ['crim', 'zn', 'indus', 'chas', 'nox', 'rm', 'age', 'dis',
         'rad', 'tax', 'prtatio', 'b', 'lstat', 'medv']
data = read_csv(filename, names=names, delim_whitespace=true)

在这里对每一个特征属性设定了一个名称,以便于在后面的程序中使用它们。因为csv文件是使用空格键做分隔符的,因此读入csv文件时指定分隔符为空格键(delim_whitespace=true)。

理解数据

对导入的数据进行分析,便于构建合适的模型。

首先看一下数据维度,例如数据集中有多少条记录、有多少个数据特征。代码如下:

# 数据维度
print(dataset.shape)

执行之后我们可以看到总共有506条记录和14个特征属性,这与uci提供的信息一致。

(506, 14)

再查看各个特征属性的字段类型。代码如下:

# 特征属性的字段类型
print(dataset.dtypes)

可以看到所有的特征属性都是数字,而且大部分特征属性都是浮点数,也有一部分特征属性是整数类型的。执行结果如下:

crim       float64
zn         float64
indus      float64
chas         int64
nox        float64
rm         float64
age        float64
dis        float64
rad          int64
tax        float64  
prtatio    float64
b          float64
lstat      float64
medv       float64
dtype: object

接下来对数据进行一次简单的查看,在这里我们查看一下最开始的30条记录。代码如下:

# 查看最开始的30条记录
set_option('display.line_width', 120)
print(dataset.head(30))

这里指定输出的宽度为120个字符,以确保将所有特征属性值显示在一行内。而且这些数据不是用相同的单位存储的,进行后面的操作时,也许需要将数据整理为相同的度量单位。执行结果如图20-1所示。

Python & 机器学习之项目实践

图20-1

接下来看一下数据的描述性统计信息。代码如下:

# 描述性统计信息
set_option('precision', 1)
print(dataset.describe())

在描述性统计信息中包含数据的最大值、最小值、中位值、四分位值等,分析这些数据能够加深对数据分布、数据结构等的理解。结果如图20-2所示。

Python & 机器学习之项目实践

图20-2

 

接下来看一下数据特征之间的两两关联关系,这里查看数据的皮尔逊相关系数。代码如下:

# 关联关系
set_option('precision', 2)
print(dataset.corr(method='pearson'))

执行结果如图20-3所示。

Python & 机器学习之项目实践

图20-3
通过上面的结果可以看到,有些特征属性之间具有强关联关系(>0.7或<-0.7),如:

nox与indus之间的皮尔逊相关系数是0.76。
dis与indus之间的皮尔逊相关系数是-0.71。
tax与indus之间的皮尔逊相关系数是0.72。
age与nox之间的皮尔逊相关系数是0.73。
dis与nox之间的皮尔逊相关系数是-0.77。
数据可视化

单一特征图表

首先查看每一个数据特征单独的分布图,多查看几种不同的图表有助于发现更好的方法。我们可以通过查看各个数据特征的直方图,来感受一下数据的分布情况。代码如下:

# 直方图
dataset.hist(sharex=false, sharey=false, xlabelsize=1, ylabelsize=1)
pyplot.show()

执行结果如图20-4所示,从图中可以看到有些数据呈指数分布,如crim、zn、age和b;有些数据特征呈双峰分布,如rad和tax。

Python & 机器学习之项目实践

图20-4

 

通过密度图可以展示这些数据的特征属性,密度图比直方图更加平滑地展示了这些数据特征。代码如下:

# 密度图
dataset.plot(kind='density', subplots=true, layout=(4,4), sharex=false, fontsize=1)
pyplot.show()

在密度图中,指定layout=(4, 4),这说明要画一个四行四列的图形。执行结果如图20-5所示。

Python & 机器学习之项目实践

图20-5

 

通过箱线图可以查看每一个数据特征的状况,也可以很方便地看出数据分布的偏态程度。代码如下:

#箱线图
dataset.plot(kind='box', subplots=true, layout=(4,4), sharex=false, sharey=false, fontsize=8)
pyplot.show()

执行结果如图20-6所示。

Python & 机器学习之项目实践

图20-6

 

多重数据图表

接下来利用多重数据图表来查看不同数据特征之间的相互影响关系。首先看一下散点矩阵图。代码如下:

# 散点矩阵图
scatter_matrix(dataset)
pyplot.show()

通过散点矩阵图可以看到,虽然有些数据特征之间的关联关系很强,但是这些数据分布结构也很好。即使不是线性分布结构,也是可以很方便进行预测的分布结构,执行结果如图20-7所示。

Python & 机器学习之项目实践

图20-7

 

再看一下数据相互影响的相关矩阵图。代码如下:

# 相关矩阵图
fig = pyplot.figure()
ax = fig.add_subplot(111)
cax = ax.matshow(dataset.corr(), vmin=-1, vmax=1, interpolation='none')
fig.colorbar(cax)
ticks = np.arange(0, 14, 1)
ax.set_xticks(ticks)
ax.set_yticks(ticks)
ax.set_xticklabels(names)
ax.set_yticklabels(names)
pyplot.show()

执行结果如图20-8所示,根据图例可以看到,数据特征属性之间的两两相关性,有些属性之间是强相关的,建议在后续的处理中移除这些特征属性,以提高算法的准确度。

Python & 机器学习之项目实践

图20-8
思路总结

通过数据的相关性和数据的分布等发现,数据集中的数据结构比较复杂,需要考虑对数据进行转换,以提高模型的准确度。可以尝试从以下几个方面对数据进行处理:

通过特征选择来减少大部分相关性高的特征。
通过标准化数据来降低不同数据度量单位带来的影响。
通过正态化数据来降低不同的数据分布结构,以提高算法的准确度。
可以进一步查看数据的可能性分级(离散化),它可以帮助提高决策树算法的准确度。

分离评估数据集

分离出一个评估数据集是一个很好的主意,这样可以确保分离出的数据集与训练模型的数据集完全隔离,有助于最终判断和报告模型的准确度。在进行到项目的最后一步处理时,会使用这个评估数据集来确认模型的准确度。这里分离出20%的数据作为评估数据集,80%的数据作为训练数据集。代码如下:

# 分离数据集
array = dataset.values
x = array[:, 0:13]
y = array[:, 13]
validation_size = 0.2
seed = 7
x_train, x_validation, y_train, y_validation = train_test_split(x, y,test_size=validation_size, random_state=seed)

评估算法

评估算法——原始数据

分析完数据不能立刻选择出哪个算法对需要解决的问题最有效。我们直观上认为,由于部分数据的线性分布,线性回归算法和弹性网络回归算法对解决问题可能比较有效。另外,由于数据的离散化,通过决策树算法或支持向量机算法也许可以生成高准确度的模型。到这里,依然不清楚哪个算法会生成准确度最高的模型,因此需要设计一个评估框架来选择合适的算法。我们采用10折交叉验证来分离数据,通过均方误差来比较算法的准确度。均方误差越趋近于0,算法准确度越高。代码如下:

# 评估算法 —— 评估标准
num_folds = 10
seed = 7
scoring = 'neg_mean_squared_error'

对原始数据不做任何处理,对算法进行一个评估,形成一个算法的评估基准。这个基准值是对后续算法改善优劣比较的基准值。我们选择三个线性算法和三个非线性算法来进行比较。

线性算法:线性回归(lr)、套索回归(lasso)和弹性网络回归(en)。
非线性算法:分类与回归树(cart)、支持向量机(svm)和k近邻算法(knn)。

算法模型初始化的代码如下:

# 评估算法 - baseline
models = {}
models['lr'] = linearregression()
models['lasso'] = lasso()
models['en'] = elasticnet()
models['knn']  = kneighborsregressor()
models['cart'] = decisiontreeregressor()
models['svm'] = svr()

对所有的算法使用默认参数,并比较算法的准确度,此处比较的是均方误差的均值和标准方差。代码如下:

# 评估算法
results = []
for key in models:
    kfold = kfold(n_splits=num_folds, random_state=seed)
    cv_result = cross_val_score(models[key], x_train, y_train, cv=kfold, scoring=scoring)
    results.append(cv_result)
    print('%s: %f (%f)' % (key, cv_result.mean(), cv_result.std()))

从执行结果来看,线性回归(lr)具有最优的mse,接下来是分类与回归树 (cart)算法。执行结果如下:

lr: -21.379856 (9.414264)
lasso: -26.423561 (11.651110)
en: -27.502259 (12.305022)
knn: -41.896488 (13.901688)
cart: -26.608476 (12.250800)
svm: -85.518342 (31.994798)

再查看所有的10折交叉分离验证的结果。代码如下:

#评估算法——箱线图
fig = pyplot.figure()
fig.suptitle('algorithm comparison')
ax = fig.add_subplot(111)
pyplot.boxplot(results)
ax.set_xticklabels(models.keys())
pyplot.show()

执行结果如图20-9所示,从图中可以看到,线性算法的分布比较类似,并且k近邻算法的结果分布非常紧凑。

Python & 机器学习之项目实践

图20-9
不同的数据度量单位,也许是k近邻算法和支持向量机算法表现不佳的主要原因。下面将对数据进行正态化处理,再次比较算法的结果。

评估算法——正态化数据

在这里猜测也许因为原始数据中不同特征属性的度量单位不一样,导致有的算法的结果不是很好。接下来通过对数据进行正态化,再次评估这些算法。在这里对训练数据集进行数据转换处理,将所有的数据特征值转化成“0”为中位值、标准差为“1”的数据。对数据正态化时,为了防止数据泄露,采用pipeline来正态化数据和对模型进行评估。为了与前面的结果进行比较,此处采用相同的评估框架来评估算法模型。代码如下:

# 评估算法——正态化数据
pipelines = {}
pipelines['scalerlr'] = pipeline([('scaler', standardscaler()), ('lr', linearregression())])
pipelines['scalerlasso'] = pipeline([('scaler', standardscaler()), ('lasso', lasso())])
pipelines['scaleren'] = pipeline([('scaler', 
standardscaler()), ('en', elasticnet())])
pipelines['scalerknn'] = pipeline([('scaler', 
standardscaler()), ('knn', kneighborsregressor())])
pipelines['scalercart'] = pipeline([('scaler', 
standardscaler()), ('cart', decisiontreeregressor())])
pipelines['scalersvm'] = pipeline([('scaler', 
standardscaler()), ('svm', svr())])
results = []
for key in pipelines:
    kfold = kfold(n_splits=num_folds, random_state=seed)
    cv_result = cross_val_score(pipelines[key], x_train, y_train, cv=kfold, scoring=scoring)
    results.append(cv_result)
    print('%s: %f (%f)' % (key, cv_result.mean(), cv_result.std()))

执行后发现k近邻算法具有最优的mse。执行结果如下:

scalerlr: -21.379856 (9.414264)
scalerlasso: -26.607314 (8.978761)
scaleren: -27.932372 (10.587490)
scalerknn: -20.107620 (12.376949)
scalercart: -26.978716 (12.164366)
scalersvm: -29.633086 (17.009186)

接下来看一下所有的10折交叉分离验证的结果。代码如下:

#评估算法——箱线图
fig = pyplot.figure()
fig.suptitle('algorithm comparison')
ax = fig.add_subplot(111)
pyplot.boxplot(results)
ax.set_xticklabels(models.keys())
pyplot.show()

执行结果,生成的箱线图如图20-10所示,可以看到k近邻算法具有最优的mse和最紧凑的数据分布。

Python & 机器学习之项目实践

调参改善算法

目前来看,k近邻算法对做过数据转换的数据集有很好的结果,但是是否可以进一步对结果做一些优化呢?k近邻算法的默认参数近邻个数(n_neighbors)是5,下面通过网格搜索算法来优化参数。代码如下:

# 调参改善算法——knn
scaler = standardscaler().fit(x_train)
rescaledx = scaler.transform(x_train)
param_grid = {'n_neighbors': [1, 3, 5, 7, 9, 11, 13, 15, 17, 19, 21]}
model = kneighborsregressor()
kfold = kfold(n_splits=num_folds, random_state=seed)
grid = gridsearchcv(estimator=model, 
param_grid=param_grid, scoring=scoring, cv=kfold)
grid_result = grid.fit(x=rescaledx, y=y_train)

print('最优:%s 使用%s' % (grid_result.best_score_, grid_result.best_params_))
cv_results = 
zip(grid_result.cv_results_['mean_test_score'],

grid_result.cv_results_['std_test_score'],
                 grid_result.cv_results_['params'])
for mean, std, param in cv_results:
    print('%f (%f) with %r' % (mean, std, param))

最优结果——k近邻算法的默认参数近邻个数(n_neighbors)是3。执行结果如下:

最优:-18.1721369637 使用{'n_neighbors': 3}
-20.208663 (15.029652) with {'n_neighbors': 1}
-18.172137 (12.950570) with {'n_neighbors': 3}
-20.131163 (12.203697) with {'n_neighbors': 5}
-20.575845 (12.345886) with {'n_neighbors': 7}
-20.368264 (11.621738) with {'n_neighbors': 9}
-21.009204 (11.610012) with {'n_neighbors': 11}
-21.151809 (11.943318) with {'n_neighbors': 13}
-21.557400 (11.536339) with {'n_neighbors': 15}
-22.789938 (11.566861) with {'n_neighbors': 17}
-23.871873 (11.340389) with {'n_neighbors': 19}
-24.361362 (11.914786) with {'n_neighbors': 21}

集成算法

除调参之外,提高模型准确度的方法是使用集成算法。下面会对表现比较好的线性回归、k近邻、分类与回归树算法进行集成,来看看算法能否提高。

装袋算法:随机森林(rf)和极端随机树(et)。
提升算法:adaboost(ab)和随机梯度上升(gbm)。

依然采用和前面同样的评估框架和正态化之后的数据来分析相关的算法。代码如下:

# 集成算法
ensembles = {}
ensembles['scaledab'] = pipeline([('scaler',
standardscaler()), ('ab', adaboostregressor())])
ensembles['scaledab-knn'] = pipeline([('scaler', 
standardscaler()), ('abknn', adaboostregressor
(base_estimator= kneighborsregressor(n_neighbors=3)))])
ensembles['scaledab-lr'] = pipeline([('scaler', 
standardscaler()), ('ablr',
adaboostregressor(linearregression()))])
ensembles['scaledrfr'] = pipeline([('scaler', 
standardscaler()), ('rfr', randomforestregressor())])
ensembles['scaledetr'] = pipeline([('scaler', 
standardscaler()), ('etr', extratreesregressor())])
ensembles['scaledgbr'] = pipeline([('scaler', 
standardscaler()), ('rbr', gradientboostingregressor())])

results = []
for key in ensembles:
    kfold = kfold(n_splits=num_folds, random_state=seed)
    cv_result = cross_val_score(ensembles[key], x_train, y_train, cv=kfold, scoring=scoring)
    results.append(cv_result)
    print('%s: %f (%f)' % (key, cv_result.mean(), cv_result.std()))

与前面的线性算法和非线性算法相比,这次的准确度都有了较大的提高。执行结果如下:

scaledab: -15.244803 (6.272186)
scaledab-knn: -15.794844 (10.565933)
scaledab-lr: -24.108881 (10.165026)
scaledrfr: -13.279674 (6.724465)
scaledetr: -10.464980 (5.476443)
scaledgbr: -10.256544 (4.605660)

接下来通过箱线图看一下集成算法在10折交叉验证中均方误差的分布状况。代码如下:

# 集成算法——箱线图
fig = pyplot.figure()
fig.suptitle('algorithm comparison')
ax = fig.add_subplot(111)
pyplot.boxplot(results)
ax.set_xticklabels(ensembles.keys())
pyplot.show()

执行结果如图20-11所示,随机梯度上升算法和极端随机树算法具有较高的中位值和分布状况。

Python & 机器学习之项目实践

图20-11
集成算法调参

集成算法都有一个参数n_estimators,这是一个很好的可以用来调整的参数。对于集成参数来说,n_estimators会带来更准确的结果,当然这也有一定的限度。下面对随机梯度上升(gbm)和极端随机树(et)算法进行调参,再次比较这两个算法模型的准确度,来确定最终的算法模型。代码如下:

# 集成算法gbm——调参
caler = standardscaler().fit(x_train)
rescaledx = scaler.transform(x_train)
param_grid = {'n_estimators': [10, 50, 100, 200, 300, 400, 500, 600, 700, 800, 900]}
model = gradientboostingregressor()
kfold = kfold(n_splits=num_folds, random_state=seed)
grid = gridsearchcv(estimator=model, 
param_grid=param_grid, scoring=scoring, cv=kfold)
grid_result = grid.fit(x=rescaledx, y=y_train)
print('最优:%s 使用%s' % (grid_result.best_score_, 
grid_result.best_params_))

# 集成算法et——调参
scaler = standardscaler().fit(x_train)
rescaledx = scaler.transform(x_train)
param_grid = {'n_estimators': [5, 10, 20, 30, 40, 50, 60, 70, 80, 90, 100]}
model = extratreesregressor()
kfold = kfold(n_splits=num_folds, random_state=seed)
grid = gridsearchcv(estimator=model, param_grid=param_grid, scoring=scoring, cv=kfold)
grid_result = grid.fit(x=rescaledx, y=y_train)
print('最优:%s 使用%s' % (grid_result.best_score_, grid_result.best_params_))

对于随机梯度上升(gbm)算法来说,最优的n_estimators是500;对于极端随机树(et)算法来说,最优的n_estimators是80。执行结果,极端随机树(et)算法略优于随机梯度上升(gbm)算法,因此采用极端随机树(et)算法来训练最终的模型。执行结果如下:

最优:-9.3078229754 使用{'n_estimators': 500}
最优:-8.99113433246 使用{'n_estimators': 80}

也许需要执行多次这个过程才能找到最优参数。这里有一个技巧,当最优参数是param_grid的边界值时,有必要调整param_grid进行下一次调参。

确定最终模型

我们已经确定了使用极端随机树(et)算法来生成模型,下面就对该算法进行训练和生成模型,并计算模型的准确度。代码如下:

#训练模型
caler = standardscaler().fit(x_train)
rescaledx = scaler.transform(x_train)
gbr = extratreesregressor(n_estimators=80)
gbr.fit(x=rescaledx, y=y_train)

再通过评估数据集来评估算法的准确度。

# 评估算法模型
rescaledx_validation = scaler.transform(x_validation)
predictions = gbr.predict(rescaledx_validation)
print(mean_squared_error(y_validation, predictions))

执行结果如下:

14.077038511

总结

本项目实例从问题定义开始,直到最后的模型生成为止,完成了一个完整的机器学习项目。通过这个项目,理解了上一章中介绍的机器学习项目的模板,以及整个机器学习模型建立的流程。接下来会介绍一个机器学习的二分类问题,以进一步加深对这个模板的理解。

 

出处:https://blog.csdn.net/qq_40027052/article/details/78912963