欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

7 数据预处理-数据标准化

程序员文章站 2022-07-16 19:47:17
...

数据预处理-数据标准化

正规化 Normalization

这个文章知识讲解了入门的数据预处理,更多的归一化方法请看:
http://blog.csdn.net/u012052268/article/details/74028952 sklearn中常用数据预处理方法

由于资料的偏差与跨度会影响机器学习的成效,因此正规化(标准化)数据可以提升机器学习的成效。首先由例子来讲解:
- 例子1 - 数据标准化
- 例子2 - 数据标准化对机器学习成效的影响

例子1 - 数据标准化

#数据预处理模块
from sklearn import preprocessing
import numpy as np

#建立Array
a = np.array([[10, 2.7, 3.6],
              [-100, 5, -2],
              [120, 20, 40]], dtype=np.float64)
#数据预处理模块 有一个方法:scale 归一化数据
print(preprocessing.scale(a))
# [[ 0.         -0.85170713 -0.55138018]
#  [-1.22474487 -0.55187146 -0.852133  ]
#  [ 1.22474487  1.40357859  1.40351318]]

# 或者是
print(preprocessing.minmax_scale(a,feature_range=(-1,1)))
'''
结果是:
[[ -2.77555756e-17  -1.00000000e+00  -7.33333333e-01]
 [ -1.00000000e+00  -7.34104046e-01  -1.00000000e+00]
 [  1.00000000e+00   1.00000000e+00   1.00000000e+00]]
'''

例子2 - 数据标准化对机器学习成效的影响

# 标准化数据模块
from sklearn import preprocessing 
import numpy as np

# 将资料分割成train与test的模块
frfrom sklearn.model_selection import train_test_split

# 生成适合做classification资料的模块
from sklearn.datasets.samples_generator import make_classification 

# Support Vector Machine中的Support Vector Classifier
from sklearn.svm import SVC 

# 可视化数据的模块
import matplotlib.pyplot as plt 

#生成具有2种属性的300笔数据
X, y = make_classification(
    n_samples=300, n_features=2,
    n_redundant=0, n_informative=2, 
    random_state=22, n_clusters_per_class=1, 
    scale=100)
'''
参数的含义:
n_samples:样本数。
n_features:特征总数。
n_informative:信息特征的数量。
n_redundant:冗余特征数。
n_repeated:从信息和冗余特征中随机抽取的重复特征数。
n_classes:分类问题的类(或标号)的个数。
n_clusters_per_class:每个类的群集数。
random_state:随机数生成器使用的种子。
'''


#可视化数据
plt.scatter(X[:, 0], X[:, 1], c=y)
plt.show()

7 数据预处理-数据标准化

标准化前的预测准确率只有0.477777777778

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3)
clf = SVC()
clf.fit(X_train, y_train)
print(clf.score(X_test, y_test))
# 0.477777777778

数据标准化后

数据的单位发生了变化, X 数据也被压缩到差不多大小范围.标准化后的预测准确率提升至0.9

X = preprocessing.scale(X)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3)
clf = SVC()
clf.fit(X_train, y_train)
print(clf.score(X_test, y_test))
# 0.9