欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

以Python代码实例展示kNN算法的实际运用

程序员文章站 2023-01-08 15:38:27
邻近算法,或者说k最近邻(knn,k-nearestneighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓k最近邻,就是k个最近的邻居的意思,说的是每个样本都...

邻近算法,或者说k最近邻(knn,k-nearestneighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓k最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。
knn算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 knn方法在类别决策时,只与极少量的相邻样本有关。由于knn方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,knn方法较其他方法更为适合。
以Python代码实例展示kNN算法的实际运用

上图中,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?如果k=3,由于红色三角形所占比例为2/3,绿色圆将被赋予红色三角形那个类,如果k=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。
k最近邻(k-nearest neighbor,knn)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。knn算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 knn方法虽然从原理上也依赖于极限定理,但在类别决策时,只与极少量的相邻样本有关。由于knn方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,knn方法较其他方法更为适合。
knn算法不仅可以用于分类,还可以用于回归。通过找出一个样本的k个最近邻居,将这些邻居的属性的平均值赋给该样本,就可以得到该样本的属性。更有用的方法是将不同距离的邻居对该样本产生的影响给予不同的权值(weight),如权值与距离成反比。

用 knn 算法预测豆瓣电影用户的性别
摘要

本文认为不同性别的人偏好的电影类型会有所不同,因此进行了此实验。利用较为活跃的274位豆瓣用户最近观看的100部电影,对其类型进行统计,以得到的37种电影类型作为属性特征,以用户性别作为标签构建样本集。使用knn算法构建豆瓣电影用户性别分类器,使用样本中的90%作为训练样本,10%作为测试样本,准确率可以达到81.48%。

实验数据

本次实验所用数据为豆瓣用户标记的看过的电影,选取了274位豆瓣用户最近看过的100部电影。对每个用户的电影类型进行统计。本次实验所用数据*有37个电影类型,因此将这37个类型作为用户的属性特征,各特征的值即为用户100部电影中该类型电影的数量。用户的标签为其性别,由于豆瓣没有用户性别信息,因此均为人工标注。

数据格式如下所示:

x1,1,x1,2,x1,3,x1,4……x1,36,x1,37,y1
x2,1,x2,2,x2,3,x2,4……x2,36,x2,37,y2
…………
x274,1,x274,2,x274,3,x274,4……x274,36,x274,37,y274

示例:

0,0,0,3,1,34,5,0,0,0,11,31,0,0,38,40,0,0,15,8,3,9,14,2,3,0,4,1,1,15,0,0,1,13,0,0,1,1 0,1,0,2,2,24,8,0,0,0,10,37,0,0,44,34,0,0,3,0,4,10,15,5,3,0,0,7,2,13,0,0,2,12,0,0,0,0

像这样的数据一共有274行,表示274个样本。每一个的前37个数据是该样本的37个特征值,最后一个数据为标签,即性别:0表示男性,1表示女性。

在此次试验中取样本的前10%作为测试样本,其余作为训练样本。

首先对所有数据归一化。对矩阵中的每一列求取最大值(max_j)、最小值(min_j),对矩阵中的数据x_j,
x_j=(x_j-min_j)/(max_j-min_j) 。

然后对于每一条测试样本,计算其与所有训练样本的欧氏距离。测试样本i与训练样本j之间的距离为:
distance_i_j=sqrt((xi,1-xj,1)^2+(xi,2-xj,2)^2+……+(xi,37-xj,37)^2) ,
对样本i的所有距离从小到大排序,在前k个中选择出现次数最多的标签,即为样本i的预测值。

实验结果

首先选择一个合适的k值。 对于k=1,3,5,7,均使用同一个测试样本和训练样本,测试其正确率,结果如下表所示。

选取不同k值的正确率表

以Python代码实例展示kNN算法的实际运用

由上述结果可知,在k=3时,测试的平均正确率最高,为74.07%,最高可以达到81.48%。

上述不同的测试集均来自同一样本集中,为随机选取所得。

python代码

这段代码并非原创,来自《机器学习实战》(peter harrington,2013),并有所改动。

#coding:utf-8

from numpy import *
import operator

def classify0(inx, dataset, labels, k):
  datasetsize = dataset.shape[0]
  diffmat = tile(inx, (datasetsize,1)) - dataset
  sqdiffmat = diffmat**2
  sqdistances = sqdiffmat.sum(axis=1)
  distances = sqdistances**0.5
  sorteddistindicies = distances.argsort()   
  classcount={}     
  for i in range(k):
    voteilabel = labels[sorteddistindicies[i]]
    classcount[voteilabel] = classcount.get(voteilabel,0) + 1
  sortedclasscount = sorted(classcount.iteritems(), key=operator.itemgetter(1), reverse=true)
  return sortedclasscount[0][0]

def autonorm(dataset):
  minvals = dataset.min(0)
  maxvals = dataset.max(0)
  ranges = maxvals - minvals
  normdataset = zeros(shape(dataset))
  m = dataset.shape[0]
  normdataset = dataset - tile(minvals, (m,1))
  normdataset = normdataset/tile(ranges, (m,1))  #element wise divide
  return normdataset, ranges, minvals

def file2matrix(filename):
  fr = open(filename)
  numberoflines = len(fr.readlines())     #get the number of lines in the file
  returnmat = zeros((numberoflines,37))    #prepare matrix to return
  classlabelvector = []            #prepare labels return  
  fr = open(filename)
  index = 0
  for line in fr.readlines():
    line = line.strip()
    listfromline = line.split(',')
    returnmat[index,:] = listfromline[0:37]
    classlabelvector.append(int(listfromline[-1]))
    index += 1
  fr.close()
  return returnmat,classlabelvector

def genderclasstest():
  horatio = 0.10   #hold out 10%
  datingdatamat,datinglabels = file2matrix('doubanmoviedataset.txt')    #load data setfrom file
  normmat,ranges,minvals=autonorm(datingdatamat)
  m = normmat.shape[0]
  numtestvecs = int(m*horatio)
  testmat=normmat[0:numtestvecs,:]
  trainmat=normmat[numtestvecs:m,:]
  trainlabels=datinglabels[numtestvecs:m]
  k=3
  errorcount = 0.0
  for i in range(numtestvecs):
    classifierresult = classify0(testmat[i,:],trainmat,trainlabels,k)
    print "the classifier came back with: %d, the real answer is: %d" % (classifierresult, datinglabels[i])
    if (classifierresult != datinglabels[i]):
      errorcount += 1.0
  print "total errors:%d" %errorcount
  print "the total accuracy rate is %f" %(1.0-errorcount/float(numtestvecs))