一、介绍

你好,我是悦创。

博客首发:https://bornforthis.cn/column/Machine-learning/informal-essay/01.html

本文是由给私教学员 cava 解说时编写,次要逻辑没有谬误。

k-近邻算法(K-Nearest Neighbour algorithm),又称 KNN 算法,是数据挖掘技术中原理最简略的算法。

工作原理:给定一个已知标签类别的训练数据集,输出没有标签的新数据后,在训练数据集中找到与新数据最邻近的 k 个实例,如果这 k 个实例的少数属于某个类别,那么新数据就属于这个类别。简略了解为:由那些离 X 最近的 k 个点来投票决定 X 归为哪一类。

二、k-近邻算法的步骤

(1)计算已知类别数据集中的点与以后点之间的间隔;

(2)依照间隔递增秩序排序;

(3)选取与以后点间隔最小的 k 个点;

(4)确定前k个点所在类别的呈现频率;

(5)返回前 k 个点呈现频率最高的类别作为以后点的预测类别。

三、Python 实现

判断一个电影是爱情片还是动作片。

电影名称搞笑镜头拥抱镜头打斗镜头电影类型
0功夫熊猫39031喜剧片
1叶问33265动作片
2伦敦沦陷2355动作片
3代理情人9382爱情片
4新步步惊心83417爱情片
5谍影重重5257动作片
6功夫熊猫39031喜剧片
7美人鱼21175喜剧片
8宝贝当家4529喜剧片
9唐人街探案23317

欧氏间隔

构建数据集

rowdata = {    "电影名称": ['功夫熊猫', '叶问3', '伦敦沦陷', '代理情人', '新步步惊心', '谍影重重', '功夫熊猫', '美人鱼', '宝贝当家'],    "搞笑镜头": [39,3,2,9,8,5,39,21,45],    "拥抱镜头": [0,2,3,38,34,2,0,17,2],    "打斗镜头": [31,65,55,2,17,57,31,5,9],    "电影类型": ["喜剧片", "动作片", "动作片", "爱情片", "爱情片", "动作片", "喜剧片", "喜剧片", "喜剧片"]}

计算已知类别数据集中的点与以后点之间的间隔

new_data = [24,67]dist = list((((movie_data.iloc[:6,1:3]-new_data)**2).sum(1))**0.5)

将间隔升序排列,而后选取间隔最小的 k 个点「容易拟合·当前专栏再论」

k = 4dist_l = pd.DataFrame({'dist': dist, 'labels': (movie_data.iloc[:6, 3])}) dr = dist_l.sort_values(by='dist')[:k]

确定前 k 个点的类别的呈现概率

re = dr.loc[:,'labels'].value_counts()re.index[0]

抉择频率最高的类别作为以后点的预测类别

result = []result.append(re.index[0])result

四、约会网站配对成果断定

# 导入数据集datingTest = pd.read_table('datingTestSet.txt',header=None)datingTest.head()# 剖析数据%matplotlib inlineimport matplotlib as mplimport matplotlib.pyplot as plt#把不同标签用色彩辨别Colors = []for i in range(datingTest.shape[0]):    m = datingTest.iloc[i,-1]  # 标签    if m=='didntLike':        Colors.append('black')    if m=='smallDoses':        Colors.append('orange')    if m=='largeDoses':        Colors.append('red')#绘制两两特色之间的散点图plt.rcParams['font.sans-serif']=['Simhei'] #图中字体设置为黑体pl=plt.figure(figsize=(12,8))  # 建设一个画布fig1=pl.add_subplot(221)  # 建设两行两列画布,放在第一个外面plt.scatter(datingTest.iloc[:,1],datingTest.iloc[:,2],marker='.',c=Colors)plt.xlabel('玩游戏视频所占工夫比')plt.ylabel('每周生产冰淇淋公升数')fig2=pl.add_subplot(222)plt.scatter(datingTest.iloc[:,0],datingTest.iloc[:,1],marker='.',c=Colors)plt.xlabel('每年航行常客里程')plt.ylabel('玩游戏视频所占工夫比')fig3=pl.add_subplot(223)plt.scatter(datingTest.iloc[:,0],datingTest.iloc[:,2],marker='.',c=Colors)plt.xlabel('每年航行常客里程')plt.ylabel('每周生产冰淇淋公升数')plt.show()# 数据归一化def minmax(dataSet):    minDf = dataSet.min()    maxDf = dataSet.max()    normSet = (dataSet - minDf )/(maxDf - minDf)    return normSetdatingT = pd.concat([minmax(datingTest.iloc[:, :3]), datingTest.iloc[:,3]], axis=1)datingT.head()# 切分训练集和测试集def randSplit(dataSet,rate=0.9):    n = dataSet.shape[0]     m = int(n*rate)    train = dataSet.iloc[:m,:]    test = dataSet.iloc[m:,:]    test.index = range(test.shape[0])    return train,testtrain,test = randSplit(datingT)# 分类器针对约会网站的测试代码def datingClass(train,test,k):    n = train.shape[1] - 1  # 将标签列减掉    m = test.shape[0]  # 行数    result = []    for i in range(m):        dist = list((((train.iloc[:, :n] - test.iloc[i, :n]) ** 2).sum(1))**5)        dist_l = pd.DataFrame({'dist': dist, 'labels': (train.iloc[:, n])})        dr = dist_l.sort_values(by = 'dist')[: k]        re = dr.loc[:, 'labels'].value_counts()        result.append(re.index[0])    result = pd.Series(result)      test['predict'] = result  # 减少一列    acc = (test.iloc[:,-1]==test.iloc[:,-2]).mean()    print(f'模型预测准确率为{acc}')    return testdatingClass(train,test,5)  # 95%

五、手写数字辨认

import os#失去标记好的训练集def get_train():    path = 'digits/trainingDigits'    trainingFileList = os.listdir(path)    train = pd.DataFrame()    img = []  # 第一列原来的图像转换为图片外面0和1,一行    labels = []  # 第二列原来的标签    for i in range(len(trainingFileList)):        filename = trainingFileList[i]        txt = pd.read_csv(f'digits/trainingDigits/{filename}', header = None) #32行        num = ''        # 将32行转变为1行        for i in range(txt.shape[0]):            num += txt.iloc[i,:]        img.append(num[0])        filelable = filename.split('_')[0]        labels.append(filelable)    train['img'] = img    train['labels'] = labels    return train    train = get_train()   # 失去标记好的测试集def get_test():    path = 'digits/testDigits'    testFileList = os.listdir(path)    test = pd.DataFrame()    img = []  # 第一列原来的图像转换为图片外面0和1,一行    labels = []  # 第二列原来的标签    for i in range(len(testFileList)):        filename = testFileList[i]        txt = pd.read_csv(f'digits/testDigits/{filename}', header = None) #32行        num = ''        # 将32行转变为1行        for i in range(txt.shape[0]):            num += txt.iloc[i,:]        img.append(num[0])        filelable = filename.split('_')[0]        labels.append(filelable)    test['img'] = img    test['labels'] = labels    return testtest = get_test()# 分类器针对手写数字的测试代码from Levenshtein import hammingdef handwritingClass(train, test, k):    n = train.shape[0]    m = test.shape[0]    result = []    for i in range(m):        dist = []        for j in range(n):            d = str(hamming(train.iloc[j,0], test.iloc[i,0]))            dist.append(d)        dist_l = pd.DataFrame({'dist':dist, 'labels':(train.iloc[:,1])})        dr = dist_l.sort_values(by='dist')[:k]        re = dr.loc[:,'labels'].value_counts()        result.append(re.index[0])    result = pd.Series(result)    test['predict'] = result    acc = (test.iloc[:,-1] == test.iloc[:,-2]).mean()    print(f'模型预测准确率为{acc}')    return testhandwritingClass(train, test, 3)  # 97.8%

六、算法优缺点

长处

(1)简略好用,容易了解,精度高,实践成熟,既能够用来做分类也能够用来做回归;

(2)可用于数值型数据和离散型数据;

(3)无数据输出假设;

(4)适宜对罕见事件进行分类。

毛病

(1)计算复杂性高;空间复杂性高;

(2)计算量大,所以个别数值很大的适宜不必这个,然而单个样本又不能太少,否则容易产生误分;

(3)样本不均衡问题(即有些类别的样本数量很多,而其余样本的数量很少);

(4)可了解性比拟差,无奈给出数据的外在含意

欢送关注我公众号:AI悦创,有更多更好玩的等你发现!

::: details 公众号:AI悦创【二维码】

[外链图片转存失败,源站可能有防盗链机制,倡议将图片保留下来间接上传(img-WYM7nOC8-1662516904384)(/gzh.jpg)]

:::

::: info AI悦创·编程一对一

AI悦创·推出辅导班啦,包含「Python 语言辅导班、C++ 辅导班、java 辅导班、算法/数据结构辅导班、少儿编程、pygame 游戏开发」,全部都是一对一教学:一对一辅导 + 一对一答疑 + 安排作业 + 我的项目实际等。当然,还有线下线上摄影课程、Photoshop、Premiere 一对一教学、QQ、微信在线,随时响应!微信:Jiabcdefh

C++ 信息奥赛题解,长期更新!长期招收一对一中小学信息奥赛集训,莆田、厦门地区有机会线下上门,其余地区线上。微信:Jiabcdefh

办法一:QQ

办法二:微信:Jiabcdefh

:::

[外链图片转存失败,源站可能有防盗链机制,倡议将图片保留下来间接上传(img-I9PiHP9R-1662516904384)(/zsxq.jpg)]