分类模型综述

作者:亚博全站app官网登录发布时间:2021-12-07 00:46

本文摘要:分类模型是一切人工智能的基础。把分类模型研究清楚了,人工智能涉及的其他模型也就简朴了分类模型的输入,我们界说为X:它是一个向量[x0,x1,x2,x3,x4,...xn] 这个向量通常代表了一张图像,或者一段语音,或者一段文字等你要分类的工具分类模型的输出,我们界说为Y,它是一个详细的值。好比Y=1,表现第一类。 它也可以是一个向量,好比[1,0,0,0,0,0]这个向量表现第1类,[0,1,1,1,1,1]这个向量表现第2类。

亚博全站app官网登录

分类模型是一切人工智能的基础。把分类模型研究清楚了,人工智能涉及的其他模型也就简朴了分类模型的输入,我们界说为X:它是一个向量[x0,x1,x2,x3,x4,...xn] 这个向量通常代表了一张图像,或者一段语音,或者一段文字等你要分类的工具分类模型的输出,我们界说为Y,它是一个详细的值。好比Y=1,表现第一类。

它也可以是一个向量,好比[1,0,0,0,0,0]这个向量表现第1类,[0,1,1,1,1,1]这个向量表现第2类。既然模型的输入输出清楚了,那么模型就可以界说为Y = F(X)了,模型就可以界说为一个函数F了,所以只要实现把X 变换为 Y的函数,我们都可以称之为模型。

那么主要的分类模型有哪些呢?Y = k近邻模型(X)Y = 贝叶斯(X)Y = SVM(X)Y = 线性模型(X)Y = 决议树(X)Y = 神经网络(X)k近邻模型:(1)盘算已知种别数据集中的点与当前点之间的距离;(2)根据距离递增序次排序;(3)选取与当前点距离最小的k和点;(4)确定前k个点所在种别的泛起频率;(5)返回当前k个点泛起频率最高种别作为当前点的预测分类。import numpy as npimport operatorgroup = np.array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])labels = ['A','A','B','B']def classify0(inX,dataSet,labels,k): dataSetSize=dataSet.shape[0] #距离盘算,新的数据与样本的距离举行减法 diffMat = np.tile(inX, (dataSetSize,1)) - dataSet #对数组的每一项举行平方 sqDiffMat=diffMat**2 #数组每个特征值举行求和 sqDistances=sqDiffMat.sum(axis=1) #每个值开方 distances=sqDistances**0.5 #索引值排序 sortedDistIndicies = distances.argsort() #选取距离最小的前k个值举行索引,从k其中选取分类最多的一个作为新数据的分类 classCount={} for i in range(k): voteIlabel=labels[sortedDistIndicies[i]] classCount[voteIlabel]=classCount.get(voteIlabel,0)+1 sortedClassCount=sorted(classCount.items(), key=operator.itemgetter(1),reverse=True) #返回前k个点中频率最高的种别 return sortedClassCount[0][0] print(classify0([0,0],group,labels,3))out:B贝叶斯模型:朴素贝叶斯分类器事情流程朴素贝叶斯分类常用于文天职类,尤其是对于英文等语言来说,分类效果很好。它常用于垃圾文本过滤、情感预测、推荐系统等。朴素贝叶斯分类器需要三个流程,我来给你一一解说下这几个流程。

第一阶段:准备阶段在这个阶段我们需要确定特征属性,好比上面案例中的“身高”、“体重”、“鞋码”等,并对每个特征属性举行适当划分,然后由人工对一部门数据举行分类,形成训练样本。这一阶段是整个朴素贝叶斯分类中唯一需要人工完成的阶段,其质量对整个历程将有重要影响,分类器的质量很大水平上由特征属性、特征属性划分及训练样本质量决议。第二阶段:训练阶段这个阶段就是生身分类器,主要事情是盘算每个种别在训练样本中的泛起频率及每个特征属性划分对每个种别的条件概率。

输入是特征属性和训练样本,输出是分类器。第三阶段:应用阶段这个阶段是使用分类器对新数据举行分类。输入是分类器和新数据,输出是新数据的分类效果。

好了,在这次课中你相识了概率论中的贝叶斯原理,朴素贝叶斯的事情原理和事情流程,也对朴素贝叶斯的强大和限制有了认识。下一节中,我将带你实战,亲自掌握 Python 中关于朴素贝叶斯分类器工具的使用。

支持向量机模型:支持向量机(support vector machines, SVM)是一种二分类模型,它的基本模型是界说在特征空间上的距离最大的线性分类器,距离最大使它有别于感知机;SVM还包罗核技巧,这使它成为实质上的非线性分类器。SVM的的学习计谋就是距离最大化,可形式化为一个求解凸二次计划的问题,也等价于正则化的合页损失函数的最小化问题。SVM的的学习算法就是求解凸二次计划的最优化算法。

决议树模型:决议树是一种十分常用的分类方法,需要羁系学习(有教师的Supervised Learning),羁系学习就是给出一堆样本,每个样本都有一组属性和一个分类效果,也就是分类效果已知,那么通过学习这些样本获得一个决议树,这个决议树能够对新的数据给出正确的分类。决议树的生成主要分以下两步,这两步通常通过学习已经知道分类效果的样原来实现。1. 节点的破裂:一般当一个节点所代表的属性无法给出判断时,则选择将这一节点分成2个子节点(如不是二叉树的情况会分成n个子节点)2. 阈值简直定:选择适当的阈值使得分类错误率最小 (Training Error)。比力常用的决议树有ID3,C4.5和CART(Classification And Regression Tree),CART的分类效果一般优于其他决议树。

神经网络模型:神经网络的神奇之处,就在于它可以自动做模型参数W和b的优化,在深度学习中,参数的数量有时会上亿,不外其优化的原理和我们这个两层神经网络是一样的。


本文关键词:亚博全站app官网登录,分类,模型,综述,分类,模型,是,一切,人工智能

本文来源:亚博全站app官网登录-www.mxdizhi.com