分类(Categoriz ation or Classification)就是按照某种标准给对象贴标签(label),再根据标签来区分归类。 分类是事先定义好类别 ,类别数不变 。分类器需要由人工标注的分类训练语料训练得到,属于有指导学习范畴。 最常用的分类算法就是贝叶斯分类算法,(贝叶斯分类器) 用到的知识就是概率的东西 不准确的说,就是给它一些已经知道分类的例子作为样本,让它自己“找到”分类标准。 说概念就太抽象,我给你举一些例子吧 比如程序是区分大豆和绿豆的。我们输入的数据是 比如颜色值、半径大小,属于黄豆还是绿豆等等(当然这是个简单的例子)。首先我们需要拿出一些“豆子”的数据给程序,并告诉它是黄豆还是绿豆,然后通过自己的算法,让程序“计算”出区分两种东西的“边界条件”,或者简单说就是提取特征(一般用的比较多的就是距离)。这就相当于训练/学习等概念。 主要分类方法介绍 主要分类方法介绍解决分类问题的方法很多[40-42] ,单一的分类方法主要包括:决策树、贝叶斯、人工神经网络、K-近邻、支持向量机和基于关联规则的分类等;另外还有用于组合单一分类方法的集成学习算法,如Bagging 和Boosting 等。 (1)决策树 决策树是用于分类和预测的主要技术之一,决策树学习是以实例为基础的归纳学习算法,它着眼于从一组无次序、无规则的实例中推理出以决策树表示的分类规则。构造决策树的目的是找出属性和类别间的关系,用它来预测将来未知类别的记录的类别。它采用自顶向下的递归方式,在决策树的内部节点进行属性的比较,并根据不同属性值判断从该节点向下的分支,在决策树的叶节点得到结论。 主要的决策树算法有ID3、C4.5(C5.0)、CART、PUBLIC、SLIQ 和SPRINT 算法等。它们在选择测试属性采用的技术、生成的决策树的结构、剪枝的方法以及时刻,能否处理大数据集等方面都有各自的不同之处。 (2)贝叶斯 贝叶斯(Bayes)分类算法是一类利用概率统计知识进行分类的算法,如朴素贝叶斯(Naive Bayes)算法。这些算法主要利用 Bayes 定理来预测一个未知类别的样本属于各个类别的可能性,选择其中可能性最大的一个类别作为该样本的最终类别。由于贝叶斯定理的成立本身需要一个很强的条件独立性假设前提,而此假设在实际情况中经常是不成立的,因而其分类准确性就会下降。为此就出现了许多降低独立性假设的贝叶斯分类算法,如 TAN(Tree Augmented Naïve Bayes)算法,它是在贝叶斯网络结构的基础上增加属...