在逐渐缩小的空间上渐进学习朴素贝叶斯参数文章编号:1001-9081(2012)01-0223-05doi:10
3724/sp
00223摘要:局部加权朴素贝叶斯(lwnb)是朴素贝叶斯(nb)的一种较好的改进,判别频率估计(dfe)可以极大地提高nb的泛化正确率
受lwnb和dfe启发,提出逐渐缩小空间(gcs)算法用来学习nb参数:对于一个测试实例,寻找包含全体训练实例的全局空间的一系列逐渐缩小的子空间
这些子空间具有两种性质:1)它们都包含测试实例;2)一个空间一定包含在任何一个比它大的空间中
在逐渐缩小的空间上使用修改的dfe(mdfe)算法渐进地学习nb的参数,然后使用nb分类测试实例
与lwnb的根本不同是:gcs使用全体训练实例学习nb并且gcs可以实现为非懒惰版本
实现了gcs的决策树版本(gcs-t),gcs-t是非懒惰算法,它使用决策树寻找子空间
实验结果显示,与c4
5以及贝叶斯分类算法(如naivebayes、baysiannet、nbtree、lwnb、隐朴素贝叶斯)相比,gcs-t具有较高的泛化正确率,并且gcs-t的分类速度明显快于lwnb
关键词:朴素贝叶斯;局部模型;全局模型;决策树;朴素贝叶斯树abstract:locallyweightednaivebayes(lwnb)isagoodimprovementofnaivebayes(nb)anddiscriminativefrequencyestimate(dfe)remarkablyimprovesthegeneralizationaccuracyofnaivebayes
inspiredbylwnbanddfe,thispaperproposedgraduallycontractingspaces(gcs)algorithmtolearnparame