电脑桌面
添加小米粒文库到电脑桌面
安装后可以在桌面快捷访问

数据挖掘之相似性度量

数据挖掘之相似性度量_第1页
1/7
数据挖掘之相似性度量_第2页
2/7
数据挖掘之相似性度量_第3页
3/7
数据挖掘之相似性度量机器学习或数据挖掘,就是在数据中寻求答案的算法。而寻求的答案就是训练完成的数据模型。大部分的数据建模方法都属于这两种:)数据汇总,对数据进行简洁的近似描述如、聚类)特征抽取如频繁项集(同时频繁出现的元素子集)、相似项(共同元素比例较高的集合对)在机器学习或数据挖掘之前,还需要概率,或信息论的一些相关知识,现实世界的对象需要转换为计算机的度量方式。熵的相关概念相似度的度量及计算对文本相似度的分析局部敏感的分析查找相似项的处理流程几种距离度量方式相关知识:文本分类时,一个重要指标:,分为两个阶段:同一文档中的统计;以文档为粒度,所有文档的统计。:词项频率,同一篇文档中,所有词项出现频率的归一化:逆文档频率,所有文档数目,与某一词出现的文档的数目的比率关系其中的关系:不仅仅是一个公式,里面包含了信息论中熵的概念。就是一个特定条件下关键词的概率分布的交叉熵。应用了对数运算。熵的相关概念熵,表示信息量的大小,与概率相关。随机变量的不确定性越大,即概率小,其熵也就越大,将其搞清楚,所需的信息量也就越大。求和。一个系统越混乱,则每个变量的概率越小,其熵也就越大。信息论在通信编码的表示也是一样的,一个变量,在系统中的概率越小,其编码也就越长,因为短的编码要留给概率大的变量。即熵越大,其编码也就越长,这样压缩的效率就比较高。发送一段信息,其需要的编码长度(二进制),也就是求和。或者,可以说,熵越大,信息量越大,一个概率较低的词,可能就是系统信息比较关键的词。互信息:两个随机变量的相关依赖程度,可以用来解释一个变量已知时,另外一个变量的不确定的变化。即不确定信息的减少量。自信息:一个随机变量(信源)发出的信息,这个信息所带来的信息量的度量。一次事件发生的提供的信息量,有时与熵的含义相同(当事件只发生一次时)。而熵是平均信息量,所有自信息的期望。当信息确定时,确定场(无随机性)的熵最小。等概场的熵最大。熵率:又称字符熵、词熵。信息量的大小随着消息长度的增加而增加。()(求和)联合熵:同联合分布函数的形式类似,联合随机变量所表示的平均信息量(期望)。求和条件熵:求和联合熵条件熵单变量熵互信息的熵描述了中包含有多少的信息量,或者是中包含了多少的信息量。当相互独立,则其互信息为当,则两个事件高度相关;当(),则两个事件,互补分布。交叉熵:随机变量的分布()未知,则通过统计...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。

碎片内容

数据挖掘之相似性度量

确认删除?
VIP
微信客服
  • 扫码咨询
会员Q群
  • 会员专属群点击这里加入QQ群
客服邮箱
回到顶部