电脑桌面
添加小米粒文库到电脑桌面
安装后可以在桌面快捷访问

Ngram折扣平滑算法VIP免费

Ngram折扣平滑算法_第1页
1/6
Ngram折扣平滑算法_第2页
2/6
Ngram折扣平滑算法_第3页
3/6
Ngram折扣平滑算法 本文档翻译自srilm 手册ngram-discount.7.html NAME ngram-discount – 这里主要说明srilm 中实现的平滑算法 NOTATION a_z 代表以a 为起始词,以z为结束词的ngram,其中_代表0 个或多个词 p(a_z) 前n-1 个词为a_的情况下,第n 个词为z的条件概率 a_ n 元a_z的前n-1 个词构成的前缀 _z n 元a_z的后n-1 个词构成的后缀 c(a_z) n元a_z在训练语料中出现的次数 n(*_z) 符合*_z 这一模式的独立n 元数目,“*_z”中‘*’代表通配符 n1,n[1] 出现次数为1 的ngram 数目 DESCRIPTION Ngram 语言模型主要用于估计前n-1 词为a_的情况下,第n 个词为z 的概率,即概率Pr(z|a_),为简单起见,一般使用 P(a_z)表示。估算概率最直接的方式就是分别在训练集中统计 c(a_z)和 c(a_),然后求如下公式,即得到相关概率运算结果: (1) p(a_z) = c(a_z)/c(a_) 如上的概率估算方法又称为最大似然估计方法。该方法比较直观易懂,但存在一个不足点就是对于语料中不存在的n 元,其概率估算结果将为0。为了避免该情况的发生,可以通过将观察到的ngram 一部分概率分布出去,并将这部分概率值分配到未观察到的ngram 上。这种概率重新分配方式即为通常所说的平滑(smoothing)或折扣(discounting)。 大部分平滑算法都可以使用如下公式来表示 (2) p(a_z) = (c(a_z) > 0) ? f(a_z) : bow(a_) p(_z) 若 ngram a_z在训练集中发生了,则直接使用概率f(a_z),该概率值一般都小于最大似然估计概率值结果,这样留下的一部分概率值可用于训练语料中未覆盖到的n 元a_*。不同的平滑算法区别主要在于采用何种折扣方法对最大似然估计结果进行折扣。 应用公式(2)计算概率p(a_z)时,若 ngram a_z在训练语料中没有出现,则直接使用低阶概率分布 p(_z),若历史 a_在训练语料中没有出现,即 c(a_) = 0,这时可以直接使用 p(_z)作为当前ngram 的概率值,即 bow(a_) = 1 ;否则需要将 bow(a_)乘到 p(_z)上,以保证概率分布的归一性,即: Sum_z p(a_z) = 1 假设 Z 为词典中所有词构成的集合,Z0 为词典中所有满足条件c(a_z) = 0 的词构成的集合,Z1 为词典中所有满足条件c(a_z) > 0的词构成的集合。在f(a_z)计算好的情况下,bow(a_)可以通过如下方式估算得到: (3) Sum_Z p(a_z) = 1 Sum_Z1 f(a_z) + Sum_Z0 bow(a_) p(_z) = 1 bow(a_) = (1 - Sum_Z1 f(a_...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。

碎片内容

Ngram折扣平滑算法

确认删除?
VIP
微信客服
  • 扫码咨询
会员Q群
  • 会员专属群点击这里加入QQ群
客服邮箱
回到顶部