ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

NLP笔记-从HMM到CRF

2020-04-28 16:56:56  阅读:318  来源: 互联网

标签:NLP 概率 训练 logP HMM CRF 但是


 

通过收集大量有标注的语料,估算状态转移概率和发射概率

 

HMM如何做词性标注

 

 

 最笨的办法是穷举y来求P(x,y)的最大值,但是计算次数太多,所以通过维特比算法解这个问题

 

 但是HMM有问题,加入y*是最优解,它并不能总是保证p(x,y*)>=p(x,y),比如在这个图里,如果要算N->?->a,按照HMM,?应该是V,但是在训练集中根本没有出现过N->V->a,反而出现过

 N->D->a,所以最优解应该是D不是V。但是在训练数据少的时候,这反而是一个优点

CRF的概率用神经网络算,虽然看起来和HMM完全不一样,但是实际上一样

 

 

 

 上图中的logP(x|y)看着不好理解,下面举个例子

 

 

 所以logP(x|y)可以写成这样

 

 

 

CRF的训练,用梯度上升

 

标签:NLP,概率,训练,logP,HMM,CRF,但是
来源: https://www.cnblogs.com/tendermelon/p/12795290.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有