HMM算法(生成模型+无监督学习)-->扩展CRF

2021-05-17 03:27

阅读:674

标签:隐藏   tps   iter   情况下   直接   是你   观察   解释   观测   

技术分享图片

隐含马尔可夫模型并不是俄罗斯数学家马尔可夫发明的,而是美国数学家鲍姆提出的,隐含马尔可夫模型的训练方法(鲍姆-韦尔奇算法)也是以他名字命名的。隐含马尔可夫模型一直被认为是解决大多数自然语言处理问题最为快速、有效的方法。
技术分享图片
现实世界中有一类问题具有明显的时序性,比如路口红绿灯、连续几天的天气变化,我们说话的上下文,HMM的基础假设就是,一个连续的时间序列事件,它的状态受且仅受它前面的N个事件决定,对应的时间序列可以成为N阶马尔可夫链。
技术分享图片
假设今天是否有雾霾只由前天和昨天决定,于是就构成了一个2阶马尔可夫链,若昨天和前天都是晴天,那么今天是晴天概率就是90%。
技术分享图片
稍微再复杂点,假设你想知道2000公里外一个城市的雾霾情况,但是你没法直接去当地看到空气情况,手头只有当地风力情况,也就是说空气状态是隐藏的,风力情况是可观察的,需要观察序列推测隐藏序列,由于风力确实对雾霾情况有较大影响,甚至可以假设风力大的情况下90%概率是晴天,所以通过样本学习,确实可以达到从观察序列推测隐藏序列的效果,这就是隐式马尔可夫。

一个模型,两个假设,三个问题

1.一个模型

技术分享图片

2.两个假设

技术分享图片

3.三个问题

技术分享图片

总结

  • HMM是一个概率模型,对于观测量分布和状态分布均有概率解释
  • HMM是一个时序模型,对状态序列做了自相关一阶的建模和假设,即马尔科夫假设
  • HMM是一个非监督学习模型,可以看成是一个聚类模型,隐状态可以给我们看待问题的全新角度
  • HMM是一个预测模型,对未来观测值的预测本质上就是隐状态所代表的概率分布的加权平均
  • HMM是一个贝叶斯模型,可以对观测分布预设初始信念参数
  • HMM需要预设隐状态数量,这个有一定的人为性
  • HMM需要预测观测分布,比如高斯分布、高斯混合分布
  • HMM对状态序列平滑的效果似乎要超过对状态预测的效果,最著名的就是Viterbi算法

参考

机器不学习:HMM模型解析

HMM模型和Viterbi算法

HMM 理论基础及金融市场的应用(一)

扩展CRF,soscw.com" target="_blank">HMM算法(生成模型+无监督学习)-->扩展CRF

标签:隐藏   tps   iter   情况下   直接   是你   观察   解释   观测   

原文地址:https://www.cnblogs.com/nxf-rabbit75/p/9747408.html


评论


亲,登录后才可以留言!