廣義向前向後算法

廣義向前向後算法

訓練HMM的標準算法是向前-向後算法(forward-backward algorithm)或者叫做鮑姆一韋爾奇算法(Baum—Welch algorithm),這是期望最大化算法(Expectation—Maximization algorithm,簡稱EM算法)的一種特殊情形。這個算法將幫助我們訓練HMM的轉移機率A和發射機率B。

基本介紹

  • 中文名:廣義向前向後算法
  • 外文名:forward-backward algorithm
  • 又稱:鮑姆-韋爾奇算法
  • 定義:訓練HMM的轉移機率和發射機率
  • 屬於:EM算法的一種特殊情形
  • 套用學科:計算機原理
概述,步驟,

概述

EM算法可用於含有隱變數的統計模型的參數最大似然估計,其基本思想是:初始時隨機地給模型的參數賦值(該賦值必須遵守模型對參數的限制,如從一狀態出發的所有機率的總和是1),得到模型λ0,由λ0我們可以得到模型中隱變數的期望值。以隱馬爾可夫模型為例,我們可以從λ0得到從某狀態轉移到另一個狀態的期望次數。以期望次數來代替實際的次數,我們便可以得到模型參數的新的估計,由此可以得到模型λ1,從λ1我們可以得到模型薪的期望值,由此又可重新估計模型參數,循環以上的過程,模型參數將收斂於最大似然估計。向前向後算法是EM算法在HMM算法中的具體套用。

步驟

步驟如圖:
廣義向前向後算法

相關詞條

熱門詞條

聯絡我們