Modelo Hierárquico de Markov oculto - Hierarchical hidden Markov model

O modelo de Markov oculto hierárquico (HHMM) é um modelo estatístico derivado do modelo de Markov oculto (HMM). Em um HHMM, cada estado é considerado um modelo probabilístico independente . Mais precisamente, cada estado do HHMM é em si um HHMM.

HHMMs e HMMs são úteis em muitos campos, incluindo reconhecimento de padrões .

fundo

Às vezes é útil usar HMMs em estruturas específicas para facilitar o aprendizado e a generalização. Por exemplo, mesmo que um HMM totalmente conectado possa sempre ser usado se houver dados de treinamento suficientes disponíveis, muitas vezes é útil restringir o modelo não permitindo transições de estado arbitrárias. Da mesma forma, pode ser benéfico incorporar o HMM em uma estrutura maior; que, teoricamente, pode não ser capaz de resolver nenhum outro problema além do HMM básico, mas pode resolver alguns problemas de forma mais eficiente quando se trata da quantidade de dados de treinamento necessários.

Descrição

No modelo hierárquico de Markov oculto (HHMM), cada estado é considerado um modelo probabilístico independente. Mais precisamente, cada estado do HHMM é em si um HHMM. Isso implica que os estados do HHMM emitem sequências de símbolos de observação em vez de símbolos de observação simples, como é o caso dos estados HMM padrão.

Ilustração da estrutura de um HHMM. As linhas cinzas mostram transições verticais. As transições horizontais são mostradas como linhas pretas. Os círculos cinza claro são os estados internos e os círculos cinza escuro são os estados terminais que retornam o controle ao estado de ativação. Os estados de produção não são mostrados nesta figura.

Quando um estado em um HHMM é ativado, ele ativará seu próprio modelo probabilístico, ou seja, ativará um dos estados do HHMM subjacente, que por sua vez pode ativar seu HHMM subjacente e assim por diante. O processo é repetido até que um estado especial, denominado estado de produção, seja ativado. Apenas os estados de produção emitem símbolos de observação no sentido usual do HMM. Quando o estado de produção emitiu um símbolo, o controle retorna ao estado que ativou o estado de produção. Os estados que não emitem diretamente símbolos de observações são chamados de estados internos. A ativação de um estado em um HHMM sob um estado interno é chamada de transição vertical . Após a conclusão de uma transição vertical, ocorre uma transição horizontal para um estado dentro do mesmo nível. Quando uma transição horizontal leva a um estado de término, o controle é retornado ao estado no HHMM, mais acima na hierarquia, que produziu a última transição vertical.

Lembre-se de que uma transição vertical pode resultar em mais transições verticais antes de atingir uma sequência de estados de produção e, finalmente, retornar ao nível superior. Assim, os estados de produção visitados dão origem a uma sequência de símbolos de observação que é "produzida" pelo estado de nível superior.

Os métodos para estimar os parâmetros do HHMM e a estrutura do modelo são mais complexos do que para o HMM e o leitor interessado é referido (Fine et al. , 1998).

O HMM e o HHMM pertencem à mesma classe de classificadores. Ou seja, eles podem ser usados ​​para resolver o mesmo conjunto de problemas. Na verdade, o HHMM pode ser transformado em um HMM padrão. No entanto, o HHMM utiliza sua estrutura para resolver um subconjunto dos problemas de forma mais eficiente.

Veja também

Referências

  • S. Fine, Y. Singer e N. Tishby, "The Hierarchical Hidden Markov Model: Analysis and Applications", Machine Learning, vol. 32, pág. 41-62, 1998
  • K.Murphy e M.Paskin. "Linear Time Inference in Hierarchical HMMs", NIPS-01 (Neural Info. Proc. Systems).
  • H. Bui, D. Phung e S. Venkatesh. "Modelos Hierárquicos de Markov Ocultos com Hierarquia Geral do Estado", AAAI-04 (Conferência Nacional de Inteligência Artificial).