Modelos Ocultos De Markov

Post on 22-Jul-2015

3.350 views 2 download

Transcript of Modelos Ocultos De Markov

UNIVERSIDAD TÉCNICA PARTICULAR DE LOJA ESCUELA DE CIENCIAS DE LA COMPUTACIÓN

Estudiante: Edwin Cuenca; efcuenca@utpl.edu.ec

Tutor: Ing. Janneth Chicaiza

Introducción

• Los modelos markovianos ocultos (HMM del inglés -Hidden Markov Model) asumen que el sistema estudiado sigue un proceso de Markov con parámetros desconocidos.

•La tarea fundamental consiste en determinar los parámetros ocultos a partir de los parámetros observados. La diferencia fundamental respecto a un modelo de Markov habitual consiste en que los estados no son directamente visibles para el observador, pero sí lo son las variables influenciadas por el estado. Cada estado tiene una distribución de probabilidad asociada sobre el conjunto de posibles valores de salida. La secuencia de valores de salida generados a partir de un HMM nos dará cierta información sobre la secuencia de estados.

Historia

• Los modelos ocultos de Markov fueron descritos por primera vez en una serie de artículos estadísticos por Leonard E. Baum y otros autores en la segunda mitad de la década de 1960. Una de las primeras aplicaciones de HMMs fue reconocimiento del habla, comenzando en la mitad de la década de 1970.

• En la segunda mitad de la década de 1980, los HMMs comenzaron a ser aplicados al análisis de secuencias biológicas, en particular de DNA. Desde entonces, se han hecho ubicuos en el campo de la bioinformática.

Arquitectura de un modelo oculto de Markov

El diagrama muestra la arquitectura general de un HMM. Cada óvalo representa una variable aleatoria que puede tomar determinados valores. La variable aleatoria x(t) es el valor de la variable oculta en el instante de tiempo t. La variable aleatoria y(t) es el valor de la variable observada en el mismo instante de tiempo t. Las flechas indican dependencias condicionales.

Definición formal de un Modelo Oculto de Markov

• Una notación habitual de un MOM es la representación como una tupla (Q,V,π,A,B):

• El conjunto de estados . El estado inicial se denota como qt. En el caso de la etiquetación categorial, cada valor de t hace referencia a la posición de la palabra en la oración.

• El conjunto V de posibles valores observables en cada estado. M es el número de palabras posibles y cada vk hace referencia a una palabra diferente.

• Las probabilidades iniciales π = {πi}

• El conjunto de probabilidades A = {aij} de transiciones entre estados.

– aij = P(qt = j | qt − 1 = i), es decir, aij es la probabilidad de estar en el estado j en el instante t si en el instante anterior t − 1 se estaba en el estado i.

• El conjunto de probabilidades B = {bj(vk)} de las observaciones.

– bj(vk) = P(ot = vk | qt = j), es decir, la probabilidad de observar vk cuando se está en el estado j en el instante t.

• La secuencia de observables se denota como un conjunto .

Tipos de problemas relacionados con HMM

• Dado el HMM ¿cual es la probabilidad de una secuencia de observables? (algoritmos forward y backward)

• Dado el HMM y una secuencia de observables ¿cual es la secuencia de estados mas probable que ha generado la secuencia observable? (algoritmo de Viterbi)

• Dado un conjunto de estados y una colección de secuencias observables, ¿cual es el HMM mas probable que ha generado las secuencias? (algoritmo de Baum-Welch)

Algoritmo de Forward

• Consideremos la función αt(i):αt(i) = P(O1,O2...Ot, qt = Si | λ)Esta ecuación puede calcularse de forma recursiva:

Y ahora,

Que puede calcularse en tiempo O(N2T)

Algoritmos de Backward

• De forma simétrica, consideremos la función βt(i):βt(i) = P(Ot+1 . . .OT , qt = Si | λ)Esta ecuación puede calcularse de forma recursiva:

Y ahora,

Que puede calcularse en tiempo O(N2T)

Algoritmo de Viterbi

• Objetivo: Queremos saber cual es la secuencia de estados que maximiza P(O|Q, λ) (que es lo mismo que maximizar P(O,Q|λ))Definimos la cantidad:

Que puede calcularse recursivamente como:

Y la probabilidad de la secuencia óptima será:

Baum Welch• Número de veces promedio que se pasa por un estado:

• Número de veces promedio que se usa un arco:

• El nuevo HMM (N,M, ¯A, ¯B, ∏) será:

:

CONCLUSIONES

• Un modelo oculto de Markov es una máquina de estados finita probabilística.

• Los modelos ocultos de Markov fueron descritos por primera vez en una serie de artículos estadísticos.

REFERENCIAS

• Sierra, Aprendizaje Automático: conceptos básicos y avanzados.

• Modelos Ocultos de Markov, Wiki http://es.wikipedia.org/wiki/An%C3%A1lisis_de_Markov

• Revista Ecosistemas http://www.revistaecosistemas.net/pdfs/433.pdf