los estados precedentes. Sin embargo, las cadenas de Markov presentan dos caracterĀ“ ısticas de suma importancia: 1. La propiedad del horizonte limitado, que permite truncar la dependencia probabilĀ“ ıstica del estado actual y considerar, no todos los estados precedentes, sino Ā“ unicamente un subconjunto ļ¬nito de ellos. Una cadena de Markov de orden n es la que utiliza n estados previos para predecir el siguiente estado. Por ejemplo, para el caso de las cadenas de Markov de tiempo discreto de primer orden tenemos que P(qt = j|qtā1 = i, qtā2 = k, . . . ) = P(qt = j|qtā1 = i), es decir, dependerĀ“ ıa Ā“ unicamente del estado anterior; en caso de ser de segundo orden, de los dos estados anteriores, y asĀ“ ı sucesivamente. 2. La propiedad del tiempo estacionario, que nos permite considerar sĀ“ olo aquellos procesos en los cuales P(qt = j|qtā1 = i) es independiente del tiempo, lo que a su vez nos lleva a deļ¬nir una matriz de probabilidades de transiciĀ“ on independientes del tiempo A = {aij }, donde āi, j; 1 ⤠i, j ⤠N; aij = P(qt = j|qtā1 = i) = P(j|i) y se cumplen las restricciones estocĀ“ asticas estĀ“ andar: aij ā„ 0 para todo i y j, y N j=1 aij = 1 para todo i. Adicionalmente, es necesario especiļ¬car el vector Ļ = {Ļi } que almacena la probabilidad Ļi ā„ 0 que tiene cada uno de los estados de ser el estado inicial: āi; 1 ⤠i ⤠N; Ļi = P(q1 = i). A un proceso estocĀ“ astico que satisface estas caracterĀ“ ısticas se le puede llamar un modelo de Markov observable, porque su salida es el conjunto de estados por los que pasa en cada instante de tiempo, y cada uno de estos estados se corresponde con un suceso observable. Esta modelizaciĀ“ on puede resultar demasiado restrictiva a la hora de ser aplicada a problemas reales. A continuaciĀ“ on extenderemos el concepto de modelos de Markov de tal manera que sea posible incluir aquellos casos en los cuales la observaciĀ“ on es una funciĀ“ on probabilĀ“ ıstica del estado. El modelo resultante, denominado modelo de Markov oculto (HMM, Hidden Markov Model), es un modelo doblemente estocĀ“ astico, ya que uno de los procesos no se puede observar directamente (estĀ“ a oculto), y sĀ“ olo se puede observar a travĀ“ es de otro conjunto de procesos estocĀ“ asticos, los cuales producen la secuencia de observaciones. Un HMM se caracteriza por la 5-tupla (Q, V, Ļ, A, B) donde: 1. Q = {1, 2, . . . , N} es el conjunto de estados del modelo. Aunque los estados permanecen ocultos, para la mayorĀ“ ıa de las aplicaciones prĀ“ acticas se conocen a priori. Por ejemplo, para el caso de la etiquetaciĀ“ on de palabras, cada etiqueta del juego de etiquetas utilizado serĀ“ ıa un estado. Generalmente los estados estĀ“ an conectados de tal manera que cualquiera de ellos se puede alcanzar desde cualquier otro en un solo paso, aunque existen muchas otras posibilidades de interconexiĀ“ on. El estado actual en el instante de tiempo t se denota como qt. El uso de instantes de tiempo es apropiado, por ejemplo, en la aplicaciĀ“ on de los HMM al procesamiento de voz. No obstante, para el caso de la etiquetaciĀ“ on de palabras, no hablaremos de los instantes de tiempo, sino de las posiciones de cada palabra dentro de la frase. 2. V es el conjunto de los distintos sucesos que se pueden observar en cada uno de los estados. Por tanto, cada uno de los sĀ“ ımbolos individuales que un estado puede emitir se denota como {v1, v2, . . . , vM }. En el caso de la etiquetaciĀ“ on de palabras, M es el tamaĖ no del diccionario y cada vk, 1 ⤠k ⤠M, es una palabra distinta. 3. Ļ = {Ļi }, es la distribuciĀ“ on de probabilidad del estado inicial, cumpliĀ“ endose que Ļi ā„ 0, āi; 1 ⤠i ⤠N; Ļi = P(q1 = i), y N i=1 Ļi = 1. 4. A = {aij } es la distribuciĀ“ on de probabilidad de las transiciones entre estados, esto es, āi, j, t; 1 ⤠i ⤠N, 1 ⤠i ⤠N, 1 ⤠t ⤠T; aij = P(qt = j|qtā1 = i) = P(j|i), cumpliĀ“ endose que ai, j ā„ 0 y que N j=1 aij = 1 para todo i.