2011-02-02 7 views

Respuesta

45

Las cadenas de Markov se pueden representar mediante máquinas de estado finito. La idea es que una cadena de Markov describa un proceso en el que la transición a un estado en el tiempo t + 1 depende únicamente del estado en el momento t. Lo más importante a tener en cuenta es que las transiciones en una cadena de Markov son probabilísticas más que deterministas, lo que significa que no siempre se puede decir con certeza absoluta qué sucederá en el tiempo t + 1.

Los artículos de Wikipedia en Finite-state machines tienen una subsección en Finite Markov-chain processes, recomendaría leer eso para más información. Además, el artículo de Wikipedia en Markov chains tiene una breve oración que describe el uso de máquinas de estado finito para representar una cadena de Markov. Que estados:

Una máquina de estado finito se puede utilizar como una representación de una cadena de Markov. Suponiendo una secuencia de independiente y señales de entrada idénticamente distribuidas (por ejemplo, símbolos de un binario alfabeto elegido por lanzamientos de moneda), si la máquina está en el estado y en el tiempo n, entonces la probabilidad de que se mueve a estado x en el tiempo n + 1 depende solo de el estado actual.

+1

En realidad, lo que está reclamando aquí sobre una cadena de Markov no es 100% correcto. A lo que se refiere aquí es al "proceso de Markov de primer orden". Para un proceso de Markov de segundo orden, el siguiente estado dependerá de los últimos 2 estados de los pasos de tiempo, ...... Una máquina de estado es un caso especial de una cadena de Markov; ya que una cadena de Markov es de naturaleza estocástica. Una máquina de estado, hasta donde yo sé, es determinista. –

+3

No calificado, el término cadena de Markov significa un proceso estocástico en tiempo discreto con la propiedad de Markov, lo que significa que no depende de estados anteriores. El póster original no preguntó sobre los procesos de Markov de orden superior, por lo que no son tan relevantes. La máquina de estados finitos generalmente es un término de captura para los autómatas finitos, estos pueden ser de naturaleza determinista o no determinista. –

19

Mientras que una cadena de Markov es una máquina de estados finitos, se distingue por sus transiciones que son estocásticas, es decir, aleatorias, y se describen por probabilidades.

+2

Gracias por esto, exactamente lo que estaba buscando. –

+2

¿Puedo decir, estocásticos autómatas de estados finitos? –

15

Los dos son similares, pero las otras explicaciones aquí son un poco incorrectas. Solo las cadenas de FINITE Markov pueden ser representadas por un FSM. Las cadenas de Markov permiten un espacio de estado infinito. Como se señaló, las transiciones de una cadena de Markov se describen por probabilidades, pero también es importante mencionar que las probabilidades de transición solo pueden depender del estado actual. Sin esta restricción, se llamaría un "proceso estocástico de tiempo discreto".

+1

(+1) Buenos puntos de aclaración que vale la pena tomar. Gracias –

0

Si dejamos de lado los detalles internos de trabajo, la máquina de estado finito es como un valor simple, mientras que la cadena de markov es como una variable aleatoria (agregue probabilidad sobre el valor normal). Entonces la respuesta a la pregunta original es no, no son lo mismo. En el sentido probabilístico, la cadena de Markov es una extensión de la máquina de estados finitos.

Cuestiones relacionadas