Please enable JavaScript.
Coggle requires JavaScript to display documents.
CADENAS DE MARKOV image, image, image, image, image, image, image, image,…
CADENAS DE MARKOV 
-
Una cadena de Márkov es una sucesión de ensayos similares u observaciones en la cual cada ensayo tiene el mismo numero finito de resultados posibles y en donde la probabilidad de cada resultado para un ensayo dado depende solo del resultado del ensayo inmediatamente precedente y no de cualquier resultado previo.
Propiedades de Markov:
Es que las transiciones entre los estados, solo puede producirse entre estados vecinos. Solo se puede llegar al estado i desde el estado i-1 o bien de i+1. Con lo que queda demostrado que la probabilidad de tener una transición en un estado, no depende del tiempo anterior.
-
-
Importancia:
Permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado.
-
-
-
-
-
-
-
-
-
-
-