Ahora es posible definir una cadena de Markov. Se dice que un proceso estocástico (X1) (t = 0,1,......) es una cadena de Markov de estado finito si tiene las siguientes caracteristicas.
- Un número finito de estados
- La propiedad markoviana
- Probabilidad de transición estacionarias.
- Un conjunto de probabilidades iniciales P{Xo = i} para toda i.
No hay comentarios.:
Publicar un comentario