miércoles, 17 de agosto de 2016

Cadenas de Markov (III)

o, en forma equivalente,

Ahora es posible definir una cadena de Markov. Se dice que un proceso estocástico (X1) (t = 0,1,......) es una cadena de Markov de estado finito si tiene las siguientes caracteristicas.


  1. Un número finito de estados
  2. La propiedad markoviana
  3. Probabilidad de transición estacionarias.
  4. Un conjunto de probabilidades iniciales P{Xo = i} para toda i.

No hay comentarios.:

Publicar un comentario