Consulte las páginas 18-20 del artículo al que se hace referencia en el pie de página de la sección 2.2 que describe un estudio de IO realizado para el Rijkswaterstaat, de Holanda. Describa una lección importante aprendida con la validación del modelo en este estudio.

miércoles, 17 de agosto de 2016

Cadenas de Markov (III)

o, en forma equivalente,

Ahora es posible definir una cadena de Markov. Se dice que un proceso estocástico (X1) (t = 0,1,......) es una cadena de Markov de estado finito si tiene las siguientes caracteristicas.


  1. Un número finito de estados
  2. La propiedad markoviana
  3. Probabilidad de transición estacionarias.
  4. Un conjunto de probabilidades iniciales P{Xo = i} para toda i.

No hay comentarios.:

Publicar un comentario