Consulte las páginas 18-20 del artículo al que se hace referencia en el pie de página de la sección 2.2 que describe un estudio de IO realizado para el Rijkswaterstaat, de Holanda. Describa una lección importante aprendida con la validación del modelo en este estudio.

viernes, 9 de noviembre de 2018

Cadenas de Markov (VII)

Se verificará un renglón de la matriz, por ejemplo, el segundo. Este corresponde al estado 1, que representa el que la acción subió hoy pero ayer bajó. El primer elemento en el renglón representa la probabilidad de que la acción suba mañana, habiendo subido hoy y dado que subió hoy pero bajó ayer. Esto es justo la probabilidad de que la acción suba mañana dado que subió hoy pero bajó ayer, es decir, 0.6. De igual manera, el tercer elemento en el renglón representa la probabilidad de que la acción baje mañana habiendo subido hoy y dado que subió hoy pero bajó ayer, es decir, 0.4. Los otros dos elementos son cero ya que pertenecen a eventos contradictorios, esto es, corresponden a instancias en las que la acción bajó hoy.

Otro ejemplo es el juego. Supóngase que un jugador tiene $1 y que cada jugada gana un dólar con probabilidad p o pierde un dólar con probabilidad 1 - p. El juego termina cuando el jugador acumula $3 o bien cuando quiebra. Este modelo es una cadena de Márkov en la que los estados representan la fortuna del jugador, esto es, 0, $1, $2, o $3, y con matriz de transición dada por 



Nótese que tanto en ejemplo de inventario como en el del jugador, las etiquetas numéricas de los estados que alcanza el proceso coinciden con la expresión física del sistema -es decir, los niveles de inventario real y la fortuna del jugador, respectivamente- mientras que las etiquetas numéricas de los estados en el ejemplo de la acción representan una convención de notación.

No hay comentarios.:

Publicar un comentario