Consulte las páginas 18-20 del artículo al que se hace referencia en el pie de página de la sección 2.2 que describe un estudio de IO realizado para el Rijkswaterstaat, de Holanda. Describa una lección importante aprendida con la validación del modelo en este estudio.

sábado, 21 de enero de 2017

Cadenas de Markov (VI)

Supóngase ahora que el modelo del mercado de acciones se cambia; el que una acción suba o no mañana depende de si subió o no hoy y ayer. En particular, si la acción subió los dos días, la probabilidad de que suba mañana es 0.9. Si la acción subió hoy pero ayer bajó, mañana subirá con probabilidad de 0.6. Si la acción bajó hoy pero ayer subió, entonces mañana subirá con probabilidad de 0.5. Por último, si bajó los dos días, la probabilidad de que mañana suba es 0.3. Si se define el estado como el hecho de que la acción baje o suba, el sistema ya no se puede representar como una cadena de Markov. Sin embargo, se puede transformar en una si se definen los estados como sigue:

Estado 0: la acción aumentó hoy y ayer.
Estado 1: la acción aumentó hoy pero ayer bajó.
Estado 2: la acción bajó hoy pero ayer aumento.
Estado 3: la acción bajó hoy y ayer

Esto conduce a una cadena de Markov de cuatro estados con la siguiente matriz de transición:


1 comentario:

  1. Hola, excelente blog te compartire una página donde tu blog será más visitado, éxito en tu proyecto: https://sharkvisitors.000webhostapp.com

    ResponderBorrar