sábado, 21 de enero de 2017

Cadenas de Markov (VI)

Supóngase ahora que el modelo del mercado de acciones se cambia; el que una acción suba o no mañana depende de si subió o no hoy y ayer. En particular, si la acción subió los dos días, la probabilidad de que suba mañana es 0.9. Si la acción subió hoy pero ayer bajó, mañana subirá con probabilidad de 0.6. Si la acción bajó hoy pero ayer subió, entonces mañana subirá con probabilidad de 0.5. Por último, si bajó los dos días, la probabilidad de que mañana suba es 0.3. Si se define el estado como el hecho de que la acción baje o suba, el sistema ya no se puede representar como una cadena de Markov. Sin embargo, se puede transformar en una si se definen los estados como sigue:

Estado 0: la acción aumentó hoy y ayer.
Estado 1: la acción aumentó hoy pero ayer bajó.
Estado 2: la acción bajó hoy pero ayer aumento.
Estado 3: la acción bajó hoy y ayer

Esto conduce a una cadena de Markov de cuatro estados con la siguiente matriz de transición:


No hay comentarios.:

Publicar un comentario