Supóngase ahora que el modelo del mercado de acciones se cambia; el que una acción suba o no mañana depende de si subió o no hoy y ayer. En particular, si la acción subió los dos días, la probabilidad de que suba mañana es 0.9. Si la acción subió hoy pero ayer bajó, mañana subirá con probabilidad de 0.6. Si la acción bajó hoy pero ayer subió, entonces mañana subirá con probabilidad de 0.5. Por último, si bajó los dos días, la probabilidad de que mañana suba es 0.3. Si se define el estado como el hecho de que la acción baje o suba, el sistema ya no se puede representar como una cadena de Markov. Sin embargo, se puede transformar en una si se definen los estados como sigue:
Estado 0: la acción aumentó hoy y ayer.
Estado 1: la acción aumentó hoy pero ayer bajó.
Estado 2: la acción bajó hoy pero ayer aumento.
Estado 3: la acción bajó hoy y ayer
Esto conduce a una cadena de Markov de cuatro estados con la siguiente matriz de transición:
sábado, 21 de enero de 2017
Cadenas de Markov (VI)
viernes, 20 de enero de 2017
Cadenas de Markov (V)
Se darán algunos otros ejemplos de cadenas de Markov: Considérese el siguiente modelo para el valor de una acción. Al final de un día dado, se registra el precio. Si la acción subió, la probabilidad de que suba mañana es 0.7. Si la acción bajó, la probabilidad de que suba mañana es sólo 0.5. Esta es una cadena de Markov, en donde el estado 0 representa que el precio de la acción sube y el estado 1 representa que baja. La matriz de transición está dada por
Suscribirse a:
Entradas (Atom)