Estoy utilizando un modelo GARCH(1, 1) para intentar modelar la volatilidad de una determinada acción.
Tengo una función GARCH en matlab que devuelve los tres parámetros, omega, alfa y beta.
A continuación, utilizo estos parámetros en la fórmula siguiente para ver la volatilidad prevista. Los números parecen razonables sin embargo los parámetros no.
Sigma t = omega + alpha * Return Squared t-1 + beta * Sigma t-1
El omega es muy alto la mitad de las veces por encima de 0,8. Mi alfa + beta tienden a ser muy bajos, lo que sugiere una baja persistencia. ¿Qué podría causar esta baja persistencia? He leído que lo normal es que alfa + beta estén cerca de 1.