1 votos

usando garch para pronosticar la volatilidad pero obteniendo un modelo de baja persistencia

Estoy utilizando un modelo GARCH(1, 1) para intentar modelar la volatilidad de una determinada acción.

Tengo una función GARCH en matlab que devuelve los tres parámetros, omega, alfa y beta.

A continuación, utilizo estos parámetros en la fórmula siguiente para ver la volatilidad prevista. Los números parecen razonables sin embargo los parámetros no.

Sigma t = omega + alpha * Return Squared t-1 + beta * Sigma t-1

El omega es muy alto la mitad de las veces por encima de 0,8. Mi alfa + beta tienden a ser muy bajos, lo que sugiere una baja persistencia. ¿Qué podría causar esta baja persistencia? He leído que lo normal es que alfa + beta estén cerca de 1.

1voto

Mathieu Pagé Puntos 2758

Alfa + beta < 1 es la condición estacionaria para GARCH. Si alfa y beta son bajos significa que la volatilidad de la acción no tiene comportamientos de clustering. Creo que puedes echar un vistazo al ADF y al PACF de la serie temporal Return^2 primero. Si la autocorrelación de primer orden es muy significativa, pero alfa no lo es, entonces tal vez usted puede comprobar en la calibración de los parámetros.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X