He ajustado un modelo GARCH estándar. La ecuación de la media no tiene términos AR o MA. Todos los coeficientes de la ecuación de la varianza son significativos al 5%. Sin embargo, la ecuación de la media tiene un término constante igual a cero, y no es significativo al 5%. Mi pregunta es: ¿puedo utilizar este modelo si sólo me interesa predecir la volatilidad?
Respuestas
¿Demasiados anuncios?Cuando se modelan los retornos de los registros $(Y_t)$ por $Y_t=\varepsilon_t$ donde $\varepsilon_t|\mathcal{F}_{t-1}\sim N(0,\sigma^2_t)$ y un GARCH( $p,q$ ) con $$\sigma_t^2=\omega+\sum_{i=1}^p \alpha_{i}\varepsilon^2_{t-i}+\sum_{i=1}^q \beta_i \sigma^2_{t-i},$$ donde $\omega>0, \alpha_i,\beta_i\geq0$ . Este modelo supone, en efecto, una media constante de cero para los rendimientos logarítmicos. Ahora bien, como $Y_t=\varepsilon_t$ puede utilizar los rendimientos al cuadrado $Y_t^2$ en la ecuación GARCH anterior para $\varepsilon_t^2$ y pronosticar la varianza condicional. Los parámetros $\omega,\alpha_i$ , $\beta_i$ se encuentran maximizando la función de probabilidad correspondiente.
Se puede introducir cualquier función de media y modelar los retornos logarítmicos mediante $Y_t=\mathbb{E}[Y_t|\mathcal{F}_{t-1}]+\varepsilon_t$ donde de nuevo $\varepsilon_t|\mathcal{F}_{t-1}\sim N(0,\sigma^2_t)$ . En este caso, se puede utilizar un modelo ARMA para $\mathbb{E}[Y_t|\mathcal{F}_{t-1}]$ y puede encontrar algunos rezagos que sean significativos. Esto da lugar a un modelo ARMA-GARCH. Muchos lenguajes de codificación (por ejemplo, Matlab) permiten estimar los coeficientes mediante unas pocas líneas de código.
Como la parte del ARCO de $\sigma_t^2$ se calcula en función de $\varepsilon_t=Y_t-\mathbb{E}[Y_t|\mathcal{F}_{t-1}]$ la función de la media condicional sí importa para predecir la varianza. Por lo tanto, debe asegurarse de que cuando calcule $\varepsilon^2_t$ que restó la media correspondiente.
1. Precisión de la previsión. Suponer que la media condicional es igual a cero puede ser beneficioso o perjudicial según lo alejado que esté de la realidad. He aquí una perspectiva de la compensación entre sesgo y varianza.
- El error medio de predicción al cuadrado puede descomponerse aditivamente en sesgo al cuadrado, varianza y error irreducible.*
- Un modelo con la media condicional restringida a cero es un modelo más simple comparado con uno en el que la media condicional tiene alguna otra forma (por ejemplo, ARMA).
- El modelo más sencillo tendrá un mayor sesgo (ya que ignora la verdadera media condicional, que puede muy bien ser distinta de cero), pero un menor varianza (porque no será necesario estimar los coeficientes del modelo de media condicional).
- El modelo más rico (con alguna especificación no nula para la media condicional) tendrá un sesgo más bajo (una aproximación menos cruda de la media condicional) pero una mayor varianza (ya que hay que estimar los coeficientes del modelo de media condicional).
- Si la disminución del sesgo al cuadrado al pasar del modelo más simple al más rico supera el aumento de la varianza, puede esperar predicciones más precisas del modelo más rico. De lo contrario, el modelo más simple puede ser mejor.
Esta lógica general se aplica no sólo a las predicciones puntuales bajo pérdida cuadrada, sino también de forma más general. Por lo tanto, si está interesado en modelar y predecir la volatilidad, sigue enfrentándose a la disyuntiva.
2. Complejidad computacional. Un modelo con una media condicional distinta de cero generalmente tardará más en estimarse (a menos que la media condicional sea una constante; entonces la diferencia debería ser trivial).
*Considerar un proceso de generación de datos $$ Y = f(X) + \varepsilon $$ con $\mathbb{E}(\varepsilon)=0$ y $\text{Var}(\varepsilon)=\sigma^2_{\varepsilon}$ . El error de previsión al cuadrado esperado en el punto $x_0$ puede descomponerse de la siguiente manera: \begin{aligned} \text{Err}(x_0) &= \mathbb{E}\left( [ y - \hat f(x_0) ]^2 | X = x_0 \right) \\ &= \dots \\ &= \sigma^2_{\varepsilon} + \text{Bias}^2(\hat f(x_0)) + \text{Var}(\hat f(x_0)) \\ &= \text{Irreducible error} + \text{Bias}^2 + \text{Variance} .\\ \end{aligned} Véase Hastie et al. "Los elementos del aprendizaje estadístico" (2009) p. 223, fórmula 7.9.