1 votos

Método de optimización de la estimación de los parámetros GARCH(1,1)

Al estimar un modelo GARCH(1,1), $$\sigma_{t+1}^2 = \omega+\alpha \epsilon_t^2+\beta\sigma_t^2$$ Por lo general, la tupla de parámetros $(\omega,\alpha,\beta)$ se estima mediante la verosimilitud cuasi máxima. Sin embargo, parece difícil encontrar la estimación óptima de los parámetros de forma estable. ¿Existen referencias para tratar explícitamente el problema de la optimización?

2voto

TweakFix Puntos 449

Digamos que tenemos una serie temporal $\left\{\epsilon_t\right\}_{t=1}^T$ de los rendimientos logarítmicos diarios y queremos estimar el modelo: \begin{align} \epsilon_t&=\sigma_tu_t ,\quad u_t \overset{iid}{\sim}{\cal N}(0,1)\\ \sigma_t^2&=\alpha_0+\alpha_1\epsilon_{t-1}^2+\beta_1\sigma_{t-1}^2 \end{align} Si he entendido bien tu idea, entonces quieres estimar la regresión: \begin{align} \epsilon_t^2=\alpha_0+(\alpha_1+\beta_1)\epsilon_{t-1}^2+\eta_t \end{align} Sin embargo, no entiendo cómo se te ocurre esto. En mi opinión, empiezas con la ecuación de la varianza condicional: \begin{equation} \sigma_t^2=\alpha_0+\alpha_1\epsilon_{t-1}^2+\beta_1\sigma_{t-1}^2 \end{equation} Ahora añade $w_t=\epsilon_t^2-\sigma_t^2$ en ambos lados. Se obtiene: \begin{align} &\sigma_t^2+w_t=\alpha_0+\alpha_1\epsilon_{t-1}^2+\beta_1\sigma_{t-1}^2+w_t \\ \leftrightarrow &\sigma_t^2+\epsilon_t^2-\sigma_t^2=\alpha_0+\alpha_1\epsilon_{t-1}^2+\beta_1\sigma_{t-1}^2+w_t\\ \leftrightarrow &\epsilon_t^2=\alpha_0+\alpha_1\epsilon_{t-1}^2+\beta_1\sigma_{t-1}^2+ w_t \\ \end{align} Observe que $w_{t-1}=\epsilon_{t-1}^2-\sigma_{t-1}^2$ y por lo tanto $\sigma_{t-1}^2=\epsilon_{t-1}^2-w_{t-1}$ . Se obtiene: \begin{align} \epsilon_t^2=\alpha_0+\alpha_1\epsilon_{t-1}^2+\beta_1(\epsilon_{t-1}^2-w_{t-1})+ w_t \\ \leftrightarrow \epsilon_t^2=\alpha_0+(\alpha_1+\beta_1)\epsilon_{t-1}^2 -\beta_1w_{t-1} +w_t \end{align} Si $E(\epsilon_t^4)<\infty $ $\left\{w_t \right\}$ tiene una varianza finita y es un ruido blanco débil, por lo que el modelo GARCH(1,1) tiene una representación ARMA(1,1) para los rendimientos al cuadrado. Si no recuerdo mal, OLS para ARMA(1,1) es inconsistente y ML para este modelo parece ser difícil también. Incluso si asumimos que $u_t \overset{iid}{\sim}{\cal N}(0,1)$ cuál es la distribución condicional de $w_t$ ? No tengo ni idea de cuál sería la forma analítica de la probabilidad.

Parece que es posible estimar el modelo de esta manera, pero para ser honesto, nunca he visto este enfoque antes y tengo la sensación de que los resultados serán terribles. ¿Quizá probarlo y luego comparar los resultados con el enfoque estándar a través de ML?

Básicamente, mi enfoque sería:

  1. Elija el valor inicial $\theta_0=(\alpha_0,\alpha_1,\beta_1)'$ .
  2. Elija los valores iniciales para $\epsilon_0^2$ y $\sigma_0^2$ , $\epsilon_0^2=\sigma_0^2=\frac{1}{T}\sum_{t=1}^T\epsilon_t^2$ es una opción natural.
  3. Para el vector de parámetros dado $\theta_i$ calcular $\sigma_t^2$ .
  4. Utiliza los resultados para calcular las densidades condicionales logarítmicas ${\cal l}_t(\theta_i)=-\frac{1}{2}\ln(\sigma_t^2)-\frac{1}{2}\frac{\epsilon_t^2}{\sigma_t^2}$
  5. Utilizar algún método de optimización, creo que BHHH se utiliza a menudo. $$ \theta_{i+1}=\theta_i+\lambda\left[\sum_{t=1}^T\frac{\partial{\cal l}_t(\theta_i)}{\partial \theta_i}\frac{\partial{\cal l}_t(\theta_i)}{\partial \theta_i'}\right]^{-1}\sum_{t=1}^T\frac{\partial{\cal l}_t(\theta_i)}{\partial \theta_i} $$
  6. Deténgase si $\vert\vert \theta_{i+1}-\theta_i\vert\vert<\epsilon$ por ejemplo $\epsilon=10e^{-4}$ . Si no es así, vuelva a 3.

Sin embargo, no soy un experto en optimización, sería bueno escuchar otras opiniones al respecto.

0voto

nosklo Puntos 138

¿Tendría sentido hacer lo siguiente?

Que la estimación de $\sigma_t^2$ sea $\epsilon_t^2$ y $$\epsilon_{t+1}^2 = \omega+(\alpha+\beta)\epsilon_t^2+u$$ donde $u$ es el residuo. Aplicamos la regresión lineal al modelo AR anterior y obtenemos la estimación de $\omega$ y $\alpha+\beta$ . Sólo necesitamos estimar una variable, ya sea $\alpha$ o $\beta$ . Lo hacemos mediante la maximización de la probabilidad cuasi máxima. Esta vez, se trata de una $1$ en lugar de $3$ problema dimensional, que sería mucho más fácil.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X