2 votos

Calibración GARCH con intervalos de tiempo superpuestos

Al construir un modelo GARCH(1,1) sobre una longitud de tiempo $\delta$ Estoy considerando el siguiente procedimiento. El propósito de este procedimiento es dar más muestras de entrenamiento (calibración) que muestras consecutivas no superpuestas. \begin{align} \nu(k\delta,(k+1)\delta) &= \omega+\alpha r((k-1)\delta,k\delta)^2+\beta \nu((k-1)\delta,k\delta) \\ \nu\big((k+0.5)\delta,(k+1.5)\delta\big) &= \omega+\alpha\,r\big((k-0.5)\delta,(k+0.5)\delta\big)^2+\beta\,\nu\big((k-0.5)\delta,(k+0.5)\delta\big) \end{align} para $k\in \bf \bar{Z^-}$ , donde $\nu(s,t)$ representa la varianza entre el tiempo $s$ y $t$ , $r(s,t)$ el retorno entre $s$ y $t$ . Calibro la tupla de parámetros $(\omega, \alpha, \beta)$ simultáneamente con las ecuaciones anteriores para intervalos de tiempo superpuestos.

Utilizo el siguiente método para estimar los parámetros. Definir $\displaystyle l(k):=\ln v(k\delta,(k+1)\delta)+\frac{r(k\delta,(k+1)\delta)^2}{v(k\delta,(k+1)\delta))}$ y $$-2\,\text{Log-Likelihood}=(k_1+k_2)\ln(2\pi)+\sum_{k}l(k)+\sum_{k}l(k-0.5)$$ donde $k_1$ y $k_2$ son los números de intervalos en las dos secuencias de intervalos que no se solapan. Esta función $-2\,\text{Log-Likelihood}$ se minimiza para más de $(\omega,\alpha,\beta)$ .

¿Es esto legítimo?

0 votos

¿Qué es exactamente lo que quiere conseguir con esto? :-)

0 votos

@Pleb: Acabo de añadir la motivación. ¿Tiene sentido para ti?

3voto

Nilo Puntos 6

Sí, esto es legítimo para obtener estimaciones puntuales de $\omega,\alpha,\beta$ . Para utilizar los datos en su totalidad, habría que encontrar todos los conjuntos de periodos consecutivos no solapados y utilizarlos todos en la estimación. (En econometría financiera y análisis de series temporales, estimación es la palabra común para lo que quiere decir aquí con calibración .) Por ejemplo, si tiene datos diarios (sólo días de la semana) y quiere un modelo GARCH semanal, lo ajustaría a cinco conjuntos de observaciones con índices de tiempo $(1,6,11,\dots)$ , $(2,7,12,\dots)$ , $\dots$ , $(5,10,15,\dots)$ para el uso más eficiente de los datos. Sin embargo, no hay que tomar los errores estándar al pie de la letra, ya que ahora se basan en datos superpuestos.

Sin embargo, no esperaría una gran mejora en la precisión de la estimación a menos que la duración de un solo periodo de tiempo (un mes) sea una fracción grande (digamos, 1/5 o más) del periodo total de la muestra. Por ejemplo, si tiene 240 meses de datos diarios para un modelo GARCH mensual, no ganará mucho con este enfoque. Si sólo tuviera 5 meses, podría tener un efecto notable. Por otra parte, la estimación de un modelo GARCH con sólo 5 periodos de datos no solapados (por muy finamente muestreados que estén) no daría un resultado fiable de todos modos...

0 votos

Buena respuesta ¿Conoce algún documento que describa este procedimiento?

0 votos

@Pleb, por desgracia, no. Ya he hecho algunas simulaciones para mis propias necesidades pero no recuerdo haber leído nada al respecto en ningún sitio.

0 votos

Bien, si estimas cada modelo GARCH por separado y luego promedias las estimaciones, entonces suena como el enfoque de submuestreo que se suele aplicar a las medidas realizadas (véase, por ejemplo, el Zhang et al. (2005) ). Siempre me he preguntado si este enfoque era aplicable a los modelos de volatilidad, pero nunca he encontrado ningún documento al respecto.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X