Me pregunto sobre la distribución del término de error/proceso de innovación en un proceso ARCH/GARCH y su implementación, no estoy seguro de algunos puntos. El supuesto básico es
$r_t=\sigma_t*\epsilon_t$
donde el $\sigma_t$ es la volatilidad, modelada por ARCH/GARCH y el $\epsilon_t$ se asumen mayoritariamente como N(0,1).
Ahora mis preguntas son:
-
Los modelos más sofisticados abandonan esta suposición. Así que puedo decir, por ejemplo $\epsilon_t$ sigue una distribución hiperbólica generalizada. Así que la media no tiene que ser cero y la varianza no tiene que ser igual a 1. ¿Esto es correcto, no?
-
Si utilizo el paquete rugarch : Admite diferentes supuestos de distribución. Pero no entiendo lo siguiente: ¿Así que también abandonan el supuesto de media cero y varianza uno? ¿O están utilizando algo así como una versión "estandarizada"?
-
Supongamos que quiero ajustar un GARCH(1,1) suponiendo que el $\epsilon_t$ siguen una distribución hiperbólica generalizada, pero la media no tiene que ser cero y la varianza no tiene que ser uno. ¿Está rugarch haciendo una estimación conjunta de los parámetros? Entonces, en mi resultado final, ¿obtengo los parámetros del proceso GARCH y los parámetros de mi distribución hiperbólica generalizada?
Mi última pregunta es: ¿cómo puedo aplicar esto?
Supongo que tengo que utilizar el siguiente comando:
ugarchspec(variance.model = list(model = "sGARCH", garchOrder = c(1, 1),
submodel = NULL, external.regressors = NULL, variance.targeting = FALSE),
mean.model = list(armaOrder = c(1, 1), include.mean = TRUE, archm = FALSE,
archpow = 1, arfima = FALSE, external.regressors = NULL, archex = FALSE),
distribution.model = "norm", start.pars = list(), fixed.pars = list(), ...)
el modelo de distribución tiene que ser ajustado a ghyp
. ¿Supone esto una media de cero y una varianza de uno?
Creo que no, ¿verdad?
¿Cómo puedo utilizar la distribución hiperbólica para distribution.model?