Supongamos que tengo el siguiente modelo:
$$r_t=\sigma_t * \epsilon_t$$
donde $r_t$ es el rendimiento en el momento t, $\sigma_t$ es la volatilidad, el modelo utilizado para modelar esta volatilidad es una media móvil ponderada exponencialmente con parámetro conocido $\lambda$ . $\epsilon_t$ es una variable aleatoria distribuida según la distribución hiperbólica con parámetros $\alpha, \beta , \mu, \delta$ .
Primera pregunta: ¿Cómo puedo estimar este modelo?
Yo
- Desde $\lambda$ es conocido, calcule el $\hat{\sigma}_t$ .
- Calcular $r_t/\hat{\sigma}_t$ que dan los llamados residuos estandarizados.
- Utilizando los residuos estandarizados estimar los parámetros de la distribución hiperbólica con ML clásico.
O
- Incluya el $\hat{\sigma}_t$ en la log-verosimilitud de la distribución hiperbólica y maximizarla, por lo que podría llamarse una estimación "conjunta". Dado que no se hace la ML normal, sino la ML con la estimación $\sigma$ incluido.
Segunda pregunta: Supongamos que la volatilidad está modelada por un proceso ARCH.
¿Tengo que utilizar un paquete R que estime todos los parámetros conjuntamente, de modo que la salida me dé los valores del proceso ARCH Y los valores de la distribución hiperbólica?
¿O puedo utilizar un comando ARCH "normal" (que asumirá el $\epsilon$ para ser N(0,1) distribuido (supongo) calcular el $\sigma$ . A continuación, al igual que en el caso anterior, calcule los residuos estandarizados calculando $r_t/\sigma_t$ y usarlos para estimar una distribución hiperbólica usando ML. ¿Qué opinas de este enfoque "dividido"?