Estoy intentando capturar la heteroscedasticidad en los rendimientos de una serie temporal de precios utilizando un modelo GARCH.
Una intuición básica sugiere que debería ajustar el modelo GARCH a los log-rendimientos: en efecto, si el precio se divide por $2$ en un momento dado, daría un rendimiento de $-0.5$ . Si se multiplica por $2$ da un rendimiento de $1$ . Así que tendríamos diferente amplitud de retorno para un movimiento de precios que en realidad es de la misma amplitud porque los precios están en una escala exponencial. Si tomamos log-return, "dividido por $2$ "da un resultado de $\log(0.5)\approx-0.3$ y "multiplicado por $2$ "para obtener un resultado de $\log(2)\approx0.3$ son iguales en valor absoluto.
Sin embargo, tras probar el GARCH con los rendimientos logarítmicos (es decir, el logaritmo del rendimiento bruto), parece que los rendimientos logarítmicos eliminan gran parte de la heteroscedasticidad de los rendimientos reales, lo que hace que el GARCH no distinga claramente entre periodos de alta actividad y periodos de baja actividad.
Resumiendo, si utilizo rentabilidades simples, el GARCH distingue claramente periodos de alta volatilidad, pero un mismo movimiento de precios tiene una amplitud diferente dependiendo de si sube o baja, lo que sesga de alguna manera la estimación de la varianza.
En cambio, si utilizo log-returns, no tengo el "sesgo" de la escala exponencial, pero el resultado tiene menos heteroscedasticidad, lo que no es bueno para mi estrategia ya que escalo las posiciones en función de la volatilidad.
¿Qué se suele utilizar en la práctica para prever la volatilidad? ¿Es más apropiado, en general, ajustar un GARCH sobre los rendimientos o sobre los log-rendimientos para estimar la volatilidad?