Después de leer un poco más de Comercio de volatilidad En este caso, decidí intentar hacer un modelo de volatilidad simple utilizando los rendimientos diarios de un ETF que sigo. Resulta que "simple" es algo relativo. Por desgracia, parece que la mayoría de la literatura es irremediablemente vaga sobre cómo hacer exactamente tal cosa.
Así que empecé por tomar el logaritmo de los precios de cierre, y los diferencié para desdiferenciar los datos y obtener la serie de rentabilidad logarítmica. Demostré que era estacionaria ejecutando el ADF (valor p < 0,01).
Ahora es cuando empiezan los problemas. Dado que se trata de un modelo GARCH univariante, decidí correr con el rugarch
en R. Inicialmente lo especulo como GARCH(1,1). El solucionador no converge. Ok - así que ejecuto un bootstrapper y trato de obtener más datos para ver si al menos puedo obtener alguna forma de convergencia - falla. Aumentar las iteraciones también parece hacer que falle. Así que no pude explicar lo bueno o malo de los datos.
Después de leer Cuestiones prácticas en el análisis de modelos GARCH univariantes de Eric Zivot Models me parece que debería utilizar algún tipo de datos transformados. Me he dado cuenta de que menciona elevar al cuadrado los retornos logarítmicos, así que lo intento a ciegas y el solucionador GARCH converge sin problemas. Al leer más sobre esto, encuentro otro documento Previsión de la volatilidad I: Modelos GARCH - que discute que los rendimientos al cuadrado están positivamente autocorrelacionados. Así que me pregunto: ¿qué es eso de los rendimientos al cuadrado?
Introduzca un puesto de aquí titulado Rendimientos cuadrados y absolutos . Este post lamentablemente no es tan útil, pero me envió a la madriguera del conejo leyendo Estimación de la volatilidad del grupo CME. En la sección 1.1 se destaca que los rendimientos al cuadrado son una aproximación a la volatilidad, sin embargo es extremadamente imprecisa. Esto me lleva a un puñado de preguntas con las que espero que me podáis ayudar:
-
Si los rendimientos al cuadrado son una aproximación imprecisa a la volatilidad, ¿por qué se sugiere que construyamos modelos de volatilidad GARCH utilizándolos? ¿No reducirá esto la eficacia de las predicciones del modelo?
-
El documento de Eric Zivots menciona los efectos GARCH de una serie temporal. Una de las formas de comprobarlo es la prueba de Ljung-Box. Sin embargo, no entiendo muy bien cómo configurar esto, especialmente en R. Mi inclinación es pensar que mi serie de retorno logarítmico no tiene efectos GARCH, sin embargo la serie de retorno logarítmico al cuadrado sí.
-
¿Podemos utilizar un estimador de volatilidad diferente, más preciso, y construir un modelo GARCH a partir de él? (ex Garman-Klass)
Pido disculpas si son preguntas triviales, pero es que no encuentro ningún recurso que responda exactamente a mi pregunta. Apreciaría mucho cualquier ayuda o dirección de recursos donde pueda averiguar estas cosas. Realmente me gustaría entender completamente esto antes de ponerlo en práctica. Gracias de antemano.
1 votos
Esta pregunta podría ser más adecuada para Validación cruzada ya que no es realmente específico de las finanzas, pero como ya tuvo una buena respuesta, tal vez esté bien dejarlo aquí.