11 votos

¿Se puede prever la volatilidad para el día siguiente? ¿En qué medida?

De manera más general: ¿hay

1) un enfoque metodológico para cuantificar la corrección de un modelo que produce una distribución de probabilidades para el rendimiento del índice S&P 500, por ejemplo, para el siguiente día de negociación, y

2) ¿un buen marco de modelización para dicha familia de distribuciones?

La respuesta más trivial es: utilizar el VIX, el modelo logarítmico-normal con él como desviación estándar es el modelo que el mercado considera el mejor supuesto. OK, no hay problema, PERO: ¿realmente el mercado asume la distribución log-normal de la rentabilidad de un día? Todo el mundo sabe que, "en el fondo", no lo hace. Así que el VIX no es lo que estamos buscando, ¿correcto? O, ¿hay una metodología probabilística válida que diga que la log-normalidad y el VIX son lo suficientemente buenos como previsión?

Una aclaración: Supongo que necesitamos algún tipo de metodología que tome la distribución del modelo para cada día, tome el rendimiento realizado para cada día para el que se construye el pronóstico, y de alguna manera "compare" uno con el otro. ¿Hay alguna metodología para este tipo de validación del modelo?

Cualquier enlace, libro o consejo útil será muy apreciado.

0 votos

En realidad se trata de tres preguntas distintas (véase el desglose en mi respuesta). No creo que los mods tengan realmente las herramientas para hacer algo al respecto, pero por si acaso, he dividido deliberadamente mi respuesta en tres partes.

0 votos

He actualizado mi respuesta. Lo siento, ahora es muy larga. Pero como dije inicialmente, es una gran pregunta. Espero que sea una lectura interesante.

15voto

Stephen Darlington Puntos 33587

Al leerlo detenidamente, parece que se trata de 3 (interesantes) preguntas, no de una. No estoy seguro de que los mods tengan las herramientas necesarias para dividirlo, así que voy a escribir las tres preguntas tal y como las veo y luego las trataré una a una. Tengan en cuenta que me resulta más sencillo hablar de varianza en lugar de volatilidad. Esto no tiene ningún impacto material en la respuesta.

Pregunta 1: ¿Se puede prever la varianza de la rentabilidad a un día vista?

Pregunta 2: ¿Es previsible la distribución de la rentabilidad a un día vista?

Pregunta 3: ¿Qué métodos existen para ex post ¿evaluación de un modelo de previsión de la varianza o de un modelo de previsión de la distribución de la rentabilidad?

Mis respuestas utilizarán una notación común, así que empiezo con eso:

Dejemos que $p_{n,t}$ denotan el $n^{th}$ transacción en el $t^{th}$ día en algún activo de riesgo en un mercado financiero. Para simplificar, supongamos que el mercado está abierto las 24 horas del día, por ejemplo, el mercado de divisas. Sólo hago esta suposición para no tener que ocuparme de los molestos detalles institucionales al hablar de los datos de alta frecuencia. Dejemos que $N+1$ denotan el número de transacciones de cada día y, de nuevo para simplificar, suponemos que una de esas transacciones se produce a la hora exacta de pasar de un día a otro. La secuencia de rendimientos intradía de composición continua en el día $t$ puede definirse así $r_{n,t} = \log(p_{n,t}) -\log(p_{n-1, t})$ . Por construcción, el rendimiento diario es así:

\begin{equation} r_t = \log(p_{N,t}) - \log(p_{0,t}) = \sum_{n=1}^N r_{n,t} \end{equation}

Bien, aquí vamos.

Respuesta 1: Supongamos que estamos en el tiempo $t$ . Entonces la varianza de la rentabilidad a un día vista es $\mathbb{V} r_{t+1}$ . Este es un incondicional de la variante. Antes de hacer nada, hagamos una pregunta muy sencilla: ¿Existe esta cantidad? Se sabe que la distribución incondicional de los rendimientos financieros diarios tiene muchas colas gruesas, lo que ha llevado a varios autores a intentar comprobar la existencia de la incondicional segundo momento de los rendimientos diarios. En general, esto es algo difícil de comprobar (en un marco estadístico riguroso), por lo que, en lugar de remitirle a la abundante literatura académica, eche un vistazo a algunas de las pruebas más heurísticas presentadas por autores como Nassim Taleb o Benoit Mandelbrot.

Sin embargo, basándome en su pregunta, sospecho que está más interesado en un condicional distribución de los rendimientos diarios. Probablemente, la literatura más conocida que trata esta cuestión es la vertiente ARCH/GARCH, que fue parcialmente responsable de que su autor original (Rob Engle) recibiera un premio Nobel (bueno, el equivalente al Nobel presentado por la Real Academia Sueca de Ciencias).

Esta vertiente de la literatura propuso un conjunto de modelos para la volatilidad en el tiempo $t+1$ en función del tiempo $t$ información. El más famoso es probablemente el modelo GARCH: $\sigma_{t+1}^2 = \omega + \alpha \epsilon_t^2 + \beta \sigma_t^2$ , donde $\epsilon_t$ es la fuente de aleatoriedad, a veces igual a $r_t$ . ¿Tiene este modelo alguna capacidad de predicción?

En la década de 1990 hubo bastantes trabajos que sugerían, a través de la metodología de las regresiones Mincer-Zarnowitz (Mincer, Zarnowitz (1969) "The Evaluation of Economic Forecasts"), que casi sin capacidad de predicción . Estas regresiones implican la regresión de la previsión sobre la cantidad que se intenta predecir. Por supuesto, la cantidad que intentamos pronosticar aquí es inobservable . Por ello, los autores utilizaron los rendimientos diarios al cuadrado como aproximación. Esto resultó ser una mala elección, porque aunque no está sesgada para la verdadera varianza, también es una ruidoso proxy. En el documento clásico, Andersen, Bollerslev (1998) "Answering the Skeptics: Yes, Standard Volatility Models do Provide Accurate Forecasts", se demostró que los malos resultados de la evaluación de las previsiones de principios de los 90 eran puramente el resultado del ruido en el proxy. Andersen y Bollerslev utilizaron un proxy más preciso, la "varianza realizada" que se propuso por primera vez en Merton (1980) "On Estimating the Expected Return Of the Market" (en un apéndice). La varianza realizada es simplemente la suma de los rendimientos intradía al cuadrado, es decir

\begin{equation} RV_t = \sum_{n}^N r_{n,t}^2 \end{equation}

y bajo supuestos ideales de modelización, se puede demostrar que $RV_t$ converge a una cantidad conocida como variación cuadrática, que, para responder a esta pregunta, supondremos que es igual a $\mathbb{V} r_t | \sigma_t = \sigma_t^2$ (un debate más profundo sobre esto está plagado de trampas y suposiciones de bajo nivel y no es adecuado para responder a esta pregunta). Por lo tanto, Andersen y Bollerslev simplemente utilizaron un proxy que tenía mucho menos ruido. Pudieron demostrar que, de hecho, los modelos de volatilidad condicional tienen una capacidad predictiva bastante buena para la varianza diaria.

Más recientemente, se han propuesto otras clases de modelos de previsión de la varianza, por ejemplo, los modelos de volatilidad estocástica, o, quizás lo más interesante, los modelos de previsión que utilizan estimadores como la varianza realizada como entradas. Se ha demostrado que estos modelos tienen una capacidad de predicción al menos tan buena (y posiblemente mucho mejor) que los modelos de volatilidad condicional.

El otro candidato es, como mencionas, el VIX. Tengo sentimientos encontrados al respecto. En primer lugar, es bastante conocido en la literatura (no puedo recordar la referencia de la parte superior de mi cabeza) que hay períodos en los que el VIX será un pronóstico significativamente sesgada de la verdadera volatilidad (es decir, ex post En este caso, se pueden mostrar periodos de varios meses en los que las previsiones del VIX fueron sistemáticamente demasiado grandes o demasiado pequeñas). Por otra parte, existen sólidas razones teóricas para utilizar el VIX, aunque todas ellas se basan en la modelización del proceso de precios como una semimartingala de tiempo continuo... Me estoy acercando a otra discusión cargada de peligros y trampas, así que mejor dejarlo así. Ciertamente, yo esperaría que el VIX superara masivamente a un mono lanzando dardos a una diana.

En conclusión, hay muchos métodos para predecir la varianza y muchas pruebas de que funcionan bastante bien. Hablaré un poco más de las metodologías específicas de evaluación de previsiones en la respuesta 3.

Respuesta 2: Si se cumplen ciertos supuestos, la respuesta a esta pregunta es idéntica a la de la pregunta anterior. En concreto, si

\begin{equation} r_t | \sigma_t \backsim \mathcal{N}(0, \sigma_t^2) \end{equation}

entonces un modelo de previsión para la varianza es equivalente a un modelo de previsión para la distribución.

Entonces, ¿qué pruebas tenemos para apoyar el modelo anterior para la condicional ¿distribución de los rendimientos diarios?

Si supiéramos $\sigma_t^2$ ex post entonces dicho modelo sería trivial de probar. Basta con aplicar una prueba de Kolmogorov-Smirnov a la secuencia $r_t / \sigma_t$ con la nulidad de la secuencia generada por una distribución Normal estándar. Desafortunadamente, como se ha mencionado, $\sigma_t$ es inobservable. Sin embargo, como se ha mencionado anteriormente en esta respuesta, sabemos que $RV_t \rightarrow \sigma_t^2$ bajo ciertos supuestos de modelización. Así, en Andersen, Bollerslev, Diebold y Ebens (2001) "The Distribution of Realized Stock Return Volatility", los autores examinan la secuencia $r_t / \sqrt{RV_t}$ y descubrimos que está muy cerca de una Normal estándar (véase la figura 1 de ese documento). La ligera desviación de la Normal estándar que se observa podría deberse fácilmente al ruido presente en $RV_t$ como un sustituto de la verdadera varianza, por lo que las pruebas apoyan con bastante fuerza la sugerencia de que $r_t | \sigma_t \backsim \mathcal{N}(0, \sigma_t^2)$ .

Por supuesto, la suposición de que $\mathbb{E} r_t = 0$ es claramente falso, sin embargo, en horizontes tan cortos como un día, el valor esperado de $r_t$ a menudo se supone que es lo suficientemente pequeña en relación con la varianza (condicional) de $r_t$ que asumiendo $\mathbb{E} r_t = 0$ es relativamente inofensivo (e infinitamente preferible a sustituir un estimador muy ruidoso por $\mathbb{E} r_t$ ). En la práctica, esto no es muy útil para muchos profesionales, que muy interesado en los días en los que la media condicional de $r_t$ no es cero. Por ahora (y posiblemente para siempre) esta es una cuestión abierta en la economía financiera y la econometría financiera.

¿Y qué pasa con las distribuciones no normales? $r_t$ ? Ya hemos hablado de que la distribución incondicional es claramente de cola gorda, y posiblemente ni siquiera tenga varianza finita. En cuanto a otros supuestos de modelización, hay mucha literatura, por ejemplo, modelos autorregresivos para funciones de distribución, etc., pero es todo bastante pesado y probablemente no es lo que realmente buscas aquí.

La única excepción a lo anterior es la previsión de un parámetro específico de la distribución, a saber, el cuantil. Esto ha recibido mucha atención debido al uso generalizado del Valor en Riesgo. En mi opinión, los modelos de previsión para los cuantiles que no hacen ninguna suposición de normalidad incluyen los basados en la teoría del valor extremo, y la clase de modelos CAViaR propuesta por primera vez en Engle, Manganelli (2004) "CAViaR: Conditional Autoregressive Value-at-Risk by Regression Quantiles".

Así que en resumen, sí, el condicional distribución de probabilidad de $r_{t+1}$ puede predecirse con cierta exactitud si se está dispuesto a asumir que $r_t | \sigma_t \backsim \mathcal{N}(0, \sigma_t^2)$ . Esta exactitud de predicción proviene de la exactitud de predicción comentada en la respuesta 1.

Respuesta 3: Podemos dividir esta respuesta en dos partes: 1) métodos de evaluación de los procedimientos de previsión de la varianza diaria, y 2) métodos de evaluación de los procedimientos de previsión de la distribución de un rendimiento diario.

Hay un par de maneras de evaluar los modelos de previsión de la varianza diaria. La más popular en la literatura existente es a través de métodos basados en pérdidas, por ejemplo, Diebold, Mariano (1995) "Comparing Predictive Accuracy", West (1996) "Asymptotic Inference About Predictive Ability", White (2000) "A Reality Check For Data Snooping", Hansen (2005) "A Test for Superior Predictive Ability" o Hansen, Lunde y Nason "The Model Confidence Set". Todos estos métodos, de un modo u otro, no hacen más que evaluar la distancia (para alguna métrica convenientemente elegida) entre la previsión y lo que se intenta predecir. Por supuesto, el objetivo de la previsión es inobservable Así que utilizamos el mismo truco mencionado anteriormente de sustituirlo por un proxy. Hay algunos trucos sorprendentes al acecho para los incautos, véase, por ejemplo, Patton (2011) "Volatility Forecast Comparison Using Imperfect Volatility Proxies". En resumen, si su proxy es bastante bueno, por ejemplo, la varianza realizada para un activo muy negociado, entonces puede utilizar cualquier función de pérdida que desee, pero si utiliza un proxy más ruidoso, por ejemplo, los rendimientos diarios al cuadrado, tendrá que restringir su análisis a una clase de funciones de pérdida "robustas".

Lo siguiente son los métodos para evaluar las previsiones de las distribuciones de probabilidad. Esto no ha recibido tanta atención en la literatura. ¿Por qué? Bueno, una gran parte de la economía financiera se basa en el modelo de semimartingala en tiempo continuo. En particular, a menudo se hace la siguiente suposición específica:

\begin{equation} dp_t = \mu_t dt + \sigma_t dW_t \end{equation}

donde $\mu_t$ y $\sigma_t$ obedecen a un conjunto de condiciones de acotación, y $W_t$ es un proceso Wiener. Es evidente que este modelo va a sugerir que los rendimientos diarios deben ser modelados como condicionalmente normales (condicionando a $\mu_t$ y $\sigma_t$ ). Así que otros supuestos de distribución simplemente no se plantean tanto.

No me malinterpreten, no estoy especialmente enamorado de este supuesto (o incluso del modelo anterior). Sin embargo, esa es la situación actual.

Para concluir esta respuesta, usted mencionó en la pregunta algún tipo de procedimiento ad hoc para ver ex post rendimientos diarios y ver si se ajustan a algún tipo de modelo de previsión distributiva. Este procedimiento probablemente podría hacerse funcionar para el incondicional distribución sin demasiado trabajo adicional, pero para la condicional distribución es un poco más difícil. Como en la respuesta 2, se han realizado algunos trabajos en este ámbito para un aspecto específico de la distribución condicional, a saber, el cuantil. Quizá le interese echar un vistazo a Christoffersen (1998) "Evaluating Interval Forecasts" o a la prueba del cuantil dinámico (DQ) en Engle, Manganelli (2004) "CAViaR: Conditional Autoregressive Value-at-Risk by Regression Quantiles". Ambas pruebas analizan ex post los rendimientos diarios y analizar el número de violaciones del VaR en relación con los previstos por el modelo de previsión del VaR.

Si quiere comparar ex post a las previsiones de toda la distribución condicional, creo que se necesitaría un lote de los rendimientos diarios para hacer esto con alguna precisión. Definitivamente puedo pensar en una manera de hacerlo utilizando datos intradía, pero eso es una historia bastante larga y esto ya es una respuesta bastante larga.

Saludos a todos, espero que los lectores que hayan llegado hasta aquí no sientan que han perdido el tiempo.

Colin

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X