3 votos

Búsqueda de un modelo para aislar la volatilidad implícita de una opción sobre acciones relacionada con un evento específico

Nota - Estas son mis interpretaciones de la fijación de precios de las opciones y las suposiciones que se hacen en esta pregunta. Por favor, siéntase libre de comentar sobre ellos o corregirme si estoy equivocado.

La volatilidad implícita de las opciones varía en función de los riesgos percibidos en el mercado que afectan al precio de las opciones. Interpretado de esta manera, a medida que los riesgos percibidos son mayores, los vendedores aumentarán el precio al que están dispuestos a ejecutar una operación para compensar los riesgos que están asumiendo. Según el modelo de fijación de precios de las opciones que esté utilizando, esto puede interpretarse como la Volatilidad Implícita de los movimientos futuros de los precios.

Estos riesgos pueden dividirse en grandes categorías. En este caso, voy a utilizar las siguientes categorías para enmarcar la cuestión; Riesgo sistémico y Riesgo de puntos .

Ya veo Riesgo sistémico como el amplio conjunto de riesgos que podrían afectar al precio de una acción en un momento determinado. Esta categoría incluiría la volatilidad general de la acción, los riesgos generales del mercado y del sector, los rumores y los riesgos de información, etc. Esencialmente, cosas que podrían afectar a la volatilidad del precio de las acciones en cualquier momento.

Riesgo de puntos es más específico. En este caso, me refiero a un riesgo específico conocido en un momento dado. Un anuncio de beneficios es un ejemplo perfecto de esto. Sabemos casi con exactitud cuándo se producirá el anuncio de beneficios, pero como la información es desconocida, existe el riesgo de que el precio de las acciones se vea afectado.

El concepto de Riesgo de puntos puede extenderse a todo lo que pueda tener un efecto sobre la volatilidad del precio de un subyacente en un periodo de tiempo definible. Algunos ejemplos podrían ser los anuncios de los tipos de la Fed, las aprobaciones de la FDA, los eventos de la industria, etc.


La pregunta: ¿Qué modelo me permite determinar la parte de la volatilidad implícita de una opción que puede atribuirse a un riesgo puntual conocido frente a lo que se atribuye al riesgo sistémico más general?

Mi objetivo es ser capaz de analizar la opción IV en torno a un evento y determinar si el mercado está percibiendo más o menos riesgo de ese evento en comparación con eventos similares anteriores.

El problema es que el IV puede subir o bajar independientemente del evento en sí. No puedo comparar el IV entre dos eventos diferentes porque otros factores podrían estar haciendo subir la parte del riesgo sistémico del IV independientemente del riesgo puntual.

Puedo mirar las opciones que vencen antes del evento o los vencimientos muy posteriores al evento, pero incluso esos contienen algún nivel de sesgo de riesgo de evento.

¿Alguien tiene sugerencias para abordar este problema o conoce alguna investigación que se relacione con los conceptos?

Mi preferencia es tener un modelo que tenga algún tipo de capacidad explicativa en lugar de una solución convergente no paramétrica como un modelo de Markov oculto o una solución de red neuronal.

1 votos

La respuesta a esta pregunta puede resultarle útil: quant.stackexchange.com/questions/31368/ . Muestra cómo se puede construir un modelo que incorpore un salto con un tiempo de ocurrencia conocido. Mediante la calibración de la superficie de volatilidad implícita, se puede extraer la distribución del tamaño del salto implícito.

0 votos

Gracias por la rápida respuesta. Voy a indagar en esa pregunta a ver qué se me ocurre.

3voto

Dan R Puntos 1852

Configuración básica

Supongamos en primer lugar que la dinámica "base" del activo (es decir, en todo momento excepto el evento) sigue un movimiento browniano geométrico (GBM) con coeficiente de difusión $\sigma$ . El salto en sí es una variable aleatoria de distribución normal $Z \sim \mathcal{N} \left( -\frac{1}{2} \xi^2, \xi^2 \right)$ . Obsérvese que no podemos especificar el tamaño del salto medio, ya que viene impuesto implícitamente por la propiedad de martingala del proceso del precio del activo descontado. Sea $X_t = \ln \left( S_t / S_0 \right)$ sea el proceso de retorno logarítmico. Entonces

\begin{equation} X_t = \left( r - \frac{1}{2} \sigma^2 \right) t + \sigma W_t + Z \mathrm{1} \left\{ t \geq t_\text{J} \right\}, \end{equation}

donde $t_\text{J}$ es el tiempo de salto. De ello se desprende que $X_t$ se distribuye normalmente con

\begin{equation} X_t \sim \mathcal{N} \left( \left( r - \frac{1}{2} \sigma^2 \right) t - \frac{1}{2} \xi^2 \mathrm{1} \left\{ t \geq t_\text{J} \right\}, \sigma^2 t + \xi^2 \mathrm{1} \left\{ t \geq t_\text{J} \right\} \right). \end{equation}

Así, la volatilidad implícita para una opción con vencimiento en $T$ viene dada por

\begin{equation} \sigma^{\text{IV}}(T) = \sqrt{\frac{1}{T} \left( \sigma^2 T + \xi^2 \mathrm{1} \left\{ T \geq t_\text{J} \right\} \right)}. \end{equation}

Por ejemplo $\sigma = 20\%$ , $\xi = 5\%$ y $t_\text{J} = 7$ días (azul) y $t_\text{J} = 5$ días (rojo). Las correspondientes estructuras temporales de volatilidad implícita son

Term-structures of implied volatilities in Black and Scholes (1976) with an event jump.

Esto sugiere dos enfoques para calibrar el modelo:

  1. A la sección transversal de volatilidades implícitas para dos o más vencimientos. Al menos uno de estos vencimientos tiene que ser mayor que $t_\text{J}$ .
  2. A la serie temporal de volatilidades implícitas para una única opción que vence después de $t_\text{J}$ .

En cada caso, utilizamos la expresión anterior para $\sigma^{\text{IV}}$ y calibrar los parámetros $\sigma$ y $\xi$ para que coincida con las entradas, por ejemplo, en un sentido de mínimos cuadrados. Por supuesto, también podemos mezclar ambos métodos.

En presencia de una sonrisa de volatilidad implícita, podríamos intentar aplicar el enfoque anterior a las volatilidades at-the-money. Sin embargo, incluso en ese caso, la suposición de una estructura de plazos base plana suele ser demasiado restrictiva y podríamos considerar el uso de una parametrización para $\sigma(t)$ .

Más configuración general

Para calibrar simultáneamente nuestro modelo a la sección transversal de todas las opciones enumeradas, necesitamos utilizar una dinámica de base más compleja. Definamos el proceso de retorno logarítmico como

\begin{equation} X_t = r t + \underbrace{Y_t - \ln \left( \phi_{Y_t}(-\mathrm{i}) \right)}_{\text{base dynamics}} + \underbrace{\left( Z - \ln \left( \phi_{Z}(-\mathrm{i}) \right) \right) \mathrm{1} \left\{ t \geq t_\text{J} \right\}}_{\text{jump dynamics}}. \end{equation}

Aquí $Y$ es el proceso base, $Z$ es el tamaño del salto aleatorio y $\phi_{Y_t}(\omega)$ y $\phi_Z(\omega)$ son las funciones características correspondientes. A continuación, podemos calcular los precios de las opciones europeas utilizando los mismos métodos de inversión de Fourier que utilizamos para nuestra dinámica de base.

He aquí un ejemplo: Supongamos que $Y$ se rige por un proceso estocástico de volatilidad y difusión de saltos de Bates (1996) de la forma

\begin{eqnarray} \mathrm{d}Y_t & = & -\frac{1}{2} V_t \mathrm{d}t + \sqrt{V_t} \mathrm{d}W_t^Y + \sum_{i = 1}^{N_t} A_i,\\ \mathrm{d}V_t & = & \kappa \left( \theta - V_t \right) \mathrm{d}t + \nu \sqrt{V_t} \mathrm{d}W_t^V \end{eqnarray}

donde $\mathrm{d} \langle W^Y, W^V \rangle_t = \rho \mathrm{d}t$ , $N$ es un proceso de Poisson compuesto con tasa de actividad $\lambda$ y $\left\{ A_i \right\}_{i = 1}^\infty$ es una secuencia de i.i.d. $\mathcal{N} \left( \alpha, \beta^2 \right)$ variables aleatorias normales. Fijamos los siguientes parámetros: $S_0 = 100$ , $r = 0\%$ , $\sqrt{V_0} = 15\%$ , $\kappa = 2.0$ , $\sqrt{\theta} = 25\%$ , $\nu = 100\%$ , $\rho = -50\%$ , $\lambda = 15$ , $\alpha = -1.0\%$ , $\beta = 2.5\%$ , $t_J = 14$ días y $\xi = 5\%$ . Obtenemos las siguientes sonrisas de volatilidad implícita a corto plazo:

Sample implied volatility smiles under Bates (1996) with an event jump.

1voto

Cody Brimhall Puntos 762

Para las acciones, he aquí algunas posibilidades:

(i) podría asumir el nivel del índice VIX como medida de la volatilidad sistémica

(ii) podría tomar el VIX, escalado por la beta de su acción específica, como medida de la volatilidad subyacente

(iii) se podría construir un modelo que permita especificar la volatilidad de cada día. A continuación, se le daría a cada día una etiqueta como la siguiente: anuncio de beneficios, anuncio de la Reserva Federal, día de elecciones y ningún acontecimiento. (tantos eventos específicos como se quiera). Utilizando un enfoque de mínimos cuadrados, o simplemente utilizando conjeturas, se resuelve la volatilidad de cada tipo de día de manera que se respete la volatilidad implícita de cualquier opción observable. Por ejemplo, si una opción a 1 mes sobre la acción se negocia con una volatilidad del 26%, entonces la suma de los cuadrados de los movimientos porcentuales en todos los días constitutivos debe sumar 26^2.

El enfoque (iii) es el tipo de modelo utilizado por los operadores de opciones a corto plazo en la calle.

0 votos

Actualmente utilizamos algo similar al enfoque (iii) anterior. Esto parece un área primordial para que un candidato al doctorado se centre en su tesis. Esperaba que hubiera un modelo mejor formado y con un poco de análisis detrás.

-1voto

akalenuk Puntos 1738

Así que, por lo que veo, sólo habría una metodología que podría resolver esto. Estás tratando de resolver dos cosas distintas y utilizan la misma metodología. Si $r$ es una medida de la situación local observado volatilidad o riesgo tanto en el pasado como en el futuro, $\sigma$ es el verdadero parámetro en la naturaleza, $I$ es información general, y $E$ es información específica de un evento, entonces creo que estás obligado por la naturaleza de tu descripción a una metodología bayesiana.

La razón es que, aunque existan métodos para modelar $\sigma_t$ en las metodologías frecuencialista y likelihoodista, no existe una metodología para modelar las realizaciones, que es un tipo de pregunta diferente. Afortunadamente, existen soluciones bayesianas.

En primer lugar, quiero señalar que un evento no es más que un dato, pero usted y posiblemente el público lo veo como algo significativo. En otras palabras, no se considera un huracán en la misma categoría que la lluvia. Las gotas de agua son esencialmente las mismas, si acaso un poco más enérgicas en un huracán que en una suave llovizna primaveral. También hay una segunda cuestión. Un riesgo incipiente deja de serlo una vez que se hace realidad, entonces es un hecho. Puede ser un hecho desagradable, pero ahora es una certeza. Puede que los mercados no respondan a un cambio de riesgo, sino a un cambio de certeza. Puede ser que $\sigma$ cayó una vez que se realizó algún evento, pero $\mu$ no sólo ha cambiado, sino que ahora es más seguro que nunca.

No obstante, los métodos bayesianos permiten que todo tipo de cosas sean parámetros, además de los centros de ubicación, la escala, la inclinación, etc. Ben Roethlisberger podría ser un parámetro. Tendría varios parámetros asociados a él también, como el de quarterback, las finalizaciones, los Steelers, la edad, etc., pero pueden combinarse en él de forma única haciéndolo distinto. Siempre que puedas hacer un modelo que sea sensato, los métodos bayesianos estarán encantados de ayudarte. Si jugara al fútbol fantástico, podría hacer de cada jugador un parámetro que es en sí mismo una configuración única de parámetros, que forman parte de un sistema mayor que tiene parámetros. Si no fuera por la dimensionalidad, probablemente sería un problema solucionable.

Además, no es necesario recoger los datos de una variable para incluirla en un modelo. Hay un gran artículo sobre la modelización de monedas de tres caras (cara, cruz, lados) y dos de esos modelos incluyen variables para las que no se recogieron datos. Véase http://statweb.stanford.edu/~owen/courses/306a/threesidedcoin_amstat.pdf

El artículo también ofrece una visión intermedia de cómo probar varios modelos competidores para eliminar los malos.

Lo que se quiere hacer es predecir la volatilidad local dada la información, la información del evento (que podría ser sólo un salto de nuevo ver el artículo) y los parámetros.

Quieres saber $\Pr(r|IE\sigma\mu{t})$ . Esto se resuelve mediante la distribución predictiva bayesiana. Le proporcionará una distribución del espacio muestral futuro de realizaciones de $r$ . La razón por la que no se puede hacer esto en los métodos frecuentistas es la misma razón por la que la gente interpreta mal los intervalos de confianza. Una de las características de los bordes de los intervalos de confianza es que son aleatorios y que los intervalos más pequeños no son intrínsecamente mejores que los anchos. La gente confunde el tamaño del intervalo con la precisión. Se trata de un problema similar.

También se puede hacer un análisis de sensibilidad entre los efectos de $I$ y $E$ sobre los movimientos de los precios. Lo creas o no, hay un artículo sobre esto en 1941 que John Maynard Keynes pasó algún tiempo comentando. Es de Landon, pero no querrás leerlo. En su lugar, recoge la forma generalizada en el libro de ET Jaynes Probabilidad: El lenguaje de la ciencia . Es un poco polémico y no servirá para tu aplicación específica, pero te dará la idea. Landon se ocupaba de la señal y el ruido en las líneas de telecomunicación.

Personalmente, me opongo a esta categoría de pensamiento y de modelos, a modo de divulgación. Sin embargo, lo que usted quiere hacer es ambicioso. En caso de que no haya oído hablar de la distribución predictiva bayesiana, le daré un breve tutorial de matemáticas.

En primer lugar, imaginemos que existe un espacio muestral futuro $\chi$ y el espacio muestral histórico $X$ y una muestra observada $x$ . También hay un espacio de parámetros $\Theta$ y un parámetro $\theta$ . Ambos podrían ser vectores en espacios vectoriales.

El teorema de Bayes, a efectos de análisis, se compone de cuatro partes. La primera parte se llama distribución a priori, casi siempre abreviada como "a priori". Se denotará $\pi(\theta)$ y contiene todo lo que se sabe profesionalmente sobre el parámetro antes de mirar la muestra. Si sabes que no puede ser negativo, entonces asignas una probabilidad cero sobre los números negativos. Si sabes que no puede ser 5.000.000% por año cada año, entonces asignas una probabilidad del cero por ciento o una cola muy estrecha de una probabilidad. Y así sucesivamente con cada parámetro. Se codifica, lo mejor que se puede, el conjunto de conocimientos existentes sobre el tema. Esto tiene dos ventajas.

Evita el desperdicio de información y puede normalizar tu muestra, si por casualidad, agarraste la muestra rara. Si usted es completamente ignorante en cuanto al valor de $\theta$ entonces asignarías un prior de "ignorancia", es decir, una fórmula que está diseñada para imitar la ignorancia de forma probabilística. La prioridad es todo lo que se sabe sobre el problema en este momento.

La segunda parte es la probabilidad. Es la probabilidad de observar los datos que realmente observó en un valor específico posible o conjunto de valores para el parámetro o vector de parámetros. Se denota $\mathcal{L}(x|\theta)$ . Este es su modelo. El numerador es el producto de la prioridad y la probabilidad. Es una densidad, por lo que este cálculo se repite para todos los valores posibles del parámetro, es decir, para todos los $\theta\in\Theta$ .

La tercera parte se denomina prueba. El numerador se suma sobre todo el espacio de parámetros. Estás sumando todas las posibles explicaciones de los datos que has visto ponderadas por su probabilidad a priori. Se escribe como $\int_{\theta\in\Theta}\mathcal{L}(x|\theta)\pi(\theta)\mathrm{d}\theta$ .

La parte final se denomina distribución posterior y se denota $\pi(\theta|x)$ . Es la densidad de la incertidumbre (no del azar, los métodos bayesianos no tienen azar) respecto al parámetro. En conjunto, son $$\pi(\theta|x)=\frac{\mathcal{L}(x|\theta)\pi(\theta)}{\int_{\theta\in\Theta}\mathcal{L}(x|\theta)\pi(\theta)\mathrm{d}\theta}.$$

La distribución predictiva bayesiana comienza con la distribución posterior. Esta predeciría la probabilidad de $\tilde{x}$ para todos $\tilde{x}\in\chi$ .

La distribución posterior es una cuantificación de la incertidumbre restante sobre el parámetro $\theta$ . Esta incertidumbre se elimina dejando sólo la distribución basada en la información de los datos $x$ . La distribución posterior es $$\pi(\tilde{x})=\int_{\theta\in\Theta}\mathcal{L}(\tilde{x}=k|\theta)\pi(\theta|x)\mathrm{d}\theta.\forall{k}\in\chi.$$

Usted quiere encontrar $\Pr(\tilde{r})$ . Aunque estoy en contra de esta clase de modelos, mis mejores deseos y buena suerte. Sus descubrimientos pueden ayudar a otros.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X