1 votos

Métrica estadística para medir la adecuación de la superficie de volatilidad al mercado

Supongamos que tengo un modelo para la superficie de volatilidad implícita y quiero averiguar la frecuencia de recalibración necesaria basada en las comillas históricas. Dado que tengo una amplia gama de strikes y tenores durante un largo período de tiempo, necesito automatizar de alguna manera este proceso, es decir, necesito una métrica computable en lugar de "ahh parece bastante cerca del mercado".

¿Qué tipo de métrica estadística tendrá más sentido? Estoy pensando en la media de las diferencias porcentuales entre las comillas del mercado y del modelo, es decir, el valor medio de $$100\cdot\frac{\sigma^{market}-\sigma^{model}}{\sigma^{market}}$$ sobre toda la superficie de volatilidad, sin embargo, la media sobre toda la superficie puede ser bastante engañosa, ya que no captará los grandes valores atípicos en una superficie suficientemente grande y anulará las diferencias de magnitud similar pero de signo contrario. No obstante, no veo una métrica mejor para evaluar el ajuste de una superficie global.

¿Qué sentido tiene una diferencia porcentual media en toda la superficie para evaluar la calidad de un ajuste? ¿Existe una métrica mejor? Se agradecerá cualquier ayuda.

UPD: ¿Tiene más sentido elegir una suma de diferencias al cuadrado en todos los tenores y huelgas $$\sum_{K,T}(\sigma^{market}-\sigma^{model})^2$$ como métrica?

4voto

dotnetcoder Puntos 1262

Sospecho que quieres utilizar una norma ponderada: https://math.stackexchange.com/questions/394237/understanding-weighted-inner-product-and-weighted-norms

En general, su superficie de volatilidad (o cubo de volatilidad si incluye los sesgos), puede considerarse un elemento del conjunto de todas las parametrizaciones posibles de la superficie de volatilidad. Cada volatilidad o parámetro individual de ese elemento representaría una dimensión medida.

Se busca una función que represente la distancia entre dos elementos del conjunto.

He aquí dos sugerencias:

  • norma l2, es decir, el producto interior cuadrático habitual del vector

  • en la que si una diferencia dimensional es mayor que una cierta tolerancia se pone a 1, y se suma en todas las dimensiones, por ejemplo:

    los elementos (1,2,3) y (1,9,9) tienen una distancia de 2 (0+1+1) si la tolerancia es 1, y una distancia de 0 (0+0+0) si la tolerancia es 10.

¿Cuál de estas medidas de distancia es mejor? Yo tendría que ir con la norma l2, porque eso crea y satisface los axiomas de un espacio métrico, mientras que el segundo no lo hace. No satisface el axioma de la desigualdad del triángulo de que para dos elementos, A y B, la distancia entre ellos es menor o igual que la suma de la distancia entre A y C y C y B. Ahora bien, en la práctica, ¿por qué podría importar esto?

Si está codificando algún algoritmo que recalibra cuando la distancia entre dos elementos difiere en un valor establecido, entonces la segunda función de distancia podría crear resultados diferentes entre los días.

Supongamos que se establece una tolerancia de 2 y un disparo de recalibración cuando la distancia es mayor que 1, entonces:

En el día 0 su superficie es (1,2,3) y se desplaza a (2,3,4) que tiene un indicador de distancia de 0, por lo que no se dispara. En el día 1 su superficie es: (2,3,4) y se mueve a (3,5, 4,5, 5,5) que tiene una distancia indicadora de 0, por lo que no hay disparo. La suma de la distancia en dos días es 0, y no genera ningún disparo.

Sin embargo, si en cambio: (1,2,3) se desplazara a (3,5, 4,5, 5,5) el primer día, la distancia del indicador sería de +3 y provocaría una recalibración.

Esta inconsistencia se debe al axioma de la desigualdad del triángulo y al hecho de que no estás operando dentro de un espacio métrico.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X