2 votos

¿Error de cálculo o vega alta? ¿Cómo interpretarlo?

Estoy tratando de calcular/interpretar Vega. En el ejemplo siguiente obtengo una Vega de ~36,36. He comprobado mis cálculos varias veces, pero agradecería que alguien me indicara cualquier error que haya cometido. Si la Vega es correcta, agradecería cualquier aclaración sobre cómo interpretar una Vega tan alta.

Datos: (Perdón de antemano por la precisión).

Spot:       280
Strike:     275
Time 2 Mat: 0.1469746111428209 (53.6457/365)
Interest:   0.025
Volatility: 0.1024485798268360

Mis fórmulas asumidas son las siguientes:

$S \cdot N'(d_1)\sqrt{T-t}$

donde

$d_1 = \frac{ln(\frac{S}{K})+(r+\frac{\sigma^2}{2})(T-t)}{\sigma\sqrt{T-t}}$

Por lo tanto, mis cálculos son así:

$d_1 = \frac{ln(\frac{280}{275})+(0.025+\frac{0.1024485798268360^2}{2})(0.1469746111428209)}{0.1024485798268360\sqrt{0.1469746111428209}} = 0.571956921435358$

$280 \cdot N'(0.571956921435358)\sqrt{0.1469746111428209} = 36.362426400092646$

3 votos

Mi libro tiene $N'(d_1)$ pas $N(d_1)$ en la fórmula. es.wikipedia.org/wiki/Modelo%E2%80%93Scholes

0 votos

Además, Vega, tal y como se define aquí, es la respuesta a un aumento del Vol en 100 puntos porcentuales (por ejemplo, de 10% vol a 110% vol), por lo que siempre es un número grande. Muchas personas prefieren trabajar con Vega/100 por esta razón.

0 votos

¡Muchas gracias!

2voto

Daniel Sims Puntos 373

Como @AlexC menciona en los comentarios anteriores, Vega es realmente una sensibilidad del precio a un movimiento del 100% en la volatilidad. Es habitual que Vega se reduzca en dividiendo por 100 para encontrar la sensibilidad del precio a un movimiento del 1% en la volatilidad.

Por lo tanto, en el ejemplo anterior, la sensibilidad del precio a un movimiento del 1% en la volatilidad es simplemente:

$\frac{36.36}{100} = 0.3636$

Aquí hay una pregunta/respuesta que (en el contexto de R) llega a la misma conclusión.

1voto

akalenuk Puntos 1738

Probablemente no sea un error de cálculo. El modelo Black-Scholes presupone que los parámetros son conocidos y no estimados. Es un modelo construido en torno a parámetros, no a estimaciones de parámetros. También asume la normalidad logarítmica o que el CAPM tradicional es cierto.

En 1958 un matemático, John White, demostró que modelos como el CAPM no tienen solución en las interpretaciones frecuencialistas o likelihoodistas de la probabilidad. Más propiamente, existe una solución pero nunca convergerá a un parámetro. En 1934, Ronald Fisher criticó los métodos frecuentistas de Pearson y Neyman utilizando un modelo similar. Su argumento era que se trataba de un ejemplo que produciría un resultado "preciso" pero no "correcto".

En cuanto a la precisión, señaló que las estimaciones de los parámetros serían simétricas en torno al parámetro verdadero, pero que normalmente estarían desviadas en $\pm{100}\sigma.$ Economía nunca leyó los artículos. De hecho, este mismo tema fue fuente de una crítica a una prueba escrita por Laplace y revisada por Poisson. Sigue apareciendo en estadística y luego todo el mundo se olvida de ella. El gran Augustin Cauchy lo utilizó para demostrar que había una fuente automática de fallos para los mínimos cuadrados ordinarios en la época impulsada por Bienayme.

La cuestión tiene que ver con que los parámetros sean "conocidos" o estimados. Si los parámetros son conocidos con probabilidad 1, entonces no hay nada malo en Black-Scholes o en el CAPM. Si no se conocen, entonces los estimadores frecuentistas tienen una ineficiencia relativa asintótica perfecta en comparación con un método de estimación válido. Es decir, la varianza de la distribución muestral explota hasta el infinito a medida que el tamaño de la muestra llega al infinito. Esto ha estado en la literatura financiera desde 1963, cuando Benoit Mandelbrot escribió un artículo que básicamente decía: "si este es su modelo, entonces no es posible que estos sean sus datos, y estos son sus datos". La desconfirmación de la población fue realizada por Fama y MacBeth en 1972.

Hay una prueba sencilla de esto que puede realizar usted mismo, dos de hecho. Una de ellas se puede realizar en menos de cinco minutos.

Haz un histograma de tus datos. Obtén las estimaciones de los parámetros. Introdúcelos. Traza la logarítmica normal que está implícita en ellos. No elimine los valores atípicos. A continuación, estime otra curva: $$\left[\frac{\pi}{2}+\tan^{-1}\left(\frac{\mu}{\sigma}\right)\right]^{-1}\frac{\sigma}{\sigma^2+(x-\mu)^2}.$$

Para este último, una aproximación $\mu$ como el modo empírico. Para $\sigma$ aproximarlo con la mitad del rango intercuartil. Ambos estimadores serán muy burdos.

La estimación adecuada sería utilizar una prueba de modelo bayesiano de los dos. Dar al log-normal 999:1 probabilidades previas de ser el modelo correcto. Hazlo con un prejuicio a favor de Black-Scholes.

De hecho, he realizado un estudio de población sobre todas las operaciones al final del día en el universo CRSP. Se rechaza la normalidad y la log-normalidad a favor de una distribución Cauchy truncada. Está en la bibliografía más abajo.

La presencia del Cauchy truncado se debe a que los rendimientos son una estadística y no un dato. Los precios son datos. Los rendimientos son una función de los datos. En condiciones leves, la teoría de las subastas exigiría que los precios de los valores del mercado de renta variable se distribuyeran normalmente. La relación de dos normales alrededor del equilibrio sería una distribución de Cauchy. Las limitaciones de la responsabilidad lo restringen por truncamiento.

Consulte los siguientes artículos:

Curtiss, J. H. (1941). Sobre la distribución del cociente de dos variables de azar de dos variables de azar. Annals of Mathematical Statistics, 12:409-421.

Fama, E. (1965). El comportamiento de los precios del mercado de valores. Journal of Business, 38:34-105.

Fama, E. F. (1963). Mandelbrot y la hipótesis paretiana estable. Revista of Business, 36:420 - 429.

Fama, E. F. y French, K. R. (2008). Diseccionando anomalías. The Journal of Finance, LXIII(4):1653-1678.

Fama, E. F. y MacBeth, J. D. (1973). Riesgo, rendimiento y equilibrio: Pruebas empíricas. The Journal of Political Economy, 81(3):607-636.

Fama, E. F. y Roll, R. (1968). Some properties of symmetric stable distributions. Journal of the American Statistical Association, 63(323):pp. 817-836.

Fama, E. F. y Roll, R. (1971). Parameter estimates for symmetric stable stable distributions. Journal of the American Statistical Association, 66(334):331 - 338.

Fisher, R. A. 1934. Dos nuevas propiedades de la probabilidad matemática. Proc. Roy. Soc. Ser. A (144) 285-307.

Gull, S. F. (1988). Inferencia inductiva bayesiana y máxima entropía. En Erickson, G. J. y Smith, C. R., editores, Maximum-Entropy and Bayesian Methods in Science and Engineering: Foundations, volumen 1 de Fundamental Theories of Physics, páginas 53-74. Springer.

Gurland, J. (1948). Fórmulas de inversión para la distribución de ratios. En Annals of Mathematical Statistics, 19(2):228-237.

Harris, D. E. (2017). La distribución de los rendimientos. The Journal of Mathematical Finance, 7(3):769-804.

Harris, David E., Una prueba de un cálculo estocástico generalizado (27 de noviembre de 2018). Disponible en SSRN: https://ssrn.com/abstract=2653151 o http://dx.doi.org/10.2139/ssrn.2653151

Jaynes, E. T. (2003). Probability Theory: The Language of Science. Cambridge University Press, Cambridge.

Koopman, B. O. (1936). Sobre las distribuciones que admiten un estadístico suficiente. 39(3):399-409.

Lavine, M. y Schervish, M. J. (1999). Factores de Bayes: Qué son y lo que no son. The American Statistician, 53(2):119-122.

Mandelbrot, B. (1963). La variación de ciertos precios especulativos. The Journal of Business, 36(4):394-419.

Markowitz, H. (1952). Portfolio selection. The Journal of Finance, 7(1):77-91. 30

Markowitz, H. y Usmen, N. (1996a). The likelihood of various stock market return distributions, part 1: principles of inference. Journal of Risk and Uncertainty, 13:207-219.

Markowitz, H. y Usmen, N. (1996b). The likelihood of various stock market return distributions, part 2: empirical results. Journal of Risk and Uncertainty, 13:221-247.

Marsaglia, G. (1965). Coeficientes de variables normales y cocientes de sumas de variables uniformes uniformes. Journal of the American Statistical Association, 60(309):193- 204.

Roy, A. (1952). La seguridad primero y la tenencia de activos. Econometrica, 20:431- 439.

Stigler, Stephen M. Estudios de historia de la probabilidad y la estadística. XXXIII: Cauchy y la bruja de Agnesi: Una nota histórica sobre la distribución de Cauchy. Biometrika. 61(2). 1974. pp. 375-380

White, J. S. (1958). The limiting distribution of the serial correlation coefficient in the explosive case. The Annals of Mathematical Statistics, 29(4):1188-1197.

Yilmaz, B. Z. (2010). Finalización, fijación de precios y calibración en un mercado de gravámenes model. Master's thesis, The Institute of Applied Mathematics of Middle East Technical University.

Si necesitas más ayuda, házmelo saber en la sección de comentarios y encontraré la forma de hacerte llegar mis datos de contacto.

0 votos

¡Gracias Dave! En este caso, había cometido un error de cálculo que fue corregido en los comentarios por Alex C. Tampoco esperaba que Vega fuera un número alto y no había reconocido que en la práctica se divide por 100. No obstante, agradezco tu información y, sin duda, revisaré estos documentos.

0 votos

@DanielSims piensa en esa convención por un momento. Si se tratara de porcentajes, sería multiplicar por 100. ¿Has pensado que lo de dividir por 100 se debe a que no funciona, pero el campo se ha dado cuenta de que se desvía en unos dos órdenes de magnitud con bastante frecuencia? Pregúntate por qué tendría o no tendría sentido esa convención.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X