Los saltos son un intento de resolver un error matemático de la Teoría Moderna de la Cartera. En la década de 19502-70, los economistas trabajaban en la resolución del equilibrio entre la varianza y la media. Además, tenían que hacerlo con la computación de tarjetas perforadas. Eso restringía radicalmente el conjunto de soluciones potenciales computables. Tanto la distribución normal como la logarítmica normal se pueden calcular con tarjetas perforadas.
Sin embargo, hay dos problemas. El primero es uno que la mayoría de los economistas desconocen. En 1958, un matemático llamado John White demostró que no hay solución a una ecuación de la forma $w_{t+1}=Rw_t+\epsilon_{t+1},R>1$ en la estadística frecuencial. Por supuesto, usted no invertiría dinero si $R\le{1}$ . Volveremos sobre esto. La segunda es que Mandelbrot, a partir de 1963, empezó a publicar artículos en los que decía que los rendimientos tenían colas pesadas y que no podían proceder de una distribución con varianza. En otras palabras, no hay compensación entre la varianza y la media porque el primer momento central no existe.
Si nos remontamos a los años sesenta y setenta, con sus discusiones sobre las colas pesadas y los resultados de los trabajos de Fama-MacBeth que excluían el CAPM de la ciencia empírica, había que hacer una especie de elección. Abrazar las distribuciones sin media y para las que no había ningún soporte matemático en el que los economistas pudieran trabajar, o decidir para la realidad que hay una media y simplemente añadir saltos para intentar cubrir los grandes desplazamientos. Esa matemática era fácilmente manejable.
Fue una elección desafortunada. Lo que lo hace desafortunado es que la distribución de los rendimientos es $$R_{total}=R_G\times{\Pr(G)}+R_M\times{\Pr(M)}+0\times{\Pr(B)}+R_D\times{\Pr(D)}-R_L,$$ donde $G$ denota una empresa en funcionamiento, $M$ indica las fusiones, $B$ denota la quiebra, $D$ denota los dividendos y $L$ denota el rendimiento perdido por los costes de liquidez. La distribución de $R_G$ es $$\left[\frac{\pi}{2}+\tan\left(\frac{\mu}{\sigma}\right)\right]^{-1}\frac{\sigma}{\sigma^2+(R_G-\mu)^2}.$$
Volviendo a White, de antes, su prueba era que la distribución de muestreo del estimador de la pendiente era la distribución de Cauchy. Los modelos como el Black-Scholes se basan en el cálculo de Ito o de Stratonovich. Ambos asumen que todos los parámetros son conocidos. Como tal, es un modelo construido sobre parámetros. Si no los conocieras, no podrías construir modelos sobre ellos. En su lugar, los habrías construido sobre estadísticas suficientes. Como las estadísticas suficientes son independientes del parámetro, no harías referencia al parámetro.
Por lo tanto, modelos como el Black-Scholes son válidos si se conocen los parámetros, pero no son válidos, según White y un artículo posterior de generalización de Sen, si los parámetros son desconocidos. No puede existir una solución frecuencial para modelos como el CAPM o el Black-Scholes, ya que se sabe que es imposible a menos que se utilicen herramientas no basadas en la media y la varianza.
Eso abre la posibilidad de una solución bayesiana, salvo que la solución bayesiana acaba por no tener ni media ni varianza porque los resultados no salen igual. Eso debería servir también como una profunda advertencia.
Todos los estimadores bayesianos son estimadores admisibles. Los estimadores frecuentistas sólo son admisibles en dos casos. El primero es que la solución bayesiana y la frecuentista sean iguales para cada muestra. El segundo es que la solución frecuentista coincida con la solución bayesiana en el límite. Por eso $\bar{x}$ es una solución admisible para estimar $\mu$ para la distribución normal pero $\frac{\sum(\sin(x_i))}{n-33}$ no lo es.
Aunque los estimadores frecuenciales no tienen por qué ser admisibles y a veces no lo son, cuando no lo son, debería haber una investigación. Podría ser que el modelo se haya derivado incorrectamente.
El sesgo en la volatilidad es un artefacto del algoritmo. Considere, en cambio, para los rendimientos en lugar de los precios de las opciones, ya que es más simple de discutir, donde los rendimientos son $R=\frac{FV}{PV}-1,$ un algoritmo como $$\Pr(\sigma|X,\mu)=\int_{-1}^\infty\frac{\prod_{i=1}^I\left[\frac{\pi}{2}+\tan\left(\frac{\mu}{\sigma}\right)\right]^{-1}\frac{\sigma}{\sigma^2+(x_i-\mu)^2}\times{1}}{\int_{-1}^\infty\int_0^\infty\prod_{i=1}^I\left[\frac{\pi}{2}+\tan\left(\frac{\mu}{\sigma}\right)\right]^{-1}\frac{\sigma}{\sigma^2+(x_i-\mu)^2}\times{1}\mathrm{d}\mu\mathrm{d}\sigma}\mathrm{d}\mu,\forall\sigma\in\Re^{++}.$$
Habrá una pequeña cantidad natural de sesgo porque la distribución debería converger a la distribución de la relación de desviación estándar, pero será pequeña. Está relacionado con la distribución F de Snecdor.
Tenga en cuenta que he multiplicado por $1$ y realmente no debería haberlo hecho. Existen buenas priorizaciones para esto, pero no he querido imponer una priorización, ya que deberías usar la tuya propia.
El sesgo de la volatilidad es un artefacto de la herramienta utilizada para medirla y el hecho de que existe un teorema de inexistencia en torno a los modelos Ito.