12 votos

¿Por qué la volatilidad de los activos es más fácil de estimar que la media de los activos si contiene la media?

Es bien sabido que la varianza de los rendimientos de los activos, $\sigma^2$ (cuya root cuadrada es la volatilidad), es más fácil de estimar que la media del activo $\mu$ (también conocido como rendimiento esperado) porque la media de los rendimientos de los activos es muy difícil de estimar.

¿Por qué es así, dado que el propio estimador muestral de la volatilidad contiene el estimador muestral de la media del activo en su fórmula?

$$\hat{\sigma} = \sqrt{\sum_{i=1}^n \frac{(x_i-\hat{\mu})^2}{n-1}}$$

¿No debería el error de estimación de $\hat{\mu}$ se filtran en el error de estimación de $\hat{\sigma}$ ? Si no es así, ¿por qué no lo hace?

0 votos

Obsérvese que en el caso de los rendimientos normales IID, la media y la varianza de la muestra son independientes, a pesar de que la varianza de la muestra es, en cierto sentido, una función de la media de la muestra.

2voto

Nilo Puntos 6

Estoy leyendo esto dos meses y medio después de que se hiciera la pregunta, pero sigo viendo cierta confusión en las respuestas (o al menos a mí me confunden).

  1. El PO afirma que la varianza de los rendimientos de los activos es más fácil de estimar que la media, pero la afirmación no está formulada matemáticamente. Las respuestas disponibles actualmente tampoco lo formulan matemáticamente. Esto dificulta una discusión rigurosa.
  2. Más concretamente, los conceptos centrales son la media y la varianza de los rendimientos de los activos. La media teórica (expectativa matemática) y la varianza sólo tienen sentido como parámetros de un modelo estadístico/probabilístico del proceso de generación de datos (DGP). El modelo no viene dado por la OP ni por las respuestas actualmente disponibles. Sin una definición rigurosa del estimando, una discusión sobre la facilidad de estimación es problemática.
  3. Además, ni el PO ni las respuestas disponibles actualmente definen matemáticamente la precisión de la estimación ni proporcionan fórmulas de precisión de la estimación para la media y la varianza.
  4. Incluso cuando la media y la varianza teóricas están bien definidas matemáticamente, no se observan. Por lo tanto, la evaluación de la precisión de la estimación no es trivial; no podemos limitarnos a comparar la estimación con el valor real, ya que éste es latente. Al menos algunas respuestas parecen confundir la realización observada del rendimiento de un activo con la media teórica de la distribución subyacente. (Sin embargo, hay puede ser modelos que definen la varianza en términos de datos observados, y entonces la varianza podría ser observada dados los datos relevantes).
  5. Del mismo modo, la estimación de la media no es lo mismo que la predicción puntual. La predicción puntual puede ser difícil si la varianza es grande aunque se conozca la media teórica. Por lo tanto, los errores de predicción grandes implican que la media se ha estimado mal.

Aunque esto no responde directamente a la pregunta de la OP, espero que oriente el debate hacia una respuesta rigurosa.

Actualización: ver una pregunta relacionada aquí .

0 votos

¿"La media y la varianza sólo tienen sentido como parámetros de un modelo estadístico"? Es la primera vez que oigo tal afirmación.

1 votos

@IgorRivin, gracias por tu comentario. He hecho la declaración más rigurosa.

0 votos

Creo que entiendo mejor tu afirmación (pero puede que aún me equivoque): siempre hay una media muestral, pero debido a la heteroscedacidad no está claro qué es lo que estamos estimando.

2voto

rayradjr Puntos 464

Esto se debe en gran medida a que la varianza de los rendimientos de las acciones es elevada en relación con su media.

La idea de que las medias de los rendimientos de las acciones son más difíciles de estimar es antigua y ya se conocía antes de que se utilizaran ampliamente los datos de alta frecuencia, o incluso los modelos GARCH. Esta idea se expone, por ejemplo, en este artículo 85 papel por Jorion que escribe:

Por otro lado, la incertidumbre en las varianzas y covarianzas no es tan crítica porque se estiman con mayor precisión

Sin embargo, creo que la cuestión es aún más antigua.

Permítanme considerar un ejemplo sencillo. Supongamos que los rendimientos de las acciones son i.i.d. y siguen una distribución normal $r \sim N(\mu, \sigma^2)$ donde tanto la media como la varianza son desconocidas. El intervalo de confianza estándar para la media es

$$[\hat{\mu} - t_{n-1,\alpha/2}\frac{s}{\sqrt{n}},\hat{\mu} + t_{n-1,\alpha/2}\frac{s}{\sqrt{n}}],$$

donde $t_{n-1,\alpha/2}$ es el $\alpha/2$ -percentil t-stat con $n-1$ grados de libertad. El intervalo de confianza para la desviación estándar utiliza la distribución chi-cuadrado y viene dado por ( ver aquí )`

$$\left[\sqrt{\frac{(n-1)s^2}{\chi^2_{n-1,\alpha/2}}},\sqrt{\frac{(n-1)s^2}{\chi^2_{n-1,1-\alpha/2}}}\right].$$

Consideremos los rendimientos mensuales del S&P 500 (la media a largo plazo es aproximadamente $0.8\%$ y la desviación estándar $4.5\%$ ). Supongamos que se muestrean 20 años de rendimientos, es decir $n=240$ . Supongamos que sus estimadores aciertan la media y la desviación estándar. Ahora el $95\%$ -el intervalo de confianza para la media se convierte en

$$[0.23,1.37].$$

El intervalo de confianza para la desviación estándar es

$$[4.13,4.94].$$

Puede ver que el intervalo de confianza para la desviación estándar es relativamente más estrecho. Pero este no es el caso para valores arbitrarios de la media y la desviación estándar. Más bien, la media y la desviación estándar de la rentabilidad de las acciones resultan ser tales que el último límite es relativamente más estrecho porque la media es baja en relación con la desviación estándar.

Si se aumenta la media de retorno de las acciones para decir $10\%$ mensualmente manteniendo constante la desviación estándar, el intervalo de confianza para la media se vuelve relativamente más alto que el de la desviación estándar. Si se observa cualquier otra distribución normal, es fácil encontrar que se estima la media con mayor precisión que la desviación estándar. Como sugiere la respuesta de la curtosis, en otros contextos, las medias suelen ser más fáciles de estimar que las varianzas.

0 votos

@RichardHardy Tienes root cuadrada porque es el intervalo de confianza para la desviación estándar. Esto último era sólo una errata. Lo he corregido. Gracias.

0 votos

@RichardHardy Otra errata; corregida. Gracias.

0 votos

¿Qué te parece la respuesta de Dave Harris? También he publicado un pregunta relacionada .

1voto

akalenuk Puntos 1738

Me gustaría plantear una respuesta más directa, es una ilusión matemática.

Aunque esto puede resolverse a través de la teoría formal porque las distribuciones son conocidas, hacerlo crearía un largo post. En su lugar, se puede ilustrar rápidamente mediante una simulación.

Supongamos que los datos se distribuyen normalmente. Los resultados dependen de ello. Si se extraen de una distribución diferente, el factor de corrección de la desviación estándar cambiará. La suposición que estoy utilizando es que las observaciones son independientes porque su fórmula lo implica. Esta corrección no funcionaría para datos autocorrelacionados. No obstante, la ilustración resultaría igual al final, y la independencia significa menos trabajo para mí.

La estimación insesgada de la media es $$\bar{x}=\frac{\sum_1^Nx_i}{N}.$$

La estimación insesgada de la varianza es $$s^2=\frac{\sum_1^N(x_i-\bar{x})^2}{N-1}$$

La estimación insesgada de la desviación estándar es $$s=\frac{\sqrt{ \frac{\sum_1^N(x_i-\bar{x})^2}{N-1}}}{\sqrt{\frac{2}{N-1}}\frac{\Gamma(\frac{N}{2})}{\Gamma(\frac{N-1}{2})}}$$

El factor de corrección es necesario porque la distribución muestral de la estimación insesgada de la varianza es la distribución F de Snedecor. En cambio, la distribución de muestreo de la estimación insesgada de la desviación estándar es la distribución Chi. root cuadrada del estimador insesgado de la varianza muestral es un estimador sesgado de la desviación típica.

Lo que hice fue crear 100.000 muestras, cada una con 1.000 observaciones, a partir de una distribución normal estándar. El código está en la parte inferior de la respuesta.

A continuación, calculé las estimaciones insesgadas de la media, la varianza y la desviación estándar. La distribución de cada una es la distribución muestral de la media, la varianza y la desviación estándar. Así que ahora hay una muestra de cada uno con 100.000 estimaciones de parámetros observados para cada categoría.

Supongamos que se observa gráficamente la distribución muestral de la media y la varianza. En ese caso, verá que la distribución del estimador de la media de la población es más densa que la de la varianza de la población. Por supuesto, podrías ser más preciso creando estadísticas descriptivas para cada estimador.

mean and variance sampling

La distribución muestral de la media es la distribución de Student, pero la muestra es tan grande que habrá convergido a la normal para cualquier propósito práctico. La distribución muestral de la varianza es la distribución F de Snedecor, así que aunque se parecen bastante, en realidad son cosas diferentes.

No obstante, parece que el estimador de la media es más preciso que el de la varianza. Esto no debería sorprender porque el estimador de la media está enterrado dentro del estimador de la varianza. Hay dos fuentes de error.

En este ejemplo, el error cuadrático observado de la media es de aproximadamente 100 unidades y de la varianza de 200 unidades. Entonces, ¿qué ocurre cuando comparamos el error cuadrático de la varianza y la desviación típica? El error cuadrático de la desviación típica es de aproximadamente 50. Visualmente, puedes verlo en el siguiente gráfico.

var vs sd

Sin embargo, se trata de una ilusión, y lo que debería hacerte sospechar es la falta de cambio de unidades intrínseca a esta forma de ver el problema. Se podrían hacer todo tipo de transformaciones con los datos o las estadísticas, aparte de root cuadrada dividida por un factor de corrección. Cada una de ellas ampliaría o reduciría la estimación en relación con la varianza o la media. No implicaría que mejoraran la precisión de la estimación.

Nótese que lo anterior no implica que no exista una transformación o una función diferente que mejore la precisión o haga que un estimador se comporte mejor en algunas circunstancias. Sin embargo, en este caso se trata de una ilusión.

EDITAR En respuesta a un comentario, pensé en señalar por qué esta pregunta es problemática. Consideremos un vector $$\theta=\begin{bmatrix}a \\ b\\ c\end{bmatrix}$$ y un segundo vector $$\theta'=\begin{bmatrix}d\\ e\\ f\end{bmatrix}$$ que pueden ser estimadores de algún parámetro verdadero $\Theta$ .

Supongamos también que $\theta\succ\theta'$ bajo algún estándar de optimalidad. En este caso, esa norma es que minimiza la varianza de la estimación y es insesgada. No es ni mucho menos la única norma que podría utilizarse.

No tiene sentido hablar de la precisión de la estimación de $a$ frente a $b$ en el vector $\theta$ aunque una sea una transformación de la otra según el algoritmo. Me gustaría señalar que $s^2$ es una transformación de $\bar{x}$ . Cada uno se estima de la mejor manera posible según los criterios.

Puede ser significativo discutir las diferencias de precisión y exactitud entre $a$ y $d$ pero no entre $a$ y $b$ .

La única excepción a este caso es si se elige una función objetivo diferente. Por poner un ejemplo, si se utilizara una función de pérdida de todo o nada en lugar de la pérdida cuadrática, el estimador tanto de la varianza como de la desviación estándar mejoraría en precisión, aunque con una pérdida de exactitud.

Si se utilizara la pérdida media en lugar de minimizar el riesgo máximo, que es como se eligen la mayoría de los estimadores frecuentistas, se obtendrían también resultados posiblemente muy diferentes. De hecho, no podrían ser dominados estocásticamente de primer orden por los estimadores frecuentistas, aunque podrían empatar.

Si encuentra uno más fácil que otro, hay alguna suposición que se está violando fuertemente en alguna parte. Está ocurriendo algo más que se está pasando por alto y podría ser muy importante.

Yo, por supuesto, tengo fuertes opiniones sobre lo que es, pero esa no es la cuestión presentada.

rm(list = ls())
library(ggplot2)

set.seed(500)

observations<-1000
experiments<-100000

x<-matrix(rnorm(observations*experiments),nrow = observations)

sample_mean<-apply(x,2,mean)
sample_variance<-apply(x,2,var)

correction_factor<-exp(log(sqrt(2/(observations-1)))+lgamma(observations/2)- lgamma((observations-1)/2))

sample_standard_deviation<-sqrt(sample_variance)/correction_factor

Frequentist_estimators<-data.frame(sample_mean=sample_mean,sample_variance=sample_variance, 
 sample_standard_deviation=sample_standard_deviation)
rm(sample_mean)
rm(sample_variance)
rm(sample_standard_deviation)

Frequentist_errors<-data.frame(mean_error=(Frequentist_estimators$sample_mean)**2,variance_error=(Frequentist_estimators$sample_variance-1)**2,sd_error=(Frequentist_estimators$sample_standard_deviation-1)**2)

a<-ggplot(Frequentist_estimators)+theme_bw()
b<-a+geom_density(aes(sample_mean,colour="Sample Mean"))+geom_density(aes(sample_variance,colour="Sample Variance"))

print(b)

a<-ggplot(Frequentist_estimators)+theme_bw()
b<-a+geom_density(aes(sample_variance,colour="Sample Variance"))+geom_density(aes(sample_standard_deviation,colour="Sample Standard Deviation"))

print(b)

print(paste0("Observed Squared Error of the Mean is ",sum(Frequentist_errors$mean_error)))

print(paste0("Observed Squared Errors of the Variance is ",sum(Frequentist_errors$variance_error)))

print(paste0("Observed Squared Error of the Standard Deviation is ",sum(Frequentist_errors$sd_error)))

0 votos

La respuesta de fesman muestra que la desviación estándar se estima con mayor precisión que la media para la distribución normal con los valores de los parámetros que son relevantes en los modelos de rendimientos financieros. Usted muestra que para una distribución particular con valores de parámetros particulares, la media se estima con más precisión que la varianza. ¿Cómo conciliamos las dos respuestas? Y con respecto a su respuesta, ¿cómo se generaliza exactamente a una distribución arbitraria con valores de parámetros arbitrarios?

0 votos

@RichardHardy Voy a proporcionar una edición.

0 votos

@RichardHardy lo que no abordé en su post fue el tema del intervalo de confianza. Hay un número infinito de posibles intervalos de confianza. Los de los libros de texto suelen cumplir alguna norma preferida por el autor, pero no son únicos y sólo son óptimos bajo ciertas condiciones. Abordar los intervalos de confianza requeriría un artículo completo.

1voto

Berkay Puntos 293

Similar a lo que dijo eSurfsnake: En realidad, es porque se puede estimar la varianza exactamente si se aumenta la frecuencia de muestreo lo suficiente (dado que se utilizan datos de series temporales). Esta es la idea que subyace al uso de datos intradía para estimar las varianzas realizadas, por ejemplo.

Pero la estimación media no puede mejorarse simplemente aumentando la frecuencia de muestreo. A medida que se aumenta la frecuencia del año, al mes, al día, a la hora, los errores estándar aumentan en proporción. Así que no se gana nada. En este caso, su única alternativa es obtener una muestra más larga.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X