El error medio cuadrático está relacionado con la eficiencia. No se limita a los estimadores insesgados, a menos que se añada esa restricción. Si no lo hicieras, descubrirías que el estimador de máxima verosimilitud o el estimador bayesiano tendrían, en el caso general, una pérdida cuadrática menor.
Por un momento, ignoremos $\sigma$ como medida de la volatilidad y generalizarla a $\theta$ un parámetro de interés. Puede ser un centro de localización, una medida de escala, forma, sesgo, curtosis o cualquier otra cosa, incluyendo un fractil o un cuantil.
Si $\hat{\theta}$ es un estimador, entonces la eficiencia de un estimador es $E[(\hat{\theta}-\theta)^2].$ El RMSE es sólo una transformación.
En el caso de $E[(\hat{\sigma}_t-\sigma_t)^2]$ El $\hat{\sigma_t}$ es la volatilidad realizada, que obviamente es observable. El $\sigma_t$ es la volatilidad verdadera, pero no observable, de ese día. Es un parámetro y no se conoce.
He creado un código en R para generar mil muestras de tamaño diez de la distribución normal estándar para que puedas verlas gráficamente. Me olvidé de establecer la semilla, pero para este gráfico, el MSE para el Estimador de Máxima Verosimilitud (MLE) fue de .19677 mientras que el MSE para el estimador insesgado de Pearson y Neyman (PN) fue de .22797. El estimador insesgado era aproximadamente un 15,8% menos eficiente, pero era intrínsecamente más preciso. El compromiso es entre la precisión y la exactitud.
Gráficamente, la diferencia en los estimadores fue
Obsérvese que el RMSE se estima a veces en economía hallando el RMSE de lo real menos una predicción. Tenga en cuenta que es un estimador sesgado del RMSE de la población.
library(ggplot2)
library(export)
rm(list = ls())
x<-matrix(rnorm(10000),ncol = 1000,nrow = 10)
variance_ML<-function(A){
n<-length(as.vector(A))
x_bar<-sum(A)/n
variance<-sum((A-x_bar)**2)/n
return(variance)
}
variance_PN<-function(A){
n<-length(as.vector(A))
x_bar<-sum(A)/n
variance<-sum((A-x_bar)**2)/(n-1)
return(variance)
}
MLE<-apply(x,2,variance_ML)
PN<-apply(x,2,variance_PN)
MSE_MLE<-sum((MLE-1)**2)/length(MLE)
MSE_PN<-sum((PN-1)**2)/length(PN)
graphical_frame<-data.frame(MLE,PN)
g<-ggplot(data = graphical_frame)+geom_density(aes(x=MLE),kernel="gaussian",color="red",show.legend = TRUE)+geom_density(aes(PN),kernel="gaussian",color="blue",show.legend = TRUE)
h<-g+labs(title = "Density Estimate of MLE(Red) and Pearson-Neyman Unbiased Estimator (Blue)",x="Estimator",y="Density")
graph2png(h,file="TBD")