¿Cuál es la diferencia entre $\hat{e}^2_i$ y $\sigma^2_i$ ?
En la regresión, suponemos que $var(e_i)=E(e_i^2)=var(y_i)=\sigma_i^2$ .
¿Implica esto que $\sigma_i^2$ (la varianza de la muestra) es igual a $\hat{e}_i^2$ ?
Cuando calculamos los FGLS (mínimos cuadrados generalizados factibles), consideramos $\ln(\hat{e}_i^2)=\ln(\sigma_i^2)+v_i$ , donde $v_i$ es sólo el término de error. Parece que distinguimos $\sigma_i^2$ de $\hat{e}_i^2$ .
Pero, cuando calculamos el error estándar robusto, simplemente repalce $\sigma_i^2$ con $\hat{e}_i^2$ . Por lo tanto, estas dos se consideran iguales.
Estoy confundido con estos dos términos. ¿Puede alguien aclararlo?
Gracias de antemano.