3 votos

Imparcialidad y regresión OLS

Entiendo que decimos que un estimador es insesgado si su valor esperado es igual al parámetro poblacional al que se dirige (es decir, si $\bar X _N $ es un estimador de la media sobre una muestra de tamaño $N$ entonces $E[\bar X_N ] = \mu$ ).

Sin embargo, recientemente aprendí que, en la regresión OLS bajo el modelo $y_i = b x_i + a + u_i$ decimos que los estimadores $\hat a$ y $\hat b$ son insesgados si $E[\hat a | X] = a$ y $E[\hat b | X] = b$ .

Tengo problemas para conciliar estas dos ideas. ¿Cómo es que la idea del primer párrafo (es decir $E[\hat b] = b$ ) es equivalente a la idea del segundo párrafo (es decir $E[\hat b | X] = b$ )?

4voto

user36287 Puntos 6

La idea es que $E[\hat{b}|X]$ podría ser una función de $X$ . Por ejemplo, podríamos tener un estimador para el que $E[\hat{b}|X] = b +f(X)$ . Esto significaría que nuestro estimador sólo es insesgado para los sorteos de datos, $X$ para lo cual $f(X)=0$ .

Si tenemos eso $E[\hat{b}|X]$ es la misma constante, $b$ para todos $X$ (matemáticamente, si $E[\hat{b}|X]=b$ para todos $X$ ), entonces independientemente del sorteo de los datos, $X$ nuestro estimador es insesgado.

También podemos pensar en esto como una aplicación de la ley de las expectativas iteradas.

$E[\hat{b}]= E[E[\hat{b}|X]] = E[b] = b$

4voto

Bernard Puntos 10700

No son equivalentes. En el modelo de regresión lineal (notación matricial), $$ y = X\beta + u,$$

el estimador OLS para $\beta$ es $$\hat \beta_{OLS} = \beta + (X'X)^{-1}X'u.$$

Entonces $$\mathbb E\left(\hat \beta_{OLS} \mid X\right) = \beta + (X'X)^{-1}X'\mathbb E\left(u \mid X\right).$$

Bajo el supuesto que suele llamarse "independencia media del término de error de los regresores", o "exogeneidad estricta de los regresores", $$E\left(u \mid X\right)=0,$$

obtenemos

$$\mathbb E\left(\hat \beta_{OLS} \mid X\right) = \beta$$

Y como se señala en otra respuesta, entonces también se llega por la ley de las expectativas iteradas,

$$\mathbb E\left(\hat \beta_{OLS} \right)= \mathbb E \Big[\mathbb E\left(\hat \beta_{OLS} \mid X\right)\Big] = \mathbb E(\beta) = \beta.$$

La razón por la que la econometría utiliza argumentos condicionales es que, con datos observacionales, los regresores son estocásticos. Pero el marco original en el que se desarrollaron la regresión lineal y los mínimos cuadrados era el de los experimentos controlados, en los que los regresores eran "deterministas", es decir, sus valores los decidía el investigador (de ahí el nombre de "matriz de diseño" que todavía se utiliza a veces). En este caso, no había necesidad de utilizar argumentos condicionales, porque, al ser deterministas, los regresores no estaban/pueden estar caracterizados por una distribución, tener momentos, etc.

Cuando condicionamos una variable aleatoria, la tratamos "como si" fuera "fija/determinista".

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X