3 votos

Sesgo de especificación errónea

Estoy pensando en el siguiente problema:

Supongamos que tenemos la ecuación que describe el verdadero parámetro beta para $y^{*}$

$$z=\beta_{0}+\beta_{1}y^{*}+\epsilon$$

Pero en cambio, sólo podemos utilizar $y$ para medir $y^{*}$ como

$y=y^{*}+\gamma$

A continuación, estimamos la siguiente ecuación

$z=\beta_{0}+\beta_{1}y+\mu$

Haciendo algunas suposiciones ( $\beta_{1}>0$ no hay correlación entre $y$ y $\gamma$ entre $y$ y $\epsilon$ o entre $\epsilon$ y $\gamma$ .) Tengo que demostrar que $E(y\mu)<0$ .).

Lo intenté reescribiendo la última ecuación como :

$z=\beta_{0}+\beta_{1}y+\epsilon+\beta_{1}\gamma$

donde

$\mu=\epsilon+\beta_{1}\gamma$

sabiendo que $\hat{\beta}={cov(y,z)}{v(y)}$ Puedo obtener la siguiente expresión $\hat{\beta}=\beta_{1}+{cov(\gamma, z)}{v(y)}$ pero ahora estoy atascado y no se me ocurre como proceder para demostrar que $y$ y $\mu$ están correlacionados negativamente.

¿Alguna pista?

Gracias

1voto

Short Elizabeth Puntos 41

Fíjate que la pregunta, tal y como la has redactado, es una mala forma de hacerte entender el sesgo de atenuación que surge del error de medida clásico en la variable independiente. Pero antes de entrar en el porqué, permíteme que responda primero a tu pregunta tal y como está planteada. En primer lugar, para simplificar la notación, voy a suponer un modelo sin constante donde $\mathbb{E}[y^*_i] = 0$ ; esto es equivalente a su modelo tal y como está planteado. Entonces tenemos

$$ z_i = \beta_1 y^*_i + \epsilon_i \tag{1} $$ y $$ z_i = \delta_1y + \mu. $$

A continuación, podemos calcular lo siguiente $$ \begin{align*} \mathbb{E}[y \mu ] &= \mathbb{E}[y(\beta_1 y^* + \epsilon - \delta_1(y^* + \gamma)] \\ &= \mathbb{E}[(y^* + \gamma)((\beta_1 - \delta_1)y^* - \delta_1 \gamma + \epsilon] \\ &= \mathbb{E}[(y^* + \gamma)((\beta_1 - \delta_1)y^* - \delta_1 \gamma] \\ &= (\beta_1 - \delta_1)\mathbb{V}\text{ar}[y^*] - \delta_1 \mathbb{V}\text{ar}[\gamma]. \end{align*} $$

Nótese que en la tercera y cuarta igualdades, utilizamos nuestros supuestos de ortogonalidad. Ahora, podemos imponer $\delta_1 = \beta_1$ para recuperar la covarianza negativa que necesitabas. Esto es un poco incómodo, ya que no hay una buena a priori razón para imponer esta igualdad. En su lugar, es mejor poner la igualdad anterior a cero (¡ya que eso es lo que haría el estimador real en la muestra!) y recuperar que

$$ \delta_1 = \beta_1 \frac{\mathbb{V}\text{ar}(y^*)}{\mathbb{V}\text{ar}(y^*) + \mathbb{V}\text{ar}(\gamma)} $$

que mejor resalta el aspecto del error de medición que, básicamente, desplaza al señal en $y^*$ con el ruido en $\gamma$ .

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X