2 votos

¿Por qué tenemos que añadir variables independientes relacionadas con la empresa y el año en el modelo de efectos fijos de dos vías?

Por lo que sé, estos términos son muy básicos en econometría, pero todavía no lo he entendido del todo. Para mí, el efecto fijo del año es para controlar las variables omitidas en el tiempo y el efecto fijo de la empresa es para controlar las variables omitidas en el tiempo.

Y cuando los efectos fijos de dos vías controlan las variables temporales e invariantes, ¿por qué los investigadores incluyen también algunas variables independientes? En resumen, ¿es redundante añadir las otras variables de control cuando las variables variables temporales e invariantes han sido controladas por los efectos fijos de tiempo y año?

Aparte de eso, puedo pedir algunos ejemplos para aclarar estos contextos que puedo entender " efecto fijo de la empresa " y " efecto fijo del año ¿"Mejor"?

4voto

tdm Puntos 146

Considere la siguiente especificación de regresión donde, $t$ es el tiempo, $c$ es la empresa, $y$ es un resultado y $x$ es una variable de interés. $$ y_{c,t} = \alpha + \beta x_{c,t} + \varepsilon_{c,t} $$

Existen tres tipos de variables omitidas:

  1. Variables que varían con el tiempo pero que son iguales en todas las empresas. Los ejemplos pueden ser condiciones meteorológicas , tasa de inflación , tipos de interés , salarios , choques de demanda (si las empresas operan en el mismo mercado) Llamémoslas $\gamma_t$ con sólo un subíndice $t$ para indicar que sólo varían con el tiempo.
  2. Variables que varían según las empresas pero que son constantes en el tiempo. Los ejemplos pueden ser ubicación de la empresa o imagen de marca , productividad (si se mantiene constante en el tiempo), etc. Llamemos a estos $\delta_c$
  3. Variables que varían tanto en las empresas como en el tiempo. Los ejemplos pueden ser producción de la empresa o beneficios . Llamemos a estos $\chi_{c,t}$ .

Como todas estas variables se omiten, entran en el término de error $\varepsilon_{c,t}$ Así que..: $$ \varepsilon_{c,t} = \delta_c + \gamma_t + \chi_{c,t} $$ Esta descomposición se puede hacer siempre fijando $\delta_c$ para ser la expectativa de $\varepsilon_{c,t}$ con la condición de $c$ y $\gamma_t$ para ser la expectativa de $\varepsilon_{c,t}$ con la condición de $t$ . En particular, dejar que $\varepsilon_{.t}$ sea la media condicional de $\varepsilon$ en $t$ y $\varepsilon_{c.}$ la media condicional condicionada a $c$ . Tenemos:

$$ \varepsilon_{c,t} = \underset{\delta_c}{\underbrace{\varepsilon_{c.}}} + \underset{\gamma_t}{\underbrace{\varepsilon_{.t}}} + \underset{\chi_{c,t}}{\underbrace{(\varepsilon_{c,t} - \varepsilon_{c.} - \varepsilon_{.t})}}. $$

Para poder obtener una buena estimación de $\beta$ en la regresión original hay que suponer que $\varepsilon$ y $x$ son ortogonales: $$ \mathbb{E}(\varepsilon x) = 0. $$ Usando la descomposición anterior, esto da el requisito de que: $$ \mathbb{E}(\delta x) + \mathbb{E}(\gamma x) + \mathbb{E}(\chi x) = 0 $$

Ahora bien, puede que te preocupe que esto no se sostenga.

Los efectos fijos proporcionan una manera de resolver esto siempre que la condición de ortogonalidad se mantenga para el tercer tipo de variables omitidas, es decir, siempre que: $$ \mathbb{E}(\chi x) = 0 $$ De hecho, escribiendo el término de error $\varepsilon_{c,t}$ en la regresión obtenemos:

$$ y_{c,t} = \alpha + \delta_c + \gamma_t + \beta x_{c,t} + \chi_{c,t}. $$ El $\delta_c$ y $\gamma_t$ son capturados por las dummies de efectos fijos de la empresa y del tiempo, por lo que podemos identificar siempre que $x$ es ortogonal a $\chi$ .

Otra forma de ver eso $\beta$ se identifica es tomar primero la media de la regresión sobre todas las empresas, períodos de tiempo y tiempo y empresas. Esto da: $$ \begin{align*} &y_{.t} = \alpha + \gamma_t + \beta x_{.,t},\\ &y_{c.} = \alpha + \delta_c + \beta x_{c.},\\ &y_{..} = \alpha + \beta x_{..} \end{align*} $$ (Obsérvese que $\chi_{c.} = \chi_{.t} = \chi_{..} = \delta_. = \gamma_. = 0$ como, $\chi_{c,t} = \varepsilon_{c,t} - \varepsilon_{.t} - \varepsilon_{c.}$ )

Sumando la última y restando las dos primeras de la regresión original se obtiene: $$ (y_{c,t} + y_{..} - y_{c.}- y_{.t}) = \beta(x_{c,t} + x_{..} - x_{c.} - x_{.t}) + \chi_{c,t} $$ Así que $\beta$ se identifica mediante la regresión de $y_{c,t} + y_{..} - y_{c,.} - y_{.t}$ en $x_{c,t} + x_{..} - x_{c.} - x_{.t}$ .

Y cuando los efectos fijos de dos vías controlan las variables temporales e invariantes, ¿por qué los investigadores incluyen también algunas variables independientes? En resumen, ¿es redundante añadir las otras variables de control cuando las variables variables temporales e invariantes han sido controladas por los efectos fijos de tiempo y año?

Ahora es importante añadir a la regresión todas las demás variables independientes que encajen en la tercera categoría anterior, especialmente si cree que no satisfacen la condición de ortogonalidad. Por ejemplo, si cree que $y$ está directamente influenciada por, por ejemplo, los beneficios de la empresa (que varían en el tiempo y en la empresa, por lo que son capturados por $\chi$ ) y que $x$ también está correlacionada con los beneficios de la empresa, no podrá identificar $\beta$ si no se observan y controlan los beneficios de la empresa.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X