2 votos

Sobre la interpretación de los coeficientes en un modelo logarítmico como una media

En el modelo de regresión lineal $E(y|X)=x'\beta$ y así somos capaces de interpretar un $\beta_i$ como $\Delta E(y|\text{all fixed except } x_i)=\beta_i \Delta x_i$ . Estoy pensando en cambios discretos. Por lo tanto, podemos interpretar el estimador de $\beta_i$ como una estimación de lo que ocurre en promedio.

Me preguntaba si esta interpretación de los estimadores de los coeficientes también se conserva cuando tenemos un modelo log-log... $ E(\%\Delta y|\text{all fixed except } x_i)\approx \beta_i \%\Delta x_i$

Se agradecería cualquier ayuda.

0 votos

Para mí, sin ninguna $\Delta$ , un modelo log-log podría considerarse ya como la versión de interpretación de la variación continua que das, que, dicho sea de paso, es una especie de derivada parcial. ¿Te refieres precisamente a $\Delta\ln(.)$ ?

0 votos

@Kanak No estoy seguro de entenderte... Sí, podemos tener $\Delta \log(.)$ pero entonces no tendríamos la interpretación del coeficiente como una media segura. Me preguntaba si podríamos decir "en promedio" al interpretar el coeficiente de un modelo log-log.

1voto

user10775 Puntos 121

La respuesta corta es no, esto no es así cuando la variable dependiente está en log, a menos que definir el $\%\Delta$ como (100 veces) la diferencia logarítmica. La razón es que $E(\log y) \ne \log E(y)$ .

No necesitamos un modelo de regresión múltiple para demostrarlo, así que consideremos $\log(y)=\beta_0 + \beta_1 x + u$ . Es el variable dependiente en log que importa, así que no llevemos el tronco a $x$ por razones de brevedad.

Es cierto que $\%\Delta y \approx 100 \beta_1 \Delta x$ si $\Delta u = 0$ ( ceteris paribus ) cuando $\beta_1 \Delta x \approx 0$ . Pero no podemos interpretarlo en términos de $E(y|x)$ . La razón es la siguiente.

Como puede ver, tenemos $y = \exp(\beta_0 + \beta_1 x + u)$ . Cuando $x$ aumenta de $x_1$ a $x_1+\Delta x$ , $y$ aumenta de $y_1 = \exp(\beta_0 + \beta_1 x_1 + u_1)$ a $y_2 = \exp \{ \beta_0 + \beta_1 (x_1+\Delta x)+u_2 \}$ . Es importante, $u$ también puede cambiar porque $u$ no se mantiene fija, por lo que escribí $u_1$ y $u_2$ .

Ahora, ¿cuál es la tasa de cambio de $y$ ? Tenemos $$ \frac{y_2}{y_1} -1 = \exp(\beta \Delta x) \exp(\Delta u) -1 \approx (1+\beta \Delta x) \cdot \exp(\Delta u) -1, $$ donde $\Delta u = u_2-u_1$ . Aquí, el lado izquierdo es la tasa de cambio de $y$ . Se puede verificar que la tasa de cambio de $y$ es aproximadamente $\beta \Delta x$ si $u_1 = u_2$ es decir, si $u$ se mantiene fija para que $\exp(\Delta u) = 1$ . Pero el problema es que $u$ es no se mantiene fijo así que $\exp(\Delta u)$ puede ser muy diferente de 1 . Cuando $x$ y $u$ son independientes, la tasa media de crecimiento es $\exp(\beta \Delta x) \cdot E(e^{\Delta u}) -1$ .

¿Qué diferencia habría entre esto y $\beta \Delta x$ ? Si $u\sim N(0,\sigma^2)$ y $u_1$ y $u_2$ son mutuamente independientes, entonces $u_2-u_1 \sim N(0,2 \sigma^2)$ y por lo tanto $E(e^{u_2-u_1}) = \exp(\sigma^2)$ . Por ejemplo, si $\beta_1 \Delta x_1 = 0.01$ y $u\sim N(0,1)$ entonces la tasa media de crecimiento de $y$ es $\exp(0.01) \times e - 1 \approx 1.75$ Es decir, aproximadamente el 175%, lo que difiere enormemente del 1%. Interesante, ¿no?

Simulaciones: Utiliza R para hacer la siguiente simulación.

set.seed(1)
n <- 1e6
x1 <- rnorm(n)
x2 <- x1+1
y1 <- exp(1+0.01*x1 + rnorm(n))
y2 <- exp(1+0.01*x2 + rnorm(n))
100*mean(y2/y1-1)
# 175.2406
mean(log(y2)-log(y1))
# 0.01004419

Cuando $\beta_1 \Delta x = 0.01 \times 1 = 0.01$ La tasa media de crecimiento no es del 1%, sino del 175%. Pero $\Delta E(\log y)$ es aproximadamente 0,01.

Nota 1: La discusión anterior es para el modelo de nivel de registro. Poco cambia para el modelo log-log.

Nota 2: Si se define la tasa de crecimiento como la log-diferencia, la tasa de crecimiento esperada es igual a la log-diferencia esperada = $\beta \Delta x$ .

0 votos

Chan, gracias por tu respuesta. Sin embargo, no estoy seguro de estar de acuerdo contigo sobre si debemos incluir los términos de error en los cálculos, ya que $E(\log(y)|X)=\beta_1+\beta_2 x$ .

0 votos

Tu ecuación es cierta, y ese es el caso de la nota 2 en mi respuesta. Con la definición habitual de % de cambio, tienes $E(y_2/y_1-1)$ para el % de cambio esperado (dividido por 100), lo que inevitablemente implica la distribución de errores, tal y como he derivado. Por favor, vea la parte de la simulación que es más reveladora.

0 votos

Chan, he visto tu simulación. Si hago lo mismo, pero sin incluir los términos de error, entonces ambas medias están bastante cerca....

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X