2 votos

Interpretación de una regresión diferenciada

Estoy experimentando con algunos datos en R y he descubierto que aunque hay significación estadística entre dos variables, sin embargo sus cambios no son estadísticamente significativos.

Primero realicé una regresión estándar de los ingresos en función del precio, añadiendo un término cuadrático para tener en cuenta los rendimientos decrecientes del aumento del precio. Dándonos la fórmula:

$$y_{Revenue}=\beta_0+\beta_1Price+\beta_2Price^2$$

Los resultados obtenidos son los siguientes:

> summary(lm(Wage~Price+I(Price^2)))

Call:
lm(formula = Wage ~ Price+ I(Price^2))

Residuals:
Min      1Q  Median      3Q     Max 
-131.87  -87.77  -27.60   44.15  244.66 

Coefficients:
           Estimate Std. Error t value Pr(>|t|)    
(Intercept)  -1.650e+03  2.645e+02  -6.238 5.44e-06 ***
Price         3.640e-01  3.640e-02   9.999 5.28e-09 ***
I(Price^2)   -1.026e-05  1.129e-06  -9.086 2.41e-08 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 116.9 on 19 degrees of freedom
  (7 observations deleted due to missingness)
Multiple R-squared:  0.8816,    Adjusted R-squared:  0.8691 
F-statistic: 70.72 on 2 and 19 DF,  p-value: 1.577e-09

La segunda regresión que realicé fue una regresión del cambio en los ingresos sobre el cambio en el precio. Dando la fórmula: $$\Delta y_{Revenue}=\alpha_0+\alpha_1 \Delta Price+\alpha_2 \Delta Price^2$$

Call:
lm(formula = diff(Revenue) ~ diff(Price) + diff(I(Price^2)))

Residuals:
   Min     1Q Median     3Q    Max 
-82.52 -42.55 -11.98  19.20 142.36 

Coefficients:
                     Estimate Std. Error t value Pr(>|t|)   
(Intercept)         5.093e+01  2.649e+01   1.923  0.07046 . 
diff(Price)         1.343e-01  7.165e-02   1.874  0.07727 . 
diff(I(Price^2))   -4.987e-06  1.691e-06  -2.950  0.00857 **
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 62.29 on 18 degrees of freedom
  (7 observations deleted due to missingness)
Multiple R-squared:  0.4521,    Adjusted R-squared:  0.3912 
F-statistic: 7.426 on 2 and 18 DF,  p-value: 0.004449

¿Por qué estas variables pierden su grado de significación estadística mientras que en la regresión regular son significativas al nivel del 1% y cómo interpretar económicamente tales resultados?

0 votos

¿Regresión espuria (relación, correlación)?

0 votos

@RichardHardy Honestamente sólo jugando con los datos. Estoy interesado en saber por qué los cambios en estas variables no son estadísticamente significativos cuando su estado real es significativo en el nivel del 1%.

0 votos

@RichardHardy ¿Entonces crees que no significa nada?

3voto

Bernard Puntos 10700

Si la especificación de niveles se considera aceptable,

$$y_t = \beta_0 + \beta_1 x_t + \beta_2 x_t^2$$

entonces se deduce que la especificación de primera diferencia no debe incluir un término constante para ser metodológicamente coherentes,

$$\Delta y_t = \beta_1\Delta x_t + \beta_2\Delta x_t^2$$

desde $\Delta \beta_0 = \beta_0 -\beta_0 = 0$ .

Le sugiero que ejecute la especificación de primeras diferencias sin intercepción y vea qué ocurre.

Nota: las estimaciones del coeficiente de la pendiente que debe obtener en la especificación de primera diferencia sin intercepto deben estar cerca de las estimaciones correspondientes que obtuvo en la estimación de niveles. De lo contrario, la hipótesis mantenida de coeficientes de pendiente constantes se vuelve cuestionable, o el modelo presenta otros problemas de especificación errónea.

(esto no debe confundirse con el caso en el que realizamos una regresión sin término constante pero con la variable dependiente y los regresores centrados en sus medias muestrales - en este caso obtendríamos exactamente las mismas estimaciones de pendiente con la especificación de niveles que incluye un término constante, por una cuestión de propiedad algebraica de mínimos cuadrados es

0 votos

I

1 votos

@

0 votos

M

2voto

Ben Puntos 129

Veámoslo con un ejemplo sencillo. En la siguiente tabla, las 4 primeras columnas calculan $Y$ de $P$ utilizando el modelo:

$$Y = \beta_0 + \beta_1P$$

con $\beta_0=5$ y $\beta_1=2$ (en aras de la simplicidad no hay $P^2$ término).

enter image description here

Debido a la forma en que el $Y$ -se han calculado los valores, $Y$ y $P$ están perfectamente correlacionados, y una regresión de $Y$ sobre una constante y $P$ estimaciones $\beta_1$ como exactamente 2, con error estándar cero.

Ahora introducimos mayor realismo añadiendo algunas perturbaciones aleatorias. La columna titulada $RND$ contiene números aleatorios dentro del rango $(-10,10)$ y $YRAND = Y + RND$ . Una regresión de $YRAND$ sobre una constante y $P$ estimaciones $\beta_1$ como 1,85 con un error estándar de 0,46 y un valor p de 0,004, es decir, significativamente diferente de cero incluso al nivel del 1%.

Supongamos ahora que nos centramos en los cambios de las variables que aparecen en las 3 últimas columnas de la tabla anterior. Una regresión de $\Delta Y$ en $\Delta P$ con, como explica Alecos Papadopoulos en su respuesta, ningún término constante, estimaciones de nuevo $\beta_1$ como exactamente 2, con error estándar cero.

También lo hará la regresión de $\Delta YRAND$ en $\Delta P$ arrojan los mismos resultados para $\beta_1$ como la de $YRAND$ en $P$ ? No, porque el efecto de las perturbaciones aleatorias en los cambios de $Y$ es mucho mayor, proporcionalmente, que su efecto sobre los valores absolutos de $Y$ . De hecho, esta regresión estima $\beta_1$ como 3,12, con un error estándar de 2,31 y un valor p de 0,21, es decir, no significativamente diferente de cero al nivel de significación del 5%.

Por tanto, una interpretación probable de los resultados es simplemente que se trata de un comportamiento normal cuando existe cierto grado de variación aleatoria en la variable dependiente.

0 votos

Esta explicación es excelente. También me ha gustado mucho cómo has simulado un conjunto de datos. Gracias.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X