Esto es de Introductory Econometrics (Wooldridge) 5ª edición página 420.
Considera: $$y_t =\beta_0 +\beta_1 x_{1t}+\beta_2 x_{2t}+...+\beta_k x_{kt}+u_t$$
donde $Cov(u_t, x_{jt})=0$ para todos $j$ pero quizás $Cov(u_t, x_{jt-1}) \ne 0$ para algunos $j$ . Nos preocupa la autocorrelación, $$u_t =\rho u_{t-1}+v_t$$
Para comprobar la autocorrelación, el método propuesto en el texto es:
(1) Estimar la ecuación de regresión de interés y obtener los residuos, $\hat{u_t}$ .
(2) Realiza la regresión: $$\hat{u_t}=\delta_0 +\delta_1 \hat{u}_{t-1}+\delta_2 x_{1t}+...+\delta_{k+1} x_{kt} +\varepsilon_t$$
(3) Realice una prueba t estándar de significación de $\delta_1$ .
Mi pregunta es, ¿por qué necesitamos incluir las variables x en la regresión del paso 2? Es una propiedad de OLS que los regresores no están correlacionados con los residuos estimados.
El texto dice que la inclusión se debe al posible fracaso de la exogeneidad estricta (es decir, porque $Cov(u_t, x_{jt-1}) \ne 0$ ) y que incluyendo el $x$ es necesario para conseguir una correcta distribución t de nuestra t-stat. Esto se afirma sin justificación ni prueba.
¿Cuál es la matemática subyacente a esta idea?