Considere el modelo tradicional de AKM donde $$ Y_{it}=X_{it}\beta+\psi_{j(i,t)}+\epsilon_{it} $$ para $i=1,...,N$ (índice individual), $t=1,...,T$ (índice de tiempo), $j=1,...,J$ (índice de la empresa), y $j(i,t)$ es la empresa que emplea a un trabajador $i$ en el momento $t$ . Para simplificar, he ignorado los efectos fijos de los trabajadores. $\psi_{j(i,t)}$ se llama firme $j(i,t)$ El efecto fijo de la empresa es el mismo que el de la empresa.
Apilando las observaciones en el tiempo, la ecuación anterior puede reescribirse como $$ \underbrace{Y_i}_{T\times 1}=\underbrace{X_i}_{T\times K} \underbrace{\beta}_{K\times 1}+\underbrace{F_i}_{T\times J} \underbrace{\psi}_{J\times 1}+\underbrace{\epsilon_i}_{T\times 1} $$ donde el $F(t,j)$ es $1$ si el trabajador $i$ estaba empleado en la empresa $j$ en el período $t$ .
Supongamos que:
[A1] Tenemos una muestra de observaciones $\{Y_i, X_i, F_i\}_{i=1}^N$ i.i.d., para $N$ grande y $T$ pequeño.
[A2] $E(\epsilon_i| X_i, F_i)=0$ para cada $i=1,...,N$ .
Me gustaría mostrar cómo $\beta$ y $\psi$ están identificados. No he podido encontrar ninguna prueba de identificación "comprensible y orgánica". ¿Podría sugerirme alguna? Informo aquí de lo que he entendido al leer/combinar diferentes fuentes.
Mi intento de identificación (incompleto)
Paso 1: Por [A2] tenemos que
$$ \begin{pmatrix} E(X_i' Y_i)\\ E(F_i' Y_i)\\ \end{pmatrix}=\begin{pmatrix} E(X_i' X_i) & E(X_i' F_i)\\ E(F_i' X_i) & E(F_i' F_i)\\ \end{pmatrix} \begin{pmatrix} \beta\\ \psi \end{pmatrix} $$
Paso 2: Por [A1] las matrices $\begin{pmatrix} E(X_i' Y_i)\\ E(F_i' Y_i)\\ \end{pmatrix}$ y $\begin{pmatrix} E(X_i' X_i) & E(X_i' F_i)\\ E(F_i' X_i) & E(F_i' F_i)\\ \end{pmatrix} $ son estimables de forma consistente a partir de los análogos de la muestra. Por lo tanto, pueden ser tratados como conocidos en el ejercicio de identificación.
Paso 3: Combinando los pasos 2-3, se deduce que si $A_{pop}\equiv \begin{pmatrix} E(X_i' X_i) & E(X_i' F_i)\\ E(F_i' X_i) & E(F_i' F_i)\\ \end{pmatrix} $ es invertible, entonces $\beta$ y $\psi$ se identifican.
Paso 4: ¿En qué condiciones es $A_{pop}$ ¿Invertible?
Entiendo que, en lugar de responder a esta pregunta, Abowd, Kramarz y Margolis proporcionan condiciones necesarias y suficientes bajo el cual la muestra análoga de la ecuación del paso 1 tiene una solución única con respecto a $(\beta,\psi)$ . Es decir, proporcionan las condiciones en las que $$ \begin{pmatrix} X'Y\\ F' Y\\ \end{pmatrix}=\begin{pmatrix} X'X & X'F\\ F' X & F'F\\ \end{pmatrix}\begin{pmatrix} \beta\\ \psi \end{pmatrix} $$ tiene una solución única con respecto a $(\beta,\psi)$ donde $Y$ , $X$ y $F$ pila $Y_i$ , $X_i$ y $F_i$ sobre los individuos. Supongo que, por la ley de los grandes números, si el análogo de la muestra tiene una solución única, entonces también la ecuación de la población tendrá una solución única.
Paso 5: Considere la posibilidad de separar la muestra en $G$ grupos que satisfacen el requisito de conectividad que se discute aquí .
Supongamos, para simplificar, que $J=5$ , $T=2$ , $N=5$ . Supongamos también que el trabajador 1 está empleado en la empresa 1 en el período 1 y en la empresa 2 en el período 2; el trabajador 2 está siempre empleado en la empresa 1; el trabajador 3 está empleado en la empresa 3 en el período 1 y en la empresa 2 en el período 2; el trabajador 4 está siempre empleado en la empresa 3; el trabajador 5 está empleado en la empresa 5 en el período 1 y en la empresa 4 en el período 2. Por lo tanto, $G=2$ . En el grupo 1, están las empresas 1,2,3. En el grupo 2, están las empresas 4,5. Este es el ejemplo de la figura 1 aquí .
A su vez, la muestra análoga de la ecuación del paso 1 cuando se reordena como se discute en la p.5 de aquí es $$ \text{[Equation $ (*) $]} \hspace{1cm}\begin{pmatrix} X'Y\\ F_1' Y\\ F_2' Y \end{pmatrix}=\underbrace{\begin{pmatrix} X'X & X'F_1 & X' F_2\\ F_1' X & F_1'F_1 & 0_{3\times 2}\\ F_2' X & 0_{2\times 3} & F_2' F_2 \end{pmatrix}}_{A_{sample}}\begin{pmatrix} \beta\\ \psi\\ \end{pmatrix} $$ donde $$ F_1'F_1\equiv \begin{pmatrix} 3&0 & 0\\ 0 & 2 & 0\\ 0 & 0 & 3 \end{pmatrix}, F_2' F_2\equiv \begin{pmatrix} 1 & 0\\ 0 & 1 \end{pmatrix}$$
A partir de este punto estoy perdido. En particular,
(1) Los autores nos dicen que la ecuación $(*)$ tiene una solución única con respecto a $(\beta,\psi)$ si y sólo si uno entre $\{\psi_1,\psi_2,\psi_3\}$ y uno entre $\{\psi_4,\psi_5\}$ se ajustan a un valor conocido (por ejemplo, $\psi_3=0$ y $\psi_4=0$ ). ¿Podría ayudarme a formalmente ¿demuestra esta afirmación? En particular, quiero demostrar tanto la necesidad y suficiencia.
Si me fijo en el ejemplo anterior, no veo por qué necesitamos esa normalización.
Entiendo que no puede haber un término de intercepción en $X$ con el fin de identificar $\psi$ . Para simplificar, supongamos que no hay $X$ en absoluto.
Entonces, la ecuación $(*)$ se reduce al sistema $$ \begin{cases} Y_{11}+Y_{21}+Y_{22}=3\psi_1\\ Y_{12}+Y_{32}=2\psi_2\\ Y_{31}+Y_{41}+Y_{42}=3\psi_3\\ Y_{51}=\psi_4\\ Y_{52}=\psi_5\\ \end{cases} $$ que tiene una solución única con respecto a $\psi$ sin necesidad de normalizar más.
(2) ¿Por qué, en la página 10 de aquí los autores vuelven a los "valores esperados" en lugar de trabajar con "medias muestrales", dado que nos preocupa la unicidad de la solución de la ecuación $(*)$ ?