Como señalaba el comentario anterior, siempre es bueno dar definiciones exactas cuando se plantea una pregunta matemática.
Pero como tu notación (o la notación del libro/apuntes de clase que estás leyendo) es bastante estándar, completaré la definición a partir de mi interpretación y luego daré una respuesta.
En una regresión multivariante genérica $y = X \beta + e$ utilizamos $P_X$ para denotar la matriz de proyección $P_X := X (X'X) ^{-1} X'$ y utilizar $M_X := I - P_X$ para denotar la matriz aniquiladora.
Si dividimos el gran $X$ en dos partes como en $X = (X_1, X_2)$ y dividir el gran $\beta$ vector en $\beta = (\beta_1', \beta_2')'$ de forma compatible, entonces podemos escribir $y = X_1 \beta_1 + X_2 \beta_2 + e$ .
Teorema. El resultado que queremos demostrar es que la matriz de proyección sobre $X$ puede dividirse en dos partes (ortogonales): la matriz de proyección sobre $X_1$ y la matriz de proyección sobre $\tilde{X_2}$ donde $\tilde{X_2} := M_{X_1} X_2 = (I - P_{X_1}) X_2$ es el residuo de la proyección de ${X_2}$ en ${X_1}$ .
Algebraicamente, lo que queremos mostrar es $P_X = P_{X_1} + P_{\tilde{X_2}}$ .
Antes de demostrarlo, observamos que este resultado es un tipo del llamado Teorema de Frisch-Waugh-Lovell en econometría ( https://en.wikipedia.org/wiki/Frisch%E2%80%93Waugh%E2%80%93Lovell_theorem ).
Prueba. Utilizando $X = (X_1, X_2)$ ampliamos $$ P_X = X (X'X) ^{-1} X' = (X_1, X_2) \left[\begin{pmatrix} X_1' \\ X_2' \end{pmatrix} (X_1, X_2)\right]^{-1} \begin{pmatrix} X_1' \\ X_2' \end{pmatrix} = (X_1, X_2) \begin{pmatrix} X_1'X_1 & X_1'X_2 \\ X_2'X_1 & X_2'X_2 \end{pmatrix}^{-1} \begin{pmatrix} X_1' \\ X_2' \end{pmatrix}. $$
Utilizamos la notación simplificada $$ A := \begin{pmatrix} A_{11} & A_{12} \\ A_{21} & A_{22} \end{pmatrix} := \begin{pmatrix} X_1'X_1 & X_1'X_2 \\ X_2'X_1 & X_2'X_2 \end{pmatrix} $$ y también utilizar $$ A^{-1} := \begin{pmatrix} A^{11} & A^{12} \\ A^{21} & A^{22} \end{pmatrix} $$ para denotar la inversa de $A$ .
Ahora, utilizando la fórmula inversa de la matriz de Bock ( https://en.wikipedia.org/wiki/Block_matrix ), podemos deducir $$ \begin{align} A^{22} & = A_{22.1}^{-1} := (A_{22} - A_{21} A_{11}^{-1} A_{12})^{-1} \\ & =(X_2'X_2 - X_2'X_1 (X_1'X_1)^{-1} X_1'X_2)^{-1} \\ & =(X_2' M_{X_1} X_2)^{-1} \\ & =(\tilde{X_2}' \tilde{X_2})^{-1},\\ & \\ A^{21} & = - A^{22} A_{21} A_{11}^{-1} \\ & = - (\tilde{X_2}' \tilde{X_2})^{-1} X_2'X_1 (X_1'X_1)^{-1},\\ & \\ A^{12} & = A^{21\prime}, \\ & \\ A^{11} & = A_{11}^{-1} + A_{11}^{-1} A_{12} A^{22} A_{21} A_{11}^{-1} \\ & = (X_1'X_1)^{-1} + (X_1'X_1)^{-1} X_1'X_2 (\tilde{X_2}' \tilde{X_2})^{-1} X_2'X_1 (X_1'X_1)^{-1}. \end{align} $$
Con estas fórmulas, volvemos a $P_X$ para obtener $$ \begin{align} P_X & = (X_1, X_2) \begin{pmatrix} X_1'X_1 & X_1'X_2 \\ X_2'X_1 & X_2'X_2 \end{pmatrix}^{-1} \begin{pmatrix} X_1' \\ X_2' \end{pmatrix} \\ & = (X_1, X_2) A^{-1} \begin{pmatrix} X_1' \\ X_2' \end{pmatrix} \\ & = (X_1, X_2) \begin{pmatrix} A^{11} & A^{12} \\ A^{21} & A^{22} \end{pmatrix} \begin{pmatrix} X_1' \\ X_2' \end{pmatrix} \\ & = X_1 A^{11} X_1' + X_1 A^{12} X_2' + X_2 A^{21} X_1' + X_2 A^{22} X_2' \\ & = X_1 (X_1'X_1)^{-1} X_1' + X_1 (X_1'X_1)^{-1} X_1'X_2 (\tilde{X_2}' \tilde{X_2})^{-1} X_2'X_1 (X_1'X_1)^{-1} X_1' \\ & - X_1 (X_1'X_1)^{-1} X_1'X_2 (\tilde{X_2}' \tilde{X_2})^{-1} X_2' \\ & - X_2 (\tilde{X_2}' \tilde{X_2})^{-1} X_2'X_1 (X_1'X_1)^{-1} X_1' \\ & + X_2 (\tilde{X_2}' \tilde{X_2})^{-1} X_2' \\ & = P_{X_1} + P_{X_1} X_2 (\tilde{X_2}' \tilde{X_2})^{-1} X_2' P_{X_1} \\ & - P_{X_1} X_2 (\tilde{X_2}' \tilde{X_2})^{-1} X_2' - X_2 (\tilde{X_2}' \tilde{X_2})^{-1} X_2' P_{X_1} + X_2 (\tilde{X_2}' \tilde{X_2})^{-1} X_2' \\ & = P_{X_1} + (X_2 - P_{X_1} X_2) (\tilde{X_2}' \tilde{X_2})^{-1} (X_2' - X_2' P_{X_1}) \\ & = P_{X_1} + \tilde{X_2} (\tilde{X_2}' \tilde{X_2})^{-1} \tilde{X_2}' \\ & = P_{X_1} + P_{\tilde{X_2}}. \\ \end{align} $$ Q.E.D.
P.D. Avísame si hay alguna errata. Esto es mucho teclear. :)