Si $Y_t=\sum_{i=0}^qa_iX_{t-i}$ donde $X_{t-i}$ es gaussiano con media $\mu$ y la varianza $\sigma^2$ ¿Cómo puedo demostrar que $Y_t$ y $Y_{t+h}$ son independientes (para $|h|>q$ ) utilizando el pdf conjunto. Sé que esta pregunta se ha hecho antes ( aquí ) pero la respuesta no es la que busco ya que no se muestra la independencia, sino sólo que $Y_t$ es gaussiano. Quiero mostrar la independencia entre $Y_t$ y $Y_{t+h}$ escribiendo su pdf conjunto como el producto de sus pdf marginales.
Respuestas
¿Demasiados anuncios?Hola Parseval: Voy a poner una respuesta aquí y espero que quede claro. Lo he arreglado para que $\mu = 0 $ no es necesario, pero, por supuesto, la hipótesis de la gaussiana independiente sigue siendo necesaria.
(1) $Y_t = \sum_{i=0}^{q} a_{i} X_{t-i}$
(2) $Y_{t+h} = \sum_{j=0}^{q} a_j X_{t+h-j}$
$ h > q$ .
Obsérvese que el último término (el más antiguo) de (2) es $a_{q} X_{t+h-q}$ y el primer (último) término de (1) es $a_{0} X_{t}$ . Por lo tanto, ya que $h > q$ ninguno de los términos de ruido en $Y_t$ se superponen con cualquiera de los términos de ruido en $Y_{t+h}$ .
Ahora, la definición habitual de covarianza, da:
$Cov(Y_{t}, Y_{t+h}) = E(\sum_{i=0}^{q} a_{i} X_{t-i} \sum_{j=0}^{q} a_{j} X_{t+h-j}) - E(\sum_{i=0}^{q} a_{i} X_{t-i}) E(\sum_{j=0}^{q} a_j X_{t+h-j}) $
Así, para el primer término tenemos las dos sumas multiplicándose entre sí y luego se toma una expectativa. Luego, para el segundo término, tenemos dos expectativas que se multiplican entre sí.
SIMPLIFICAR PRIMERO EL SEGUNDO TÉRMINO
Tomando las expectativas de los términos, obtenemos $\sum_{i=0}^{q} a_{i} \mu \sum_{j=0}^{q} a_j \mu = \mu^2 \sum_{i=0}^{q} a_{i} \sum_{j=0}^{q} a_j$ .
Simplificando esto, resulta:
$ \mu^2 \sum_{i=0}^{q} \sum_{j=0}^{q} a_i a_j $
AHORA SIMPLIFICA EL PRIMER TÉRMINO:
$ E(\sum_{i=0}^{q} a_i X_{t-i} \sum_{j=0}^{q} a_j X_{t+h-j}) = $
$( \sum_{i=0}^{q} \sum_{j=0}^{q} a_{i} a_j ) E(X_{t-i} X_{t+h-j})$
Pero ya hemos demostrado que ninguno de los términos de la última expectativa se solapa y, como son gaussianos independientes, podemos reescribir la última expresión como $ E(X_{t-i} X_{(t+h-j)}) = E(X_{t-i}) E(X_{(t+h-j)}) = \mu^2$ .
Así, demostramos que el primer término es igual al segundo, lo que significa que $Cov(Y_{t}, Y_{t+h}) = 0 $ .
Nótese, sin embargo, que he necesitado la suposición de que las X_{t} son RV gaussianas independientes, pero esta es la suposición habitual en el modelo MA(q).
Si va a asumir la $X_t$ son independientes, entonces escribe $\vec{X}$ como el vector de $X_{t-q},\ldots,X_t,X_{t+h-q},\ldots,X_{t+h}$ . Entonces $\vec{X} \sim \mathcal{N}\left(\mu \vec{1},\Sigma\right)$ , donde $\Sigma$ es una matriz diagonal. Entonces el vector de las dos $Y$ valores es $A \vec{X}$ para alguna matriz de bloques que tenga una fila de $q+1$ de la $a_i$ entonces $q+1$ ceros, entonces $q+1$ ceros y luego el $a_i$ en la segunda fila. Es sencillo confirmar que $A\Sigma A^{\top}$ es diagonal.