1 votos

Demostrar que $Y_t$ y $Y_{t+h}$ son independientes si $X_t$ es gaussiano

Si $Y_t=\sum_{i=0}^qa_iX_{t-i}$ donde $X_{t-i}$ es gaussiano con media $\mu$ y la varianza $\sigma^2$ ¿Cómo puedo demostrar que $Y_t$ y $Y_{t+h}$ son independientes (para $|h|>q$ ) utilizando el pdf conjunto. Sé que esta pregunta se ha hecho antes ( aquí ) pero la respuesta no es la que busco ya que no se muestra la independencia, sino sólo que $Y_t$ es gaussiano. Quiero mostrar la independencia entre $Y_t$ y $Y_{t+h}$ escribiendo su pdf conjunto como el producto de sus pdf marginales.

1voto

waynecolvin Puntos 110

Hola Parseval: Voy a poner una respuesta aquí y espero que quede claro. Lo he arreglado para que $\mu = 0 $ no es necesario, pero, por supuesto, la hipótesis de la gaussiana independiente sigue siendo necesaria.

(1) $Y_t = \sum_{i=0}^{q} a_{i} X_{t-i}$

(2) $Y_{t+h} = \sum_{j=0}^{q} a_j X_{t+h-j}$

$ h > q$ .

Obsérvese que el último término (el más antiguo) de (2) es $a_{q} X_{t+h-q}$ y el primer (último) término de (1) es $a_{0} X_{t}$ . Por lo tanto, ya que $h > q$ ninguno de los términos de ruido en $Y_t$ se superponen con cualquiera de los términos de ruido en $Y_{t+h}$ .

Ahora, la definición habitual de covarianza, da:

$Cov(Y_{t}, Y_{t+h}) = E(\sum_{i=0}^{q} a_{i} X_{t-i} \sum_{j=0}^{q} a_{j} X_{t+h-j}) - E(\sum_{i=0}^{q} a_{i} X_{t-i}) E(\sum_{j=0}^{q} a_j X_{t+h-j}) $

Así, para el primer término tenemos las dos sumas multiplicándose entre sí y luego se toma una expectativa. Luego, para el segundo término, tenemos dos expectativas que se multiplican entre sí.

SIMPLIFICAR PRIMERO EL SEGUNDO TÉRMINO

Tomando las expectativas de los términos, obtenemos $\sum_{i=0}^{q} a_{i} \mu \sum_{j=0}^{q} a_j \mu = \mu^2 \sum_{i=0}^{q} a_{i} \sum_{j=0}^{q} a_j$ .

Simplificando esto, resulta:

$ \mu^2 \sum_{i=0}^{q} \sum_{j=0}^{q} a_i a_j $

AHORA SIMPLIFICA EL PRIMER TÉRMINO:

$ E(\sum_{i=0}^{q} a_i X_{t-i} \sum_{j=0}^{q} a_j X_{t+h-j}) = $

$( \sum_{i=0}^{q} \sum_{j=0}^{q} a_{i} a_j ) E(X_{t-i} X_{t+h-j})$

Pero ya hemos demostrado que ninguno de los términos de la última expectativa se solapa y, como son gaussianos independientes, podemos reescribir la última expresión como $ E(X_{t-i} X_{(t+h-j)}) = E(X_{t-i}) E(X_{(t+h-j)}) = \mu^2$ .

Así, demostramos que el primer término es igual al segundo, lo que significa que $Cov(Y_{t}, Y_{t+h}) = 0 $ .

Nótese, sin embargo, que he necesitado la suposición de que las X_{t} son RV gaussianas independientes, pero esta es la suposición habitual en el modelo MA(q).

0voto

steveo'america Puntos 340

Si va a asumir la $X_t$ son independientes, entonces escribe $\vec{X}$ como el vector de $X_{t-q},\ldots,X_t,X_{t+h-q},\ldots,X_{t+h}$ . Entonces $\vec{X} \sim \mathcal{N}\left(\mu \vec{1},\Sigma\right)$ , donde $\Sigma$ es una matriz diagonal. Entonces el vector de las dos $Y$ valores es $A \vec{X}$ para alguna matriz de bloques que tenga una fila de $q+1$ de la $a_i$ entonces $q+1$ ceros, entonces $q+1$ ceros y luego el $a_i$ en la segunda fila. Es sencillo confirmar que $A\Sigma A^{\top}$ es diagonal.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X