4 votos

¿Cómo puedo construir el proceso de puntuación de un modelo de Markov y comprobar que es una Martingala?

La siguiente es una pregunta específica que es útil para la demostración de una idea general.

Considere el siguiente modelo autorregresivo: $$ X_{t+1} = \alpha_0 + \beta_0 (X_t - \alpha_0) + W_{t+1}, $$ donde $-1 < \beta_0 < 1$ y $W_{t+1}$ se distribuye como una normal con media cero y varianza uno.

¿Cómo debo ir sobre la construcción de la bivariante puntuación de proceso asociados con los parámetros de $\alpha_0$ y $\beta_0$? ¿Cómo puedo verificar que es una martingala?

Progreso:

Me gustaría empezar por la construcción de la log-verosimilitud proceso de la siguiente manera (acondicionado en $X_0$): $$ \ell_t(\theta \mid \textbf X) = -\frac t2 \ln(2 \pi) - \frac 12 \sum_{j=1}^t (X_j - \alpha_0 - \beta_0(X_{j-1} - \alpha_0))^2. $$ Entonces, la puntuación de proceso puede ser construido como $$ s_t(\theta \mid \textbf X) = \begin{bmatrix} (1 - \beta_0) \sum_{j=1}^t (X_j - \alpha_0 - \beta_0(X_{j-1} - \alpha_0)) \\ \sum_{j=1}^t (X_j - \alpha_0 - \beta_0(X_{j-1} - \alpha_0)) (X_{j-1} - \alpha_0) \end{bmatrix}. $$ Es esto correcto? ¿Cómo debo proceder?

3voto

saint_groceon Puntos 2696

La derivación de la puntuación de proceso es correcto. Para comprobar que el proceso es una Martingala, recordar la definición. Queda claro que si sustituimos $W_{t+1}$ de nuevo en la ecuación $$ s_t(\theta \mid \textbf X) = \begin{bmatrix} (1 - \beta_0) \sum_{j=1}^t W_j \\ \sum_{j=1}^t W_j (X_{j-1} - \alpha_0) \end{bmatrix}. $$ Porque $W_{t+1}$ son Normales con media 0 y varianza 1 (estoy asumiendo que son iid), entonces $$ E[s_{t+1} \mediados de s_t ] = s_t + E \left [ \begin{matriz} (1 - \beta_0) W_{t+1} \\ W_{t+1} (X_t - \alpha_0) \end{matriz} \medio | s_t \derecho ] = s_t $$ y hemos terminado.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X