Supongamos que estamos estimando un modelo lineal utilizando una técnica de Monte Carlo de cadena de Markov, como un muestreador de Gibbs, extrayendo de los posteriors en un marco de Bayes. Supongamos que la muestra completa de datos que tenemos es del tiempo $t = 1, \dots,\tau\dots, T$ y queremos pronosticar los rendimientos en un período futuro utilizando una ventana recursiva que comienza en el tiempo $t = \tau$ hasta el momento $t = T$ . Hemos entrenado el modelo de tiempo $t=1$ al tiempo $t=\tau$ entonces queremos pronosticar los rendimientos fuera de la muestra en el momento $t=\tau+1$ :
\begin{equation} y_{\tau +1} = \beta' \mathbf{x}_\tau + \sigma \varepsilon_{\tau + 1}, \; \; \varepsilon_{\tau + 1} \sim \mathcal{N}(0,1) \end{equation}
Cuando probé esto sin establecer la semilla en cada período el término de error $\varepsilon_{\tau+1}$ era tan estocástico a través de la $I$ iteraciones del algoritmo MCMC que $y_{\tau+1}$ era esencialmente un paseo aleatorio. Cuando establecí la semilla en cada período de tal manera que el $I$ iteraciones en el muestreador de Gibbs utilizaron el mismo $\varepsilon_{\tau+1}$ Encontré resultados mucho mejores en términos de RMSFE.
¿Debemos establecer la semilla en el generador de números aleatorios en cada período $\tau$ , de tal manera que todos los $I$ iteraciones de evaluación de $y_{\tau+1}$ utilizan el mismo término de error $\varepsilon_{\tau+1}$ al calcular esta previsión?