3 votos

Simulación de datos macro/de referencia

Pregunta

¿Existen conjuntos de datos simulados que hayan sido diseñados específicamente para representar datos macroeconómicos? En particular, ¿existen conjuntos de datos de este tipo que puedan utilizarse en estudios de referencia?

Antecedentes

Por analogía, en la optimización, uno puede estar interesado en evaluar la calidad de un determinado algoritmo. Para ello, hay una serie de funciones de prueba para la optimización como el conocido función del plátano que puede utilizarse para evaluar el rendimiento de un algoritmo; por ejemplo, analizando si y la rapidez con la que el algoritmo puede encontrar un mínimo global.

Me interesa trabajar en este entorno experimental controlado utilizando datos simulados que tienen una interpretación macroeconómica. Con datos simulados a partir de un proceso de generación de datos conocido (este sería mi control), sería posible investigar, por ejemplo, el rendimiento de los algoritmos diseñados para detectar rupturas estructurales y evaluar las técnicas/modelos utilizados para la previsión.

Agradecería mucho que alguien me ayudara: ya sea indicándome algunos conjuntos de datos simulados que puedan utilizarse para los fines mencionados o proporcionando alguna orientación sobre cómo simular datos que lleven una interpretación macroeconómica.

Me es posible simular una variedad de procesos ARMA (o modelo VARMA), pero realmente estoy interesado en algo que vaya más allá; los datos simulados deberían tener propiedades similares a los datos macroeconómicos observados. Obviamente, estoy tratando de evitar el uso de datos reales porque mi control (de conocer el proceso de generación de datos) se perdería.

Actualización

Para uno de los propósitos que tenía en mente, una lectura rápida de Castle, Doornik y Hendry (2013) sugiere que, tal vez, no sea tan difícil. Su "diseño experimental" se basa en las siguientes ecuaciones $$ y_{t} = \beta_{0} + \gamma y_{t-1} + \beta_{1}x_{1,t} + \cdots + \beta_{10} x_{10,t} + \epsilon_{t}\\ x_{i,t} = \rho x_{i,t-1} + v_{i,t}, v_{i,t} \sim IN[0,1], i=1,\ldots,10,\\ \epsilon_{t} \sim IN[0,1], t=1,\ldots ,10. $$ junto con algunas calificaciones adicionales. Así pues, parece que para uno de mis ejemplos (el caso de la evaluación de los algoritmos de ruptura estructural), todo lo que se necesita son DGPs relativamente sencillos (aunque de ningún modo "no complicados").

Referencia: Castle, Doornik y Hendry (2013) Selección del modelo cuando hay varias rupturas

1voto

Dylan Beattie Puntos 23222

Creo que sí. Los macroeconomistas suelen construir modelos DSGE para predecir las fluctuaciones a corto plazo. La calibración de los datos forma parte del proceso. Tras utilizar métodos numéricos para ejecutar los modelos, los investigadores comprueban los momentos de los valores simulados. Es una forma de examinar si los datos simulados representan los resultados de la vida real.

Sin embargo, cada situación económica es diferente, por lo que hay que elegir sabiamente los datos simulados en función de la investigación que se realice en cada momento. Es decir, el crecimiento fue enorme en los años 50 en EE.UU., pero hoy el objetivo principal es matar al monstruo de la deflación.

Este es el modelo de referencia de Hansen y Wright (1992) :

enter image description here

$\sigma$ denota la desviación estándar, $Y,C,I$ y $L$ son variables macroeconómicas.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X