¿Cómo evalúan los macroeconomistas la calidad/precisión de su comprensión/modelo de la inflación?
resumiendo
En resumen, los macroeconomistas lo hacen cotejando el modelo con los datos históricos y comprobando si podemos encontrar históricamente que los coeficientes o las direcciones de causalidad concuerdan con nuestro(s) modelo(s) de inflación.
Si uno puede encontrar pruebas de causalidad, o estimaciones de coeficientes que concuerden con nuestro modelo teórico lo consideramos como una prueba de que nuestro entendimiento es correcto, y cuando encontramos pruebas de relación causal o falta de ella o estimaciones de coeficientes inconsistentes con los modelos de cómo funciona la inflación lo consideraríamos como una prueba de que nuestro entendimiento no es completamente correcto. Además, según la concepción popperiana moderna de la ciencia, no existe ningún modelo absolutamente verdadero y, por lo tanto, no se puede considerar que ningún fenómeno se comprenda de forma absoluta, pero cuanto más coincidan las implicaciones del modelo con los datos históricos, más correcta será nuestra comprensión.
Por supuesto, las decisiones no se toman basándose en un único estudio o resultado, sino que los investigadores examinan formal o informalmente los resultados de varios estudios, ponderados por su calidad.
Respuesta completa:
¿Por qué/en qué se diferencia de la previsión?
Es diferente porque con la previsión es necesario utilizar actualmente información disponible para adivina cuál es el valor futuro de algo. En consecuencia, aunque se tenga la certeza de que x es la causa de y, es posible que ni siquiera se disponga de datos sobre x, por lo que, si se desea utilizar este modelo "estructural" para realizar previsiones, primero habría que prever x. Esto podría dar lugar a peores previsiones que intentar predecir el futuro a partir de algunas variables que podrían estar superficialmente correlacionadas, aunque no exista una relación causal (por ejemplo. este podría utilizarse para hacer previsiones e incluso podría ser aceptada por los profesionales, mientras que nadie la aceptaría como relación causal).
Sin embargo, en un análisis empírico normal (no predictivo) no existen estas limitaciones. No se trata de predecir lo que ocurrirá en el futuro a partir de datos limitados, ruidosos y a menudo inexactos (las cifras del PIB se revisan sistemáticamente incluso 5 años después de su publicación inicial). Puede aprovechar al máximo las series de datos macroeconómicos revisados/corregidos "de época", en las que hay mucho menos ruido e imprecisión, y también puede incluir fácilmente variables contemporáneas, de modo que si, por ejemplo, cree que el PIB actual afecta a la inflación, ese conocimiento es inútil para la previsión (ya que las cifras del PIB se publicarán normalmente mucho después de las cifras de inflación actuales), pero esa relación puede probarse o modelarse en un análisis empírico retrospectivo estándar.
¿Cómo se hace?
Ahora, para ser claro, describiré aquí la mejor práctica o cómo debería hacerse (por supuesto, en la vida real se puede ver que algunas investigaciones, especialmente las publicadas en malas revistas, se desvían de esto).
- Se empieza con un modelo (idealmente explícito, riguroso y microfundamentado) que se quiere probar.
Por ejemplo, podría empezar con la teoría cuantitativa del dinero, que se describe en:
$$MV=PY$$
donde $M$ es la oferta monetaria, $V$ velocidad del dinero, $P$ nivel de precios (cuya variación es la inflación) y $Y$ producción real. O curva LM neokeynesiana:
$$M/P = L(Y,i)$$
donde $L$ es la demanda de dinero $i$ tipo de interés nominal (las demás variables tienen el mismo significado que en QTM). O curva de Philips (que técnicamente sigue formando parte del modelo IS-LM-PC, y en realidad es coherente con la curva LM anterior):
$$\pi = \pi^e - b(u -u_n)$$
donde $\pi$ es la inflación, $\pi^e$ expectativas de inflación, $u$ desempleo actual y $u_n$ tasa natural de desempleo, etc.
- Usted elabora una estrategia de identificación (es decir, de estimación) adecuada (o, alternativamente, una simulación numérica que trataré por separado más adelante).
Por supuesto, no se puede utilizar OLS ingenuo para estimar todas las relaciones, y por lo general no se puede tomar el modelo exactamente como es, por ejemplo, un modelo multiplicativo como MV = Y sería una pesadilla para estimar en esa forma. Sigamos utilizando QTM como ejemplo. Primero se piensa en el modelo (qué variables son exógenas y cuáles endógenas). En QTM canónico $P$ es el único endógeno y $V$ , $Y$ y $M$ exógeno (Mankiw Macroeconomics pp 87). Por lo tanto, primero se resolvería el modelo para $P$ :
$$P = \frac{MV}{Y}$$
A continuación, se suele linealizar un modelo porque los modelos no lineales son difíciles de estimar, por lo que se toman los logaritmos de ambos lados para que el modelo sea lineal:
$$\ln P = \ln M + \ln V - \ln Y$$
A continuación, elija un modelo que pueda reflejar la relación anterior. Aquí hay que tener cuidado, ya que no todos los modelos son apropiados en todas las situaciones. Por ejemplo, es probable que en la relación anterior $P$ , $M$ , $V$ y $Y$ no son estacionarios, por lo que no debe utilizar la regresión normal para estimar la relación. En tal caso, se podría comprobar la existencia de cointegración o utilizar una transformación diferente de la relación (por ejemplo, tomando la derivada temporal se podría demostrar que la relación se mantendrá también entre las tasas de crecimiento y, aunque los niveles no sean estacionarios, las tasas de crecimiento sí pueden serlo). En este caso, debería haber cointegración, por lo que continuaré con este ejemplo como si la hubiéramos encontrado, en cuyo caso el modelo todavía puede estimarse por MCO (aunque uno debería utilizar más específicamente MCO Completamente Modificado - véase Verbeek Guide to Modern Econometrics 4ª ed pp 346).
Así que se establecerá modelo como:
$$\ln P_t = \alpha + \beta \ln M_t + \gamma \ln V_t + \omega Y_t + \epsilon_t$$
A continuación, antes de pasar a la estimación propiamente dicha, hay que pensar en la selección adecuada de las variables. Por ejemplo, ¿utilizo el IPC como una buena medida de $P_t$ ¿o el deflactor del PIB? ¿O deberíamos utilizar $M2$ como medida de $M_t$ o $M3$ ? O puede que sea difícil encontrar datos sobre la velocidad, por lo que se podrían utilizar los tipos de interés, que afectan a la velocidad, y permitir que los coeficientes no sean la unidad. Por lo general, la gente intenta utilizar las variables que considera más relevantes, siempre que haya datos disponibles. A veces, puede haber desacuerdo sobre qué medida de una variable es la adecuada (por ejemplo, en la curva de Philips se discute a menudo sobre cómo deben medirse las expectativas de inflación), en cuyo caso se podrían ejecutar en paralelo varios modelos con diferentes medidas de la misma variable y ver si coinciden o no.
Además de pensar en las variables también hay que pensar en la especificación del modelo en el sentido de que se podría argumentar que en la prueba anterior podemos imponer directamente una restricción como ( $\alpha=0$ ) o podría argumentarse que $\alpha$ debe ser libre, ya que podría haber algunos cambios de nivel en los datos.
- Se estima el modelo utilizando datos históricos y se comprueba si se ajusta a la teoría.
Siguiendo con el ejemplo de QTM, una vez estimado el modelo se obtendrá algún resultado como (tomé los números de un estudio aleatorio Omanukwue 2010 - no es necesario el mejor estudio, yo sólo quería encontrar algunos números rápidos por lo que, literalmente, tomó el primer resultado de google scholar, también el estudio utiliza la tasa de interés a la velocidad de proxy y tiene algunos controles adicionales, pero sólo incluyen números para este ejemplo):
$$\ln P = 11.15 + 0.55 \ln M -0.01 V - 1.34 \ln Y$$
A continuación, compruebe si los coeficientes son estadísticamente diferentes de cero. Si no es así, es probable que la variable no haya influido en la variable dependiente. A continuación, se comprueba si los signos se corresponden con el modelo teórico o no (en este caso, M e Y tienen el signo correcto V no, aunque se sustituyeron por el tipo de interés, lo que puede explicarlo).
A continuación, se realizan pruebas adicionales para comprobar si los valores difieren estadísticamente de los predichos por la teoría. Por ejemplo, puede realizar la prueba de Wald para comprobar si $\beta = \gamma = \omega =1 $ .
Además, no siempre es posible realizar pruebas tan minuciosas. Así que a veces las pruebas se hacen indirectamente, por ejemplo, se podría aprovechar el diseño cuasi-experimental como DiD o control sintético u otro método para tratar de ver si realmente hay causalidad de la oferta monetaria a la inflación como predice QTM o no.
- Comparar el ajuste de modelos alternativos
En el actual enfoque instrumentalista, popperiano y kuhniano de la filosofía de la ciencia, se acepta que ninguna teoría es perfecta, por lo que no se rechazan simplemente las teorías que no se ajustan perfectamente a todos los datos, sino que se seleccionan comparativamente las teorías que mejor se ajustan a los datos entre las teorías competidoras.
Por ejemplo, una teoría competidora de la QTM es la relación LM neokeynesiana dada por:
$$M/P = L(Y,i)$$
Esta teoría es menos restrictiva, ya que permite $Y$ y $i$ para tener un efecto diferente de la unidad como QTM. Este modelo podría ser rewriten a efectos de estimación como:
$$\ln P_t = \alpha + \beta \ln M_t - \omega\ln Y_t - \gamma i_t + \epsilon_t$$
Así que si constantemente encontramos pruebas de que digamos $\omega \neq 1$ podemos tomarlo como una prueba de que la Nueva Keynesiana LM proporciona una mejor comprensión del nivel de precios (y por tanto de la inflación) que la QTM. Además, por ejemplo, la relación LM permite la endogeneidad, por lo que si también se encuentra simultaneidad, se puede considerar como una puntuación a favor de la LM neokeynesiana frente a la QTM.
Esto se está haciendo de forma iterativa, de tal manera que a medida que avanza el tiempo nos vamos acercando cada vez más al verdadero modelo (comprensión completa del fenómeno) aunque, por supuesto, ese objetivo nunca se alcanza, sólo nos acercamos constantemente a él.
Sin embargo, en el espíritu instrumentalista eso está bien, siempre que aceptemos que nada puede entenderse al 100%. Por ejemplo, incluso el QTM defectuoso anterior nos permitiría entender correctamente que el aumento de la oferta monetaria conduce a un mayor nivel de precios (inflación), incluso si la predicción QTM de que se trata de una relación perfectamente proporcional podría no ser apoyada.
- Modelización numérica (alternativa a la estimación empírica anterior)
A veces es imposible encontrar datos suficientes para aplicar un modelo empírico adecuado (por ejemplo, para los modelos que tienen en cuenta la endogeneidad es necesario encontrar instrumentos, lo que puede resultar extremadamente difícil), por lo que también se intenta probar las teorías mediante modelos numéricos.
En una modelización numérica, se parte de un modelo teórico o de unas estimaciones empíricas bien conocidas que se toman como parámetros dados (es decir, no se vuelven a estimar) y, a continuación, se alimentan los datos históricos del modelo y se comprueba si el resultado del modelo coincide con los valores reales observados. Por ejemplo, siguiendo con nuestro ejemplo de QTM, se puede realizar una simulación muy simplista tomando simplemente el logaritmo de $M$ , $Y$ y $V$ y sumándolos para ver si los valores sumados siguen los valores observados en la vida real para log of $P$ (por supuesto este es un ejemplo extremadamente simplista, hoy en día las simulaciones son mucho más complejas y esto no pasaría ni como una tesis de licenciatura, pero estoy tratando de mantener las cosas lo más simple posible).
Esto podría sonar a previsión, y de hecho los modelos numéricos también pueden utilizarse para la previsión, pero aquí me refiero específicamente a los modelos numéricos que utilizan datos retrospectivos, ya que de nuevo la previsión tiene sus propios retos (necesidad de previsiones para x para cualquier modelo estructural, etc.).
Puede ver muchos ejemplos de modelos numéricos utilizados para apoyar la teoría de la inflación en la recientemente publicada Teoría fiscal del nivel de precios de Cochrane, si desea ver algunos ejemplos.
- Los investigadores agregan los resultados
Por último, como solía bromear uno de mis profesores, uno no se mea en los pantalones cada vez que se publica un nuevo estudio con resultados interesantes. Debido a la naturaleza estocástica del trabajo empírico, siempre es posible encontrar resultados negativos, incluso si realmente había una verdadera relación en los datos. De ahí que los investigadores agreguen los resultados de la investigación tanto formalmente (metaestudios) como informalmente (revisión bibliográfica).
Aquí es donde por fin se puede empezar a evaluar también lo bien que lo entendemos. Por ejemplo, si 100 estudios muestran que existe una relación negativa entre la producción y el nivel de precios y un solo estudio muestra que no la hay, ese estudio puede ser descartado como una casualidad estadística. Si 100 estudios muestran que existe tal relación, pero 20 estudios muestran que no existe y esos 20 estudios no son aleatorios, sino que todos se centran en un periodo de tiempo específico, eso indicaría que, aunque entendemos la naturaleza general de la relación, hay algunos casos específicos que no podemos explicar con nuestros modelos actuales. Por supuesto, esto se vuelve un poco difícil en la vida real, ya que uno siempre tiene que tener en cuenta la posibilidad de sesgo de publicación, y es importante ponderar los estudios por la calidad (es decir, el estudio de la revista Q1 con excelente estrategia de identificación supera incluso a miles de algunos estudios de revistas depredadoras Q4 con terrible estrategia de identificación que es bien sabido que producen resultados sesgados).
En la actualidad, el modelo de inflación más generalmente aceptado es el basado en $IS-LM-PC$ por lo que este modelo se incluye en la mayoría de los libros de texto actuales (por ejemplo, Blanchard et al Macroeconomics o Mankiw Macroeconomics, etc.). En este modelo se puede pensar en la inflación a largo plazo a través de la relación LM $M/P = L(Y,i)$ y en corto recorrido a través de la curva de Philips $\pi = \pi^e - \beta (u - u_n)$ . Estos modelos gozan de gran aceptación porque, en general hablando pueden explicar bastantes cosas. La curva de Philips es bastante buena para explicar la variación mes a mes, de hecho la curva de Philips en retrospectiva predice la alta inflación actual (por ejemplo, véase Gorodnichenko et al. 2019 ), aunque la sincronización era incorrecta. El modelo también puede explicar por qué los tipos de interés funcionaron bien cuando los bancos centrales intentaron ajustar la inflación en el periodo anterior a 2009 y no después, cuando el interés nominal era cercano a cero, ya que en el modelo puede producirse una trampa de liquidez (contrástelo con el QTM que no puede explicar bien las trampas de liquidez).
Por supuesto, el modelo no puede explicarlo todo. Por ejemplo, una cosa que el modelo IS-LM-PC no puede explicar bien es por qué el QE1-2 y parcialmente el 3 no tuvieron mucho efecto sobre la inflación, pero el QE4 tuvo un gran efecto. De hecho, ya existen nuevas teorías que pueden explicar esto, como la teoría fiscal del nivel de precios, que se basa en el trabajo seminal de Woodford, pero dado que se trata de una teoría bastante nueva, aún no cuenta con la aceptación de la corriente dominante. Sin embargo, incluso con el modelo IS-LM-PC, según mis estimaciones, se puede explicar alrededor del 70% de toda la variación de la tasa de inflación a lo largo del tiempo.