¿Existen pruebas de que los segundos momentos varían en el tiempo en los datos económicos anuales?
Sí, aunque no tanto en finanzas en particular, pero en economía en general un sí rotundo. Por ejemplo, el muy citado Engle (2001) , GARCH 101: El uso de los modelos ARCH/GARCH en la econometría aplicada, además de ejemplos con datos diarios se refiere también a algunos ejemplos con datos trimestrales. O más directamente un ejemplo de esto que realmente utiliza datos de baja frecuencia (anual/trimestral/mensual) y utiliza la variante de GARCH, GARCH-SK, es Narayan y Liu (2018) . Otro ejemplo directo es Kontonikas (2004) que aplica modelos GARCH-M a datos de inflación trimestrales y mensuales. Así que GARCH es y puede ser a muchas series económicas de frecuencia trimestral o anual.
Normalmente, la gente opta por datos trimestrales o anuales cuando se trata de variables macroeconómicas como el PIB, el desempleo, la inflación, etc., y por frecuencias más altas cuando se trata de finanzas (por ejemplo, precios de las acciones, bitcoin, etc.). Esto se debe a que, por lo general, tener una frecuencia alta significa tener más datos. Sin embargo, al mismo tiempo, tener más datos no siempre es mejor. Por ejemplo, tener acceso a los datos del PIB con una frecuencia diaria probablemente sólo añadiría ruido, por lo que no tiene sentido intentar obtener datos de alta frecuencia. Sin embargo, lo mismo no es necesariamente válido para variables como los tipos de cambio o las comillas bursátiles. La frecuencia óptima para una investigación concreta debe decidirse en cierta medida caso por caso. Además, los modelos GARCH son algo más comunes con los datos de alta frecuencia, ya que se utilizan principalmente para resolver problemas como la agrupación de la volatilidad, que será un problema más común en las frecuencias más altas, pero, como muestran las referencias anteriores, la aplicación a los datos de baja frecuencia no es inaudita.
¿Qué retrasos se suelen utilizar en este caso?
Los rezagos en los modelos GARCH no dependen de la frecuencia de los datos por sí mismo (por supuesto, es más probable que haya más autocorrelación en los datos de alta frecuencia que en los de baja frecuencia). Se incluyen rezagos para modelar adecuadamente la autocorrelación. Esto dependerá del caso, tanto si se trata de datos de alta frecuencia como de baja frecuencia. Dicho esto, la evidencia muestra que a menudo es difícil superar GARCH(1,1) (véase Hansen et al. 2001 ) y esto suele ser válido para varias frecuencias*, pero si quiere hacerlo "según los libros" debería simplemente probarlo y, además, puede estimar potencialmente varios modelos con diferentes $p$ (y $q$ aunque no fuera parte de tu pregunta) y comparar su rendimiento (realmente no es mucho trabajo extra una vez que escribes el código para el modelo principal).
* Aunque hay que tener en cuenta que el documento ha recibido algunas críticas, por lo que no hay que tomarlo necesariamente al pie de la letra - véase <a href="http://www.unstarched.net/2013/01/07/does-anything-not-beat-the-garch11/" rel="nofollow noreferrer">aquí</a>