1 votos

Determinación del tamaño de la ventana de la media móvil

¿Existe una forma "correcta" de determinar una ventana de media móvil/parámetro de suavizado (o al menos un suposición inicial para una serie temporal financiera?

Entiendo, por supuesto, que en cierto sentido, esto podría considerarse un "hiperparámetro" para, digamos, una estrategia de negociación, y que uno podría utilizar algún tipo de validación cruzada para optimizarlo, pero francamente esto tiene poca interpretabilidad y comienza a virar hacia lo que yo consideraría territorio de sobreajuste. Además, si uno tiene una conjetura inicial fuerte, puede ajustarla con los mismos métodos en un sentido bayesiano, concentrando la prioridad en la conjetura inicial dada.

¿Existe una forma de adivinar esto usando ¿fundamentos/razones físicas o económicas? Algo que consideré fue calcular la transformada de Fourier de la serie temporal en cuestión (o de su función de autocorrelación ), y luego tomar el modo de la magnitud, por ejemplo $$w_{\text{opt}} = \mathrm{argmax}_{\xi}|\hat{f}(\xi)|$$

pero francamente sólo entiendo el Análisis de Fourier desde una perspectiva matemática, y no su aplicación a señales muestreadas discretamente (por ejemplo, series temporales), así que no estoy seguro de que sea una idea sensata.

1voto

TweakFix Puntos 449

No creo que haya una sola forma correcta de abordar este problema. Sin embargo, voy a poner un ejemplo que me pareció bastante interesante. El enfoque de la métrica del riesgo de JP-Morgan era (o sigue siendo, no lo sé) bastante popular en el sector. Utilizan un EWMA $$ \sigma_{t}^2=(1-\lambda)r_{t-1}^2+\lambda\sigma_{t-1}^2 $$ para predecir la volatilidad diaria o mensual. Para los rendimientos diarios utilizan $\lambda=0.94$ como factor de decaimiento "óptimo" para cada serie temporal. En su documento técnico de 1996, indicaron que resultaba demasiado complicado calcular un factor de decaimiento óptimo para cada serie temporal y para diferentes periodos de tiempo.

Lo que hicieron en cambio es que modelaron los retornos de los registros $r_t$ a través de $$ r_t= \sigma_t \epsilon_t \quad , \epsilon_t \overset{iid}{\sim} {\cal N}(0,1) $$ donde $\sigma_t^2$ se modela a través del EWMA anterior. Ahora, para $N$ diferentes series temporales, definieron el error cuadrático medio (RMSE) como: $$ RMSE=\sqrt{\frac{1}{T}\sum_{t=1}^T(r_t^2-\sigma_t^2)^2} $$ Ahora dejemos que $\hat{\lambda}_i$ denotan el factor de decaimiento óptimo para las series temporales $i$ (la que minimiza el RMSE) y $\tau_i$ el valor correspondiente del RMSE. Calcularon la suma de los RMSE mínimos $$ \sum_{i=1}^N\tau_i $$ utilizó esta cantidad para calcular un RMSE relativo $$ \theta_i= \frac{\tau_i}{\sum_{i=1}^N\tau_i} $$ luego utilizó esta cantidad para derivar los pesos $$ \omega_i = \frac{\theta_i}{\sum_{i=1}^N\theta_i} $$ y finalmente consiguió $$ \lambda = \sum_{i=1}^N\omega_i\hat{\lambda}_i \approx 0.94 $$ como factor de decaimiento óptimo sobre $N$ series temporales.

Como puede ver, esta es una forma posible de determinar un factor de decaimiento "óptimo" para un EWMA. Estoy seguro de que existe mucha literatura sobre este tipo de problemas y de que seguramente hay enfoques más sofisticados. Sin embargo, en mi opinión, el principal problema es encontrar un buen equilibrio entre simplicidad y precisión. Dependiendo del uso que se le quiera dar, una puede tener más peso que la otra.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X