10 votos

Función de distribución empírica de datos de series temporales superpuestas

Si modelamos la volatilidad de los rendimientos de los activos para periodos de más de uno (digamos más de un día), existe la regla de root cuadrada que se cumple bajo algunos supuestos. La situación es más complicada si nos fijamos en la función de distribución empírica.

Para hacer frente a este problema, los profesionales utilizan a veces datos rodantes y superpuestos. Tratarlos como si no estuvieran solapados me parece erróneo (es erróneo), pero ¿hasta qué punto es erróneo y cómo se puede arreglar este enfoque?

Con mal me refiero a que la distribución de $\sum_{i=1}^{180} r_i$ con $r_i$ muestreada no correlacionada será diferente de la distribución de esta muestra de datos superpuestos.

He oído hablar del siguiente enfoque de modelado: Toman una muestra de $1000$ observaciones diarias (rendimientos diarios/variaciones porcentuales) y luego construyen $180$ devoluciones de días. Por último, examinan la función de distribución empírica (FDE) y los cuantiles empíricos de estos rendimientos rodantes/sobrepuestos.

Matemáticamente tienen $(r_i)_{i=1}^{1000}$ y luego miran $$y_1 = \sum_{i=1}^{180} r_i, \quad y_2 = \sum_{i=2}^{181} r_i, \quad y_3 = \sum_{i=3}^{182} r_i, \cdots $$

La muestra del $(y_i)_{i=1}^{820}$ es un conjunto de variables aleatorias fuertemente dependientes. ¿Cuáles son las propiedades de su edf? ¿Cómo se relaciona con la edf de la muestra de $(r_i)_{i=1}^{1000}$ ? ¿Cómo podemos relacionar las estimaciones de volatilidad?

Al hablar de los rendimientos de los activos, podemos suponer que el $(r_i)_{i=1}^{1000}$ para que no estén correlacionados en serie pero no sean independientes. Esto dificulta un tratamiento riguroso.

Este es un puesto cruzado ya que la pregunta no recibió suficiente atención (después de varios días y una recompensa).

Qué se puede decir, por ejemplo, de la varianza de los datos anuales basados en datos superpuestos (por ejemplo, del 1 de enero de 2015 al 1 de enero de 2016, del 2 de enero de 2015 al 2 de enero de 2016, del 3 de enero de 2015 al 3 de enero de 2016, ... y así sucesivamente). La función de distribución empírica es quizás demasiado dura. ¿Pero qué pasa con la varianza?

En resumen, el objetivo es:

  1. Estimar un cuantil de la distribución de la rentabilidad/pérdida del año siguiente (utilizando los datos anuales superpuestos del pasado).
  2. Estimar la varianza de la rentabilidad/pérdida del año siguiente (utilizando los datos anuales superpuestos del pasado).

El resultado podría ser un conjunto de propiedades de los estimadores de las cantidades anteriores cuando sólo tenemos los datos superpuestos. Podría haber un sesgo que hay que corregir.

EDIT: Como señalan algunos usuarios una forma de verlo es como estadística bootstrap. He empezado a leer esto: Métodos Bootstrap para las finanzas: Review and Análisis y sus referencias. El punto de vista de Boostrap parece muy prometedor. Todavía no he llegado a una respuesta completa.

0 votos

Por favor @Richard, ¿puedes publicar el enlace del artículo que citaste/escuchaste?

0 votos

Lo siento... sólo comunicación personal.

0 votos

@Quantopic he iniciado una recompensa por esto... ¿tienes alguna idea? ¿Tal vez sólo sobre la estimación de la varianza?

1voto

Kyle Cronin Puntos 554

La relación entre el cuantil y la varianza depende de los datos que se analicen. Considere primero el caso en el que sus datos son (estadísticamente) agradables. Es decir, sus rendimientos de un período $r_i$ son todas gaussianas e i.i.d.

Formamos sumas $$ y_i = \sum_{j=t-(k+1)}^t r_j $$ que, por supuesto, son gaussianos, pero, como se observa, están altamente autocorrelacionados para $k>0$ .

Después de Harri y Brosen vemos que cualquier ajuste OLS de $y_i$ tendrá una varianza de términos de error de $k$ veces la varianza de un ajuste OLS a los rendimientos de un período. Dado que el estimador de la media puede verse como una regresión OLS trivial, tenemos que la media $\bar{y} = k\bar{r}$ y

$$ \mathrm{Var}\left[y_i-\bar{y}\right] = k \, \mathrm{Var}\left[r_i-\bar{r}\right] $$

Como todo es gaussiano, las funciones de distribución se siguen por completo.

Si esto fuera todo, llegaríamos a la conclusión de que nunca hay ninguna razón real para sobremuestrear de esta manera, y lo dejaríamos así.

Las cosas se ponen más interesantes cuando suponemos que hay alguna tendencia subyacente a la $r_i$ o un patrón a los errores de medición en $r_j$ . Por ejemplo, si algunos fallos en la contabilidad hacen que las relaciones trimestrales entre las ventas y las existencias muestren patrones estacionales, entonces esos patrones se "lavarán" en la suma anual. Básicamente, habremos explotado la estructura de errores para obtener

$$ \mathrm{Var}\left[y_i-\bar{y}\right] < k \,\mathrm{Var}\left[r_i-\bar{r}\right]. $$

Editar: Ha preguntado por la estructura de covarianza de $y$ . Para dos observaciones cualesquiera de $y$ tenemos (ampliando a Harri y Brorsen)

$$ \mathrm{Cov}(y_\ell, y_j) = \mathrm{Var}(\{r_i\}) \,(\ell-|\ell - j|)^+ $$

donde $(\cdot)^+$ indica la función que devuelve $\max(\cdot, 0)$ .

0 votos

Gracias por esta respuesta. Sin duda es parte de la solución. Mientras tanto empecé a leer esto: Métodos Bootstrap para las finanzas: Revisión y análisis y sus referencias. El punto de vista de Boostrap parece muy prometedor.

0 votos

El bootstrap es una perspectiva perfectamente razonable, sobre todo si (a) se tienen muchos datos para hacer juicios sobre las distribuciones empíricas y (b) no se tiene ningún argumento económico particular que explotar a favor de una elección particular de sobremuestreo/superposición. El bootstrap clásico, que selecciona y agrega elementos aleatorios, puede ser engañoso, especialmente en lo que respecta al riesgo, si los datos presentan regímenes como subperíodos de alta volatilidad.

1 votos

Correcto, el bootstrap simple perdería el punto, pero parece que hay métodos de boostrap en bloque que preservan las propiedades de las series de tiempo. Me pregunto por qué es tan difícil encontrar un tratamiento de este problema común...

1voto

scottishwildcat Puntos 146

Investigando un poco más encontré la publicación muy reciente y me gustaría compartirla para los lectores interesados en la cuestión:

Estimación de parámetros a partir de observaciones superpuestas . Este trabajo se realiza en el entorno del movimiento browniano con deriva y encuentra fórmulas muy explícitas para el sesgo (y cómo corregirlo). Del resumen:

Este documento examina la estimación de los parámetros (media, volatilidad y correlación) para procesos brownianos correlacionados que hacen uso de observaciones de retorno superpuestas. Derivamos la varianza mínima insesgada dentro del espacio de estimadores lineales (para la media) y cuadrática (para la varianza y la covarianza) de las observaciones. observaciones.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X