23 votos

¿Cómo se evalúa una previsión de covarianza?

Supongamos que tiene dos fuentes de previsiones de covarianza sobre un conjunto fijo de $n$ activos, el método A y el método B (se puede pensar en ellos como previsiones de caja negra, de dos proveedores, digamos), que se sabe que se basan en los datos disponibles en un momento dado. Supongamos que también observa los rendimientos de esos $n$ activos para un periodo posterior (un año, por ejemplo). ¿Qué parámetros utilizaría para evaluar la calidad de estas dos previsiones de covarianza? ¿Qué pruebas estadísticas?

Para los antecedentes, el uso de las covarianzas sería en un marco de optimización vainilla media-varianza, pero se puede suponer que se sabe poco acerca de la fuente de alfa.

editar previsión de una covarianza matriz es un poco diferente, creo, de otras tareas de previsión. Hay algunas aplicaciones en las que sería útil obtener una buena previsión de los vectores propios de la covarianza, pero los valores propios no son tan importantes. (Estoy pensando en el caso en que la cartera de uno es $\Sigma^{-1}\mu$ reescalado, donde $\Sigma$ es la covarianza de la previsión, y $\mu$ es la rentabilidad prevista). En ese caso, la métrica de la calidad de la previsión debería ser invariable con respecto a escala de la previsión. En algunos casos, parece que la previsión del primer vector propio es más importante (utilizándolo como beta), etc . Por eso buscaba métodos específicos de previsión de covarianzas para su uso en finanzas cuánticas.

10voto

Adam Haile Puntos 12576

Tiene usted razón: la evaluación de las previsiones de volatilidad es bastante diferente de la evaluación de las previsiones en general, y es un campo de investigación muy activo.

Los métodos pueden clasificarse de varias maneras. Un criterio es considerar métodos de evaluación para previsiones únicas (por ejemplo, para la serie temporal de rendimientos de una cartera específica) frente a múltiples previsiones simultáneas (por ejemplo, para un universo invertible). Otro criterio consiste en separar los métodos de evaluación directa de los métodos de evaluación indirecta (más información al respecto más adelante).

Centrándonos en los métodos de un solo activo: históricamente, el enfoque más utilizado por los profesionales, y el que defiende Barra, es el de las estadísticas de "sesgo". Si se tiene un proceso de previsión de rentabilidad $r_t$ y una previsión $h_t$ bajo la hipótesis nula de que la previsión es correcta, $r_t/h_t$ tiene varianza unitaria. El estadístico Bias se define como $T^{-1} \sum_{t=1}^T (r_t/h_t)^2$ que se distribuye asintóticamente de forma normal con media y desviación estándar unitarias. $1/\sqrt{T}$ que puede utilizarse para la comprobación de hipótesis.

Una alternativa es la regresión Mincer-Zarnowitz, en la que se corre una regresión entre la varianza realizada (digamos, la estimación de 20 días de negociación entre $t$ et $t+20$ ) y la previsión:

$$\hat\sigma^2_t =\alpha +\beta h^2_t + \epsilon_t$$

Bajo la hipótesis nula se prueba la hipótesis conjunta $\alpha=0, \beta=1$ . Patton y Sheppard también recomiendan la regresión, que produce una prueba más potente:

$$(\hat\sigma_t/h_t)^2 =\alpha/h^2_t +\beta + \epsilon_t$$

Ambas pruebas pueden ampliarse (de forma no rigurosa) a múltiples previsiones simulando carteras aleatorias y generando estadísticas para cada cartera, o suponiendo una relación idéntica entre previsiones y realizaciones en todos los pares de activos: $$vech(\Sigma_t) = \alpha + \beta vech ( H_t) + \epsilon_t$$ en el que $vech$ es el operador de "apilamiento" sobre una matriz (en este caso, las matrices de varianza prevista y realizada).

En cuanto a las pruebas indirectas, un enfoque popular es la cartera de varianza mínima para la comparación de modelos de riesgo. Se encuentra la cartera de varianza mínima bajo una restricción de presupuesto unitario utilizando dos o más matrices de covarianza de activos. Se puede demostrar que la verdadero matriz de covarianza daría como resultado la cartera con el más bajo varianza realizada. En otras palabras, los mejores modelos cubren mejor. La ventaja de este enfoque es que tiene en cuenta la calidad de la previsión de $\Sigma^{-1}$ que se utiliza en problemas de optimización reales; y no requiere proporcionar alfas, de modo que la prueba no es una prueba conjunta del modelo de riesgo y de la habilidad del gestor.

4voto

Vitalik Puntos 184

Probablemente quiera volver a cómo se evalúan los modelos de previsión en general: utilizando algunas métricas sobre previsiones de uno o muchos pasos, véase, por ejemplo. aquí para un debate en Wikipedia . Pero en lugar de pronosticar primeros momentos, ahora serían segundos momentos.

También se puede utilizar el error cuadrático medio (root) o error porcentual absoluto medio o medidas afines; véase, por ejemplo, este artículo de Rob Hyndman sobre la comparación de métodos .

2voto

tenfour Puntos 118

Creo que un buen enfoque consiste en comparar sus dos matrices de covarianza en un conjunto de carteras aleatorias (véase, por ejemplo http://www.portfolioprobe.com/about/applications-of-random-portfolios/assess-risk-models/ ).

Lo que se busca es una alta correlación (en todas las carteras) entre la volatilidad prevista y realizada de la cartera. Nunca vamos a estimar el nivel de volatilidad especialmente bien. Pero si se obtiene la clasificación correcta entre las carteras, eso es todo lo que se puede pedir.

Lo mejor sería generar carteras aleatorias que se parecieran a las que realmente tendrá, pero incluso las carteras generadas ingenuamente pueden ser suficientemente buenas.

2voto

user345 Puntos 176

En el trabajo con carteras de media-varianza, los elementos de las matrices de covarianza son muy volátiles y están infundidos de error, así que ¿cómo obtener previsiones que sean utilizables? Una idea sencilla es utilizar un estimador de contracción de covarianza igual a Stein que, en la práctica, es fácil de calcular y produce carteras superiores cuando se evalúan con datos fuera de muestra ( véase Continuous Time Mean Variance Portfolios, Zhou, 2000) . Por tanto, para evaluar una matriz covar propuesta,:

1) calcular la matriz covar igual, covar.eq, donde covar.eq[i,i] = covar[i,i]; y covar.eq[i,j] = mean(covar[i,j]); i no = j.

2) del = Sum(i,j)[ Abs(covar.eq[i,j]-covar[i,j] )], o si lo prefiere delsq = suma(i,j)[ (covar.eq[i,j]-covar[i,j])^2 ]

La matriz covar seleccionada será la más parecida a la matriz stein-shrinkage que (véase más arriba) produce carteras superiores.

Paul H. Lasky B & P Investments

1voto

userX Puntos 1161

Me gustan las ideas anteriores, pero me pregunto por qué el enfoque obvio, la probabilidad, no se ha mencionado en estas respuestas.

Comparo docenas de enfoques y también las implicaciones de la cartera, y estoy descubriendo que la probabilidad no es un mal predictor de la utilidad de esta última.

Me refiero a la probabilidad gaussiana posterior que asume media cero (o alguna media pequeña quizás si realmente te importa). Hay dos términos en la probabilidad aparte de una constante normalizadora

  1. Determinante del registro (puede utilizar fast_logdet de sklearn)
  2. Multiplicación de la precisión por la dispersión de datos

Completo código et derivación .

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X